Contributeurs actifs

Voici la liste des principaux contributeurs du blog par leurs commentaires. Vous pouvez cliquer sur leur lien pour obtenir leurs commentaires dans cette page :

macha (113), Michel Nizon (96), Pierre (85), Fabien (66), herve (66), leafar (44), guillaume (42), Laurent (40), philippe (32), Herve Kabla (30), rthomas (30), Sylvain (29), Olivier Auber (29), Daniel COHEN-ZARDI (28), Jeremy Fain (27), Olivier (27), Marc (26), Nicolas (25), Christophe (21), julien (19), Patrick (19), Fab (19), jmplanche (17), Arnaud@Thurudev (@arnaud_thurudev) (17), Jeremy (16), OlivierJ (16), JustinThemiddle (16), vicnent (16), bobonofx (15), Paul Gateau (15), Pierre Jol (14), patr_ix (14), Jerome (13), Lionel Laské (@lionellaske) (13), Pierre Mawas (@Pem) (13), Franck Revelin (@FranckAtDell) (13), Lionel (12), Pascal (12), anj (12), /Olivier (12), Phil Jeudy (12), Benoit (12), jean (12), Louis van Proosdij (11), jean-eudes queffelec (11), LVM (11), jlc (11), Marc-Antoine (11), dparmen1 (11), (@slebarque) (@slebarque) (11), INFO (@LINKANDEV) (11), François (10), Fabrice (10), Filmail (10), babar (10), arnaud (10), Vincent (10), Nicolas Andre (@corpogame) (10), Michel Nizon (@MichelNizon) (10), Alexis (9), David (9), Rafael (9), FredericBaud (9), Laurent Bervas (9), Mickael (9), Hugues (9), ZISERMAN (9), Olivier Travers (9), Chris (9), jequeffelec (9), Yann (9), Fabrice Epelboin (9), Benjamin (9), Benoît Granger (9), laozi (9), Pierre Ygrié (9), (@olivez) (@olivez) (9), faculte des sciences de la nature et de la vie (9), Philippe Marques (9), gepettot (9), binance (9), Frederic (8), Marie (8), Yannick Lejeune (8), stephane (8), BScache (8), Michel (8), Daniel (8), Emmanuel (8), Jean-Philippe (8), startuper (8), Fred A. (8), @FredOu_ (8), Nicolas Bry (@NicoBry) (8), @corpogame (8), fabienne billat (@fadouce) (8), Bruno Lamouroux (@Dassoniou) (8), Lereune (8), ~laurent (7), Patrice (7), JB (7), ITI (7), Julien ÉLIE (7), Jean-Christophe (7), Nicolas Guillaume (7), Bruno (7), Stanislas (7), Alain (7), Godefroy (7), Sebastien (7), Serge Meunier (7), Pimpin (7), Lebarque Stéphane (@slebarque) (7), Jean-Renaud ROY (@jr_roy) (7), Pascal Lechevallier (@PLechevallier) (7), veille innovation (@vinno47) (7), YAN THOINET (@YanThoinet) (7), Fabien RAYNAUD (@FabienRaynaud) (7), Partech Shaker (@PartechShaker) (7), Legend (6), Romain (6), Jérôme (6), Paul (6), Eric (6), Serge (6), Benoit Felten (6), Alban (6), Jacques (6), sebou (6), Cybereric (6), Poussah (6), Energo (6), Bonjour Bonjour (6), boris (6), MAS (6), antoine (6), canard65 (6), Richard T (6), PEAI60 (6), Free4ever (6), Guerric (6), Richard (6), tvtweet (6), loïc (6), Matthieu Dufour (@_matthieudufour) (6), Nathalie Gasnier (@ObservaEmpresa) (6), romu (6), cheramy (6), brico (6), EtienneL (5), DJM (5), Tristan (5), Stéphane (5), Gilles (5), Thierry (5), Alphonse (5), apbianco (5), dePassage (5), Sans_importance (5), Aurélien (5), herve lebret (5), Alex (5), Adrien (5), Jean-Denis (5), NM (5), Christian (5), Nicolas Chevallier (5), jdo (5), Youssef (5), Renaud (5), Alain Raynaud (5), mmathieum (5), (@bvanryb) (@bvanryb) (5), Boris Defréville (@AudioSense) (5), cedric naux (@cnaux) (5), Patrick Bertrand (@pck_b) (5), (@arnaud_thurudev) (@arnaud_thurudev) (5), (@PLechevallier) (@PLechevallier) (5), Stanislas Segard (@El_Stanou) (5), Pierre Mawas (@PemLT) (5), Fabrice Camurat (@fabricecamurat) (5), Hugues Sévérac (5), Laurent Fournier (5), Pierre Metivier (@PierreMetivier) (5), Hugues Severac (5), (5), Joel (5), roller shutter repair singapore (5), A片 (5)

Contributions sous le pseudo hervet

5 commentaires ont été soumis sous ce pseudo et avec le même email.

Le premier commentaire date du 6 mars 2016 et le dernier est du 19 mars 2016.

Commentaire 5 dans Les avancées de l’intelligence artificielle – 2, le 19 mars 2016

Quelques notes technico-cyniques pour synthétiser les concepts sous-jacents à ce 2ème volet.

– Le web regorge de références qui assènent que le bouquin de Minsky et Papert a tué le perceptron de Rosenblatt et l’IA pendant 10 ans. Il faut lire les 250 pages pour éviter de faire partie du presse-purée. Le traitement était visionnaire mais démarrait avec l’hypothèse de parallelisme fondée en 1943 par McCulloch and Pitts: chaque rang de neurones est mis à jour entièrement et séquentiellement. Il suffit de regarder le schéma du XOR pour comprendre que l’hypothèse était malheureuse. La démonstration a retardé les développements jusqu’en 1975, l’année ou l’algorithme de back-propagation a résolu le XOR. A partir de ce moment, l’IA est bloquée dans le mode “fabrication d’algorithmes de convergence” sur la base de structures parallèles et séquentielles.

– Certaines factions de l’IA ont essayé de sortir de l’ornière avec le réservoir computing, les réseaux récurrents et les réseaux temporels. De nouveaux algorithmes de convergence viennent naturellement en sus de ces nouvelles topologies qui s’affranchissent de certains dogmes du passé. Les papers font état de certaines améliorations en terme de classification qui ne sont pas très alléchantes au regard de leur complexité en comparaison avec les systèmes bien connus. Dans la tradition des Minsky et Papert, des articles tueurs ont probablement tué l’enthousiasme de ces pionniers et leurs subventions du même coup. Au risque de me répéter, le deep learning n’est pas vraiment une nouveauté: plutôt un raffinement intéressant présenté avec un bon emballage.

– Reconnaissance de la parole.
J’aurai cité l’algorithme de Viterbi (1967) et le réseau de Kohonen (1982) comme pierres fondatrices. La machine à écrire/dicter de Kohonen était basée sur la reconnaissance de phonèmes (finlandais). Toutes les langues – dont l’anglais – ne sont pas considérées comme phonétiques donc…

– Evolution de l’IA (1/2): construction et selection des caractéristiques
Le réseau de Kohonen, de Le Cunn, etc, sont pensés pour extraire de plus en plus de caractéristiques (features). Quel que soit le domaine considéré, un des récents problèmes de l’IA est de créer et sélectionner les features les plus informatives pour créer des bons classifiers. Les principaux outils mathématiques utilisés sont: statistiques (PCA), information theory (Shannon), matrices et transformations linéaires (eigenvectors, SVM), et biensûr on applique les techniques de l’IA sur les problèmes de l’IA pour trouver des solutions (ça vous rappelle pas la vache folle?). Je vous invite à aller voir les problèmes posés sur Kaggle pour vous faire une opinion ce qui se passe dans ce domaine.
L’hypothèse de base est que la performance d’un algorithme est limitée par la qualité et la quantité des caractéristiques analysées en vue de prendre une décision. Cette évolution est au coeur des reconnaissances faciale et vocale actuelles.

– SyNAPSE
Le projet SyNAPSE de DARPA prend une autre alternative: les algorithmes standards qui fonctionnent bien mais trop lentement sur des CPU/GPU peu adaptés,sont cablés pour les rendre plus rapides et moins chers à exploiter. C’est clairement un projet qui met toutes les chances de son côté pour fonctionner à coup/coûts sûrs. Application sur mesure: reconnaissance de signaux dans les échanges électroniques.

– Evolution de l’IA (2/2): application aux flots de données
Jusqu’à présent, les données fournies aux algorithmes sont comme des photos d’ aurores boréales: il faut une pose longue pour capturer un phénomène peu intense qui évolue rapidement dans le temps. Une intuition naît quand l’on réalise que la photo est très différente de ce que l’observateur voit: est-ce que l’ordre dans lequel les capteurs ont reçu l’information est important? Plus prosaïquement, prenez vous la même décision quand le feu passe au vert après avoir été rouge et quand le feu est passé rouge après avoir été vert? Non? Bien, alors vous portez de l’importance à l’ordre dans lequel l’information arrive mais jusqu’à récemment l’IA s’en contrefichait.
Quelques sociétés commerciales s’intéressent à l’exploitation des données en flot continu (streams), par exemple Grok. C’est une manière radicalement nouvelle de voir le problème. Cette nouvelle approche balbutiante consiste à essayer de faire sens des inputs sans les découper en tranches à l’avance.

– Artificial Intelligence A Modern Approach – Le livre de Russel et Norvig
Ce livre est probablement ok pour un étudiant en première année d’informatique. Comme il est assez daté, il pourra servir de bloque-porte geek assez rapidement. A emprunter ou à acheter d’occasion (en vue d’en faire un bloque-porte).

– Conclusion
De nombreuses applications actuelles de l’IA reposent sur des techniques imaginées il y a 25+ ans, avec un minimum de raffinement.
Le hype vient de la notoriété de leur employeur, ou des sommes investies.
Le Brain Project Européen repose sur une fusion d’anciennes techniques empruntées à la biologie et à l’IA, qui n’ont pas marché jusqu’à présent et pour des raisons assez évidentes. A 10 milliard d’Euro le bout, je comprends que certains scientifiques ont râlé.
Les nouveautés fondamentales nécessaires à l’évolution de la discipline sont rares, noyées dans le bruit, et progressent lentement par faute d’investissement. Les fonds publics sont alloués pour les 10 prochaines années. Les fonds privés sont axés sur un ROI à trop court terme. Le risque d’un Frankenstein électronique singulier est assez faible.

Répondre à ce commentaire

Commentaire 4 dans Les avancées de l’intelligence artificielle – 1, le 9 mars 2016

Mes excuses. C’est la réponse [3] que je visais.

Répondre à ce commentaire

Commentaire 3 dans Les avancées de l’intelligence artificielle – 1, le 9 mars 2016

L’article cité démontre que les hypothèses de Kurtzweil ne sont pas faciles à démonter: les 3 points avancés à propos de la capacité de calcul du cerveau humain sont pour le moins approximatifs.

1) Les connections sont importantes, nonobstant aucune théorie n’a pour le moment permis de rendre compte des observations déjà obtenues, ni de prédire -soit un comportement à partir d’un connectome, soit la structure d’un connectome à partir de comportements connus-, ni d’expliquer les mécanismes en jeu. Des vraies théories: aucune. Des hypothèses non prouvées: pléthore! “It was shown..”? Yeah right. Passez, il n’y a rien à voir.

2) et 3) “Neurons learn”. Wow. Je pense que l’auteur a vulgarisé le concept de plasticity à la limite de l’utile. Il y a d’autres hypothèses: les synapses apprennent et sont entièrement responsables de la mémoire; les gènes sont responsables de la mémoire… Ce sont des hypothèses de travail corroborées par des observations, mais l’élément prédictif est manquant. Une certaine dose de circonspection est donc requise, d’autant plus qu’il est important d’appréhender les concepts “apprentissage” et “mémoire” avec les connotations spécifiques relatives au domaine spécifique de chaque auteur. L’auteur du blog n’est pas tout terrain, et encore une fois il ne démontre rien.

Le presse-purée psychologico-biologique qui constitue la plus grosse partie de l’article ne justifie aucunement la juxtaposition entre deep-learning/GPU et cerveau humain, et encore moins une comparaison.

Il a aussi laissé de côté une intéressante observation biologique que voici. Le système cardiaque de la sangsue médicinale est régulé par une poignée de neurones bien identifiés, qui produisent un rythme cardiaque très spécifique et identifiable. Les électrophysiologistes (planteurs d’électrodes chez les Minimoys) ont noté que les caractéristiques des neurones en question varient allègrement par un facteur 5 d’un individu à l’autre, sans que le rythme cardiaque diffère entre individus. Ils appellent ça “animal-to-animal” variability. Ce phénomène est présent dans tout un tas d’espèces animales dans une variété de systèmes.
En quoi est-ce relevant quand on discute IA? La réponse est évidente pour les familiers des réseaux de neurones et du deep learning: l’output des réseaux de neurones de l’IA n’est pas immune quand on modifie une quantité aléatoire de “poids synaptiques” (pouffons à l’outrecuidance du terme) par des facteurs aléatoires dans [1, 5].
Ceci prouve que les réseaux de neurones actuels de l’IA, ce qui inclut le deep learning, ne peuvent pas être pris comme modèles du système nerveux ou du cerveau. Il suffit de comprendre comment la théorie des SVMs se décline sur un perceptron, pour intuiter le résultat d’une généralisation “par partie” à n’importe quel réseau de neurones.

De la même manière, les réseaux de neurones n’apprennent pas et ils ne reconnaissent pas: ils sont configurés pour des tâches de classification ou de regression, et les résultats sont extrapolés dans le même domaine. Point. Rien à voir avec de la mémoire ou de l’apprentissage tels que définis en biologie ou psychologie. Les seules comparaisons qui existent naissent dans l’esprit des gens qui ne grattent pas plus loin que le vernis, ou des marketeurs de NVidia. Faut les comprendre: c’est pas facile de vendre des CPUs…

Répondre à ce commentaire

Commentaire 2 dans Les avancées de l’intelligence artificielle – 1, le 6 mars 2016

You are welcome. Le titre exact de leur article: “A logical calculus of the idea immanent in nervous activity”. Les concepts introduits ont la vie dure, et persistent tant en IA qu’en neuroscience, malgré leur inadéquation avec les résultats expérimentaux. C’est un dogme. Vous pouvez me contacter offline.

Répondre à ce commentaire

Commentaire 1 dans Les avancées de l’intelligence artificielle – 1, le 6 mars 2016

Bon démarrage. J’aurai personellement placé le travail de McCullochs et Pitts de 1943 comme la premiere pierre à l’édifice. Leurs principes de réseaux de neurones – qui étaient déjà erronés si l’on considère les travaux de Helmholtz presque 100 ans plus tôt – sont toujours la base des cours d’IA dans le monde entier.

Répondre à ce commentaire

Last posts / derniers articles

Free downloads

Understanding Quantum Technologies 2024, a free 1,554 pages ebook about all quantum technologies (computing, telecommunications, cryptography, sensing):

image

Understanding Quantum Technologies 2024 Short version, a 26 pages version with key takeaways from the eponymous book.

image

The Two-Spin Enigma: From the Helium Atom to Quantum Ontology, a quantum foundations paper coauthored with Philippe Grangier, Alexia Auffèves, Nayla Farouki and Mathias Van den Bossche (paper backstory).
image

Voir aussi la liste complète des publications de ce blog.

Derniers commentaires

“Bravo Olivier! Quel boulot tu m’épates totalement et je t’adresse mes plus sincères félicitations! Je ne suis pas sûr de tout lire car je suis maintenant 100% dans l’art et la poésie et mon seul rapport à la...”
“[…] to Olivier Ezratty, author of Understanding quantum technologies 2023, the challenge for Europe is to position itself outside of where the US and China are likely end up...”
“Désolé, je suis passé à l'anglais en 2021 sans revenir au français. Traduire un tel ouvrage (1366) pages d'une langue à l'autre est un travail herculéen, même avec des outils de traduction automatique. Sachant...”
“Je suis un artiste conceptuel, certes je garde la grande majorité de mon travail dans ma tête par défaut d'un grand mécène. Mon travail de base se situe sur le "mimétisme" qui mène aux itérations et de nombreux...”
“Better than a Harry Potter! Thanks Olivier...”

Abonnement email

Pour recevoir par email les alertes de parution de nouveaux articles :


 

RRR

 
S
S
S
S
S
S
S
img
img
img

Derniers albums photos

Depuis juillet 2014, mes photos sont maintenant intégrées dans ce site sous la forme d'albums consultables dans le plugin "Photo-Folders". Voici les derniers albums publiés ou mis à jour. Cliquez sur les vignettes pour accéder aux albums.
albth
QFDN
Expo
791 photos
albth
Remise Légion d'Honneur Philippe Herbert Jul2021
2021
15 photos
albth
Vivatech Jun2021
2021
120 photos
albth
Visite C2N Palaiseau Mar2021
2021
17 photos
albth
Annonce Stratégie Quantique C2N Jan2021
2021
137 photos
albth
Maison Bergès Jul2020
2020
54 photos
albth
Grenoble Jul2020
2020
22 photos

image

Avec Marie-Anne Magnac, j'ai lancé #QFDN, l'initiative de valorisation de femmes du numérique par la photo. Elle circule dans différentes manifestations. J'ai réalisé entre 2011 et mi 2023 plus de 800 portraits photographiques de femmes du numérique avec une représentation de tous les métiers du numérique.

Les photos et les bios de ces femmes du numérique sont présentées au complet sur le site QFDN ! Vous pouvez aussi visualiser les derniers portraits publiés sur mon propre site photo. Et ci-dessous, les 16 derniers par date de prise de vue, les vignettes étant cliquables.
flow
Gaëlle Rannou
Gaëlle est étudiante à 42 Paris et tutrice de l’équipe pédagogique (en 2021).
flow
Jehanne Dussert
Jehanne est étudiante à l'école 42, membre d'AI For Tomorrow et d'Open Law, le Droit ouvert. Elle est aussi fondatrice de "Comprendre l'endométriose", un chatbot informant sur cette maladie qui touche une personne menstruée sur 10, disponible sur Messenger. #entrepreneuse #juridique #santé
flow
Chloé Hermary
Chloé est fondatrice d'Ada Tech School, une école d'informatique alternative et inclusive dont la mission est de former une nouvelle génération de talents diversifié à avoir un impact sur le monde. #entrepreneuse #formation
flow
Anna Minguzzi
Anna est Directrice de Recherche au CNRS au Laboratoire de Physique et Modélisation des Milieux Condensés (LPMMC) à Grenoble. #quantique
flow
Maeliza Seymour
Maeliza est CEO et co-fondatrice de CodistAI, qui permet de créer une documentation du code informatique par une IA.
flow
Candice Thomas
Candice est ingénieure-chercheuse au CEA-Leti, travaillant sur l’intégration 3D de bits quantiques au sein du projet Quantum Silicon Grenoble. #recherche #quantique
flow
Stéphanie Robinet
Stéphanie dirige un laboratoire de conception intégrée de circuits électroniques du CEA-Leti qui travaille sur des systèmes sur puces intégrés, des interfaces de capteurs, des interfaces de contrôle de qubits et de la gestion intégrée de l'énergie. #recherche #quantique
flow
Sabine Keravel
Sabine est responsable du business development pour l’informatique quantique chez Atos. #quantique #IT
flow
Céline Castadot
Céline est HPC, AI and Quantum strategic project manager chez Atos.
flow
Léa Bresque
Léa est doctorante, en thèse à l'institut Néel du CNRS en thermodynamique quantique, sous la direction d'Alexia Auffèves (en 2021). #quantique #recherche
flow
Emeline Parizel
Emeline est chef de projet web et facilitatrice graphique chez Klee Group, co-fondatrice TEDxMontrouge, gribouilleuse à ses heures perdues, joue dans une troupe de comédie musicale, co-animatrice de meetups et est sensible à l’art et à la culture. #création
flow
Elvira Shishenina
Elvira est Quantum Computing lead chez BMW ainsi que présidente de QuantX, l'association des polytechniciens du quantique. #quantique
flow
Marie-Noëlle Semeria
Marie-Noëlle est Chief Technology Officer pour le Groupe Total après avoir dirigé le CEA-Leti à Grenoble. #recherche
flow
Gwendolyn Garan
Gwendolyn est travailleuse indépendante, Game UX Designer, Game UX Researcher (GUR) et 2D Artist pour le jeu vidéo, étudiante en Master 2 Sciences du Jeu, speaker et Formatrice sur l'autisme et la neurodiversité, l'accessibilité et les systèmes de représentation dans les jeux vidéo. #création #jeuvidéo
flow
Alexandra Ferreol
Alexandra est étudiante d'un bachelor Game Design à L'Institut Supérieur des Arts Appliqués (année scolaire 2019/2020) #création #jeuvidéo
flow
Ann-elfig Turpin
Ann-elfig est étudiante en deuxième année à Lisaa Paris Jeux Vidéos (Technical artist, 3D artiste), année scolaire 2019/2020. #création #jeuvidéo