Contributeurs actifs

Voici la liste des principaux contributeurs du blog par leurs commentaires. Vous pouvez cliquer sur leur lien pour obtenir leurs commentaires dans cette page :

macha (113), Michel Nizon (96), Pierre (85), Fabien (66), herve (65), leafar (44), guillaume (41), Laurent (40), philippe (31), Herve Kabla (30), rthomas (30), Sylvain (29), Olivier Auber (29), Daniel COHEN-ZARDI (28), Jeremy Fain (27), Olivier (27), Marc (26), Nicolas (25), Christophe (21), julien (19), Patrick (19), Fab (19), Arnaud@Thurudev (@arnaud_thurudev) (18), jmplanche (17), Jeremy (16), OlivierJ (16), JustinThemiddle (16), vicnent (16), bobonofx (15), Pierre Jol (14), patr_ix (14), Lionel Laské (@lionellaske) (13), Pierre Mawas (@Pem) (13), Franck Revelin (@FranckAtDell) (13), Lionel (12), Pascal (12), Jerome (12), anj (12), /Olivier (12), Phil Jeudy (12), Benoit (12), jean (12), Louis van Proosdij (11), jean-eudes queffelec (11), LVM (11), jlc (11), Marc-Antoine (11), dparmen1 (11), (@slebarque) (@slebarque) (11), INFO (@LINKANDEV) (11), François (10), Fabrice (10), Filmail (10), babar (10), arnaud (10), Vincent (10), Nicolas Andre (@corpogame) (10), Paul Gateau (10), Alexis (9), Rafael (9), FredericBaud (9), Laurent Bervas (9), Mickael (9), Hugues (9), ZISERMAN (9), Olivier Travers (9), Chris (9), jequeffelec (9), Yann (9), Fabrice Epelboin (9), Benjamin (9), Benoît Granger (9), laozi (9), Pierre Ygrié (9), (@olivez) (@olivez) (9), faculte des sciences de la nature et de la vie (9), gepettot (9), Michel Nizon (@MichelNizon) (9), Frederic (8), Marie (8), Yannick Lejeune (8), David (8), stephane (8), BScache (8), Michel (8), Daniel (8), Emmanuel (8), startuper (8), Fred A. (8), @FredOu_ (8), Nicolas Bry (@NicoBry) (8), Philippe Marques (8), @corpogame (8), Lionel Lesguer ????????‍????⌚️???????? (@lesguer_lionel) (8), ~laurent (7), Patrice (7), JB (7), ITI (7), Julien ÉLIE (7), Jean-Christophe (7), Nicolas Guillaume (7), Jean-Philippe (7), Stanislas (7), Alain (7), Sebastien (7), Serge Meunier (7), Pimpin (7), Lebarque Stéphane (@slebarque) (7), Pascal Lechevallier (@PLechevallier) (7), veille innovation (@vinno47) (7), YAN THOINET (@YanThoinet) (7), Bruno Lamouroux (@Dassoniou) (7), Fabien RAYNAUD (@FabienRaynaud) (7), Partech Shaker (@PartechShaker) (7), Legend (6), Romain (6), Jérôme (6), Paul (6), Eric (6), Serge (6), Benoit Felten (6), Bruno (6), Alban (6), Jacques (6), sebou (6), Cybereric (6), Poussah (6), Energo (6), Bonjour Bonjour (6), boris (6), MAS (6), antoine (6), canard65 (6), Godefroy (6), Richard T (6), PEAI60 (6), Free4ever (6), Guerric (6), Jean-Renaud ROY (@jr_roy) (6), tvtweet (6), loïc (6), Matthieu Dufour (@_matthieudufour) (6), Nathalie Gasnier (@ObservaEmpresa) (6), fabienne billat (@fadouce) (6), romu (6), EtienneL (5), DJM (5), Tristan (5), Stéphane (5), Gilles (5), Thierry (5), Alphonse (5), apbianco (5), dePassage (5), Sans_importance (5), Aurélien (5), herve lebret (5), Adrien (5), Jean-Denis (5), NM (5), Nicolas Chevallier (5), jdo (5), Youssef (5), Renaud (5), Alain Raynaud (5), mmathieum (5), (@bvanryb) (@bvanryb) (5), Boris Defréville (@AudioSense) (5), Richard (5), cedric naux (@cnaux) (5), Patrick Bertrand (@pck_b) (5), (@arnaud_thurudev) (@arnaud_thurudev) (5), (@PLechevallier) (@PLechevallier) (5), Stanislas Segard (@El_Stanou) (5), Pierre Mawas (@PemLT) (5), Fabrice Camurat (@fabricecamurat) (5), Hugues Sévérac (5), Laurent Fournier (5), Pierre Metivier (@PierreMetivier) (5), Hugues Severac (5), (5), cheramy (5), Jean-Philippe de Lespinay (5), Exabaz.com (@exabaz) (5)

Contributions sous le pseudo hervet

5 commentaires ont été soumis sous ce pseudo et avec le même email.

Le premier commentaire date du 6 mars 2016 et le dernier est du 19 mars 2016.

Commentaire 5 dans Les avancées de l’intelligence artificielle – 2, le 19 mars 2016

Quelques notes technico-cyniques pour synthétiser les concepts sous-jacents à ce 2ème volet.

– Le web regorge de références qui assènent que le bouquin de Minsky et Papert a tué le perceptron de Rosenblatt et l’IA pendant 10 ans. Il faut lire les 250 pages pour éviter de faire partie du presse-purée. Le traitement était visionnaire mais démarrait avec l’hypothèse de parallelisme fondée en 1943 par McCulloch and Pitts: chaque rang de neurones est mis à jour entièrement et séquentiellement. Il suffit de regarder le schéma du XOR pour comprendre que l’hypothèse était malheureuse. La démonstration a retardé les développements jusqu’en 1975, l’année ou l’algorithme de back-propagation a résolu le XOR. A partir de ce moment, l’IA est bloquée dans le mode “fabrication d’algorithmes de convergence” sur la base de structures parallèles et séquentielles.

– Certaines factions de l’IA ont essayé de sortir de l’ornière avec le réservoir computing, les réseaux récurrents et les réseaux temporels. De nouveaux algorithmes de convergence viennent naturellement en sus de ces nouvelles topologies qui s’affranchissent de certains dogmes du passé. Les papers font état de certaines améliorations en terme de classification qui ne sont pas très alléchantes au regard de leur complexité en comparaison avec les systèmes bien connus. Dans la tradition des Minsky et Papert, des articles tueurs ont probablement tué l’enthousiasme de ces pionniers et leurs subventions du même coup. Au risque de me répéter, le deep learning n’est pas vraiment une nouveauté: plutôt un raffinement intéressant présenté avec un bon emballage.

– Reconnaissance de la parole.
J’aurai cité l’algorithme de Viterbi (1967) et le réseau de Kohonen (1982) comme pierres fondatrices. La machine à écrire/dicter de Kohonen était basée sur la reconnaissance de phonèmes (finlandais). Toutes les langues – dont l’anglais – ne sont pas considérées comme phonétiques donc…

– Evolution de l’IA (1/2): construction et selection des caractéristiques
Le réseau de Kohonen, de Le Cunn, etc, sont pensés pour extraire de plus en plus de caractéristiques (features). Quel que soit le domaine considéré, un des récents problèmes de l’IA est de créer et sélectionner les features les plus informatives pour créer des bons classifiers. Les principaux outils mathématiques utilisés sont: statistiques (PCA), information theory (Shannon), matrices et transformations linéaires (eigenvectors, SVM), et biensûr on applique les techniques de l’IA sur les problèmes de l’IA pour trouver des solutions (ça vous rappelle pas la vache folle?). Je vous invite à aller voir les problèmes posés sur Kaggle pour vous faire une opinion ce qui se passe dans ce domaine.
L’hypothèse de base est que la performance d’un algorithme est limitée par la qualité et la quantité des caractéristiques analysées en vue de prendre une décision. Cette évolution est au coeur des reconnaissances faciale et vocale actuelles.

– SyNAPSE
Le projet SyNAPSE de DARPA prend une autre alternative: les algorithmes standards qui fonctionnent bien mais trop lentement sur des CPU/GPU peu adaptés,sont cablés pour les rendre plus rapides et moins chers à exploiter. C’est clairement un projet qui met toutes les chances de son côté pour fonctionner à coup/coûts sûrs. Application sur mesure: reconnaissance de signaux dans les échanges électroniques.

– Evolution de l’IA (2/2): application aux flots de données
Jusqu’à présent, les données fournies aux algorithmes sont comme des photos d’ aurores boréales: il faut une pose longue pour capturer un phénomène peu intense qui évolue rapidement dans le temps. Une intuition naît quand l’on réalise que la photo est très différente de ce que l’observateur voit: est-ce que l’ordre dans lequel les capteurs ont reçu l’information est important? Plus prosaïquement, prenez vous la même décision quand le feu passe au vert après avoir été rouge et quand le feu est passé rouge après avoir été vert? Non? Bien, alors vous portez de l’importance à l’ordre dans lequel l’information arrive mais jusqu’à récemment l’IA s’en contrefichait.
Quelques sociétés commerciales s’intéressent à l’exploitation des données en flot continu (streams), par exemple Grok. C’est une manière radicalement nouvelle de voir le problème. Cette nouvelle approche balbutiante consiste à essayer de faire sens des inputs sans les découper en tranches à l’avance.

– Artificial Intelligence A Modern Approach – Le livre de Russel et Norvig
Ce livre est probablement ok pour un étudiant en première année d’informatique. Comme il est assez daté, il pourra servir de bloque-porte geek assez rapidement. A emprunter ou à acheter d’occasion (en vue d’en faire un bloque-porte).

– Conclusion
De nombreuses applications actuelles de l’IA reposent sur des techniques imaginées il y a 25+ ans, avec un minimum de raffinement.
Le hype vient de la notoriété de leur employeur, ou des sommes investies.
Le Brain Project Européen repose sur une fusion d’anciennes techniques empruntées à la biologie et à l’IA, qui n’ont pas marché jusqu’à présent et pour des raisons assez évidentes. A 10 milliard d’Euro le bout, je comprends que certains scientifiques ont râlé.
Les nouveautés fondamentales nécessaires à l’évolution de la discipline sont rares, noyées dans le bruit, et progressent lentement par faute d’investissement. Les fonds publics sont alloués pour les 10 prochaines années. Les fonds privés sont axés sur un ROI à trop court terme. Le risque d’un Frankenstein électronique singulier est assez faible.

Répondre à ce commentaire

Commentaire 4 dans Les avancées de l’intelligence artificielle – 1, le 9 mars 2016

Mes excuses. C’est la réponse [3] que je visais.

Répondre à ce commentaire

Commentaire 3 dans Les avancées de l’intelligence artificielle – 1, le 9 mars 2016

L’article cité démontre que les hypothèses de Kurtzweil ne sont pas faciles à démonter: les 3 points avancés à propos de la capacité de calcul du cerveau humain sont pour le moins approximatifs.

1) Les connections sont importantes, nonobstant aucune théorie n’a pour le moment permis de rendre compte des observations déjà obtenues, ni de prédire -soit un comportement à partir d’un connectome, soit la structure d’un connectome à partir de comportements connus-, ni d’expliquer les mécanismes en jeu. Des vraies théories: aucune. Des hypothèses non prouvées: pléthore! “It was shown..”? Yeah right. Passez, il n’y a rien à voir.

2) et 3) “Neurons learn”. Wow. Je pense que l’auteur a vulgarisé le concept de plasticity à la limite de l’utile. Il y a d’autres hypothèses: les synapses apprennent et sont entièrement responsables de la mémoire; les gènes sont responsables de la mémoire… Ce sont des hypothèses de travail corroborées par des observations, mais l’élément prédictif est manquant. Une certaine dose de circonspection est donc requise, d’autant plus qu’il est important d’appréhender les concepts “apprentissage” et “mémoire” avec les connotations spécifiques relatives au domaine spécifique de chaque auteur. L’auteur du blog n’est pas tout terrain, et encore une fois il ne démontre rien.

Le presse-purée psychologico-biologique qui constitue la plus grosse partie de l’article ne justifie aucunement la juxtaposition entre deep-learning/GPU et cerveau humain, et encore moins une comparaison.

Il a aussi laissé de côté une intéressante observation biologique que voici. Le système cardiaque de la sangsue médicinale est régulé par une poignée de neurones bien identifiés, qui produisent un rythme cardiaque très spécifique et identifiable. Les électrophysiologistes (planteurs d’électrodes chez les Minimoys) ont noté que les caractéristiques des neurones en question varient allègrement par un facteur 5 d’un individu à l’autre, sans que le rythme cardiaque diffère entre individus. Ils appellent ça “animal-to-animal” variability. Ce phénomène est présent dans tout un tas d’espèces animales dans une variété de systèmes.
En quoi est-ce relevant quand on discute IA? La réponse est évidente pour les familiers des réseaux de neurones et du deep learning: l’output des réseaux de neurones de l’IA n’est pas immune quand on modifie une quantité aléatoire de “poids synaptiques” (pouffons à l’outrecuidance du terme) par des facteurs aléatoires dans [1, 5].
Ceci prouve que les réseaux de neurones actuels de l’IA, ce qui inclut le deep learning, ne peuvent pas être pris comme modèles du système nerveux ou du cerveau. Il suffit de comprendre comment la théorie des SVMs se décline sur un perceptron, pour intuiter le résultat d’une généralisation “par partie” à n’importe quel réseau de neurones.

De la même manière, les réseaux de neurones n’apprennent pas et ils ne reconnaissent pas: ils sont configurés pour des tâches de classification ou de regression, et les résultats sont extrapolés dans le même domaine. Point. Rien à voir avec de la mémoire ou de l’apprentissage tels que définis en biologie ou psychologie. Les seules comparaisons qui existent naissent dans l’esprit des gens qui ne grattent pas plus loin que le vernis, ou des marketeurs de NVidia. Faut les comprendre: c’est pas facile de vendre des CPUs…

Répondre à ce commentaire

Commentaire 2 dans Les avancées de l’intelligence artificielle – 1, le 6 mars 2016

You are welcome. Le titre exact de leur article: “A logical calculus of the idea immanent in nervous activity”. Les concepts introduits ont la vie dure, et persistent tant en IA qu’en neuroscience, malgré leur inadéquation avec les résultats expérimentaux. C’est un dogme. Vous pouvez me contacter offline.

Répondre à ce commentaire

Commentaire 1 dans Les avancées de l’intelligence artificielle – 1, le 6 mars 2016

Bon démarrage. J’aurai personellement placé le travail de McCullochs et Pitts de 1943 comme la premiere pierre à l’édifice. Leurs principes de réseaux de neurones – qui étaient déjà erronés si l’on considère les travaux de Helmholtz presque 100 ans plus tôt – sont toujours la base des cours d’IA dans le monde entier.

Répondre à ce commentaire

Derniers articles

Derniers albums photos

Depuis juillet 2014, mes photos sont maintenant intégrées dans ce site sous la forme d'albums consultables dans le plugin "Photo-Folders". Voici les derniers albums publiés ou mis à jour. Cliquez sur les vignettes pour accéder aux albums.
albth
Maison Bergès Jul2020
2020
54 photos
albth
Grenoble Jul2020
2020
22 photos
albth
QFDN
Expo
766 photos
albth
CES Jan2020
2020
2067 photos
albth
Expo QFDN Bercy Oct2019
2019
119 photos
albth
Web2day Nantes Jun2019
2019
66 photos
albth
Viva Technology May2019
2019
164 photos

Téléchargements gratuits

Comprendre l'informatique quantique, un ebook de 682 pages pour tout comprendre sur l'informatique quantique et ses enjeux pour l'entreprise :

image

Le Rapport du CES de Las Vegas, publié chaque année en janvier depuis 2006. Vous souhaitez une restitution personnalisée et un point de veille du marché pour votre organisation ? Contactez-moi.

CouvertureRapportCES

L'ebook Les usages de l'intelligence artificielle, novembre 2019 (624 pages)

CouvertureAvanceesIA

Le Guide des Startups, mis à jour chaque année au printemps, avec la somme la plus complète et actualisée d'informations pour lancer et faire vivre votre startup :

image

Voir aussi la liste complète des publications de ce blog.

image

Avec Marie-Anne Magnac, j'ai lancé #QFDN, l'initiative de valorisation de femmes du numérique par la photo. Installée depuis début octobre 2015 au Hub de Bpirance à Paris, elle circule dans différentes manifestations. L'initiative rassemble plus de 750 femmes du numérique (en mars 2020) et elle s'enrichi en continu. Tous les métiers du numérique y sont représentés.

Les photos et les bios de ces femmes du numérique sont présentés au complet sur le site QFDN ! Vous pouvez aussi visualiser les derniers portraits publiés sur mon propre site photo. Et ci-dessous, les 16 derniers par date de prise de vue, les vignettes étant cliquables.
flow
Emeline Parizel
Emeline est chef de projet web et facilitatrice graphique chez Klee Group, co-fondatrice TEDxMontrouge, gribouilleuse à ses heures perdues, joue dans une troupe de comédie musicale, co-animatrice de meetups et est sensible à l’art et à la culture.
flow
Elvira Shishenina
Elvira est ingénieure de recherche en calcul quantique chez Total.
flow
Marie-Noëlle Semeria
Marie-Noëlle est Chief Technology Officer pour le Groupe Total après avoir dirigé le CEA-Leti à Grenoble.
flow
Gwendolyn Garan
Gwendolyn est travailleuse indépendante, Game UX Designer, Game UX Researcher (GUR) et 2D Artist pour le jeu vidéo, étudiante en Master 2 Sciences du Jeu, speaker et Formatrice sur l'autisme et la neurodiversité, l'accessibilité et les systèmes de représentation dans les jeux vidéo.
flow
Alexandra Ferreol
Alexandra est étudiante en deuxième année d'un bachelor Game Design à L'Institut Supérieur des Arts Appliqués (année scolaire 2019/2020).
flow
Ann-elfig Turpin
Ann-elfig est étudiante en deuxième année à Lisaa Paris Jeux Vidéos (Technical artist, 3D artiste), année scolaire 2019/2020.
flow
Deborah Papiernik
En tant que SVP New Business Development, Technology & Strategic Alliances d’Ubisoft, Deborah construit de nouveaux business, des projets qui font le pont avec d’autres industries pour inspirer et séduire au-delà des frontières.
flow
Sylvie Pesty
Sylvie est Professeure des Universités à l’Université Grenoble-Alpes et Chercheure dans le domaine de l’Interaction sociale Humain-Robot, au Laboratoire d’Informatique de Grenoble.
flow
Daniella Tchana
Daniella est serial entrepreneur et CEO de BeSMART-edu.
flow
Sara Ducci
Sara est Professeure en Physique à l’Université de Paris Diderot. Recherche au Laboratoire Matériaux et Phénomènes Quantiques. Responsable du Master Physique et Applications. Membre du CA de la Société Française de Physique.
flow
Sophie Proust
Sophie est Chief Technology Officer (CTO) d'Atos.
flow
Julie Grollier
Julie est Directrice de recherches au CNRS dans l'Unité Mixte de Physique CNRS/Thales. Physicienne inspirée par le cerveau, passionnée par l’informatique et les neurosciences.
flow
Tiphaine Cerba
Tiphaine est ingénieure en matériaux sur la plateforme épitaxie du III-V lab (Thales/Nokia/CEA).
flow
Hélène Perrin
Hélène est Directrice de recherche au CNRS (LPL, Université Paris 13), membre du comité de pilotage du réseau de recherche francilien SIRTEQ sur les technologies quantiques, professeure d'optique quantique et de calcul quantique à l'École normale supérieure et à l'Université Paris-Diderot. #quantique
flow
Pascale Senellart
Pascale est Directrice de recherche au CNRS, Recherche au Centre de Nanosciences et de Nanotechnologies. Professeure chargée de cours à l’Ecole Polytechnique. Cofondatrice de la startup Quandela qui commercialise des sources de lumière quantique. Chargée de mission de l’Université Paris Saclay pour les Sciences et Technologies Quantiques. #quantique
flow
Tara Mestman
Tara est en classe de première générale (2019/2020) avec spécialités maths, physique-chimie et Langue Littérature Culture Étrangère Anglais. Suit le cursus sur l’intelligence artificielle chez Magic Makers. Egalement intéressée par le développement de l’informatique #quantique.

Derniers commentaires

“Un grand merci pour votre ouvrage. Concernant les pages 629 et suivantes -que j'apprécie ayant vécu cette époque et en ayant parlé avec quelqu'un devenu depuis prix Nobel - je me suis référé à...”
“Merci pour cette présentation très...”
“Addendum. La réponse est la même pour les caméras : bague de mise au point et profondeur de...”
“Bonjour, L'autofocus n'existait pas à cette époque. En regardant les objectifs des Hasselblad, une bague de mise au point est visible. Cela dit, vu la luminosité à la surface de la lune, le diaphragme doit être...”
“Merci pour cette interview passionnante. Il est important de dire que, dans les années 70-80, les thésards devaient réaliser des prouesses techniques avec peu de moyens...”

Abonnement email

Pour recevoir par email les alertes de parution de nouveaux articles :


 

Catégories

Tags


Voyages

Voici les compte-rendu de divers voyages d'études où j'ai notamment pu découvrir les écosystèmes d'innovation dans le numérique de ces différents pays :

Evénements

J'interviens dans de nombreuses conférences, événements, et aussi dans les entreprises. Quelques exemples d'interventions sont évoqués ici. De nombreuses vidéos de mes interventions en conférence sont également disponibles sur YouTube.