Les conséquences pratiques d’AlphaGo Zero

Publié le 9 novembre 2017 et mis à jour le 13 novembre 2017 - 6 commentaires -
PDF Afficher une version imprimable de cet article
  

La performance de la troisième version d’AlphaGo, dite Zero, annoncée en octobre 2017 en a surpris plus d’un. L’IA de DeepMind, la filiale anglaise de Google, s’entrainait toute seule sans données d’origine humaine autres que les règles de base du jeu de Go. La performance semblait extraordinaire. Elle l’était au regard de la version précédente d’AlphaGo qui s’entrainait en exploitant plus de 150 000 parties de Go jouées par des maitres du jeu et avec un double système de réseau de neurones pour l’évaluation des mouvements et des coups. Cette IA de troisième génération s’était, qui plus est, entrainée en seulement trois jours sur trois serveurs de type PC bien moins lourds que les configurations à plusieurs racks utilisées dans les deux versions précédentes, qu’elle battait à plates-coutures.

Je vais essayer de mettre cela en perspective avec d’autres avancées de l’IA, notamment en robotique. Et surtout, vis à vis de performances que DeepMind a mis en avant comme des applications potentielles d’AlphaGo Zero comme la simulation du repliement de protéines complexes, l’un des problèmes mathématiques les plus complexes à gérer qui soit aujourd’hui.

Mastering AlphaGo witout Human Knowledge DeepMind Oct2017

La performance de DeepMind AlphaGo Zero est bien documentée dans AlphaGo Zero Learning from Scratch ainsi que dans l’article de 43 pages correspondant publié dans Nature. Dans cette revue, l’accès à l’article est payant mais on le trouve aussi à l’identique sur le site de DeepMind : Mastering the game of Go without human knowledge. Une analyse des parties d’AlphaGo Zero est même disponible sur YouTube.

Et voici le genre de réaction d’étonnement que la performance a pu générer : Why AlphaGo Zero is a Quantum Leap Forward in Deep Learning de Carlos Perez ou La nouvelle Performance d’AlphaGo est DINGUE – Maintenant, il crée de la connaissance ex nihilo. Et ce que cela augure est profond, de Vincent Pinte-Deregnaucourt (20 octobre 2017). L’auteur se demande comment cette performance serait applicable aux lois de la physique, du droit ou des conventions sociales. Une très bonne question ! Qui alimente au passage le vieux débat sur l’Intelligence Artificielle Etroite, ad-hoc, qui n’est pas facile à répliquer dans d’autres domaines. Et nous allons voir pourquoi.

J’étais particulièrement intrigué par cette affirmation lue sur le site de DeepMind : “While it is still early days, AlphaGo Zero constitutes a critical step towards this goal. If similar techniques can be applied to other structured problems, such as protein folding, reducing energy consumption or searching for revolutionary new materials, the resulting breakthroughs have the potential to positively impact society”. Le repliement de protéines ? C’est le Graal absolu de la recherche biomédicale alors que gagner au jeu de Go ne sert pas à grand chose dans la vie courante, à part, remettre en question l’ego et le savoir pluri-millénaire des grands joueurs de Go en Asie ! Si DeepMind arrivait à faire progresser ce domaine, elle ferait faire des bonds immenses à la recherche dans la santé. Je vais y revenir en détail dans cet article.

Conceptuellement, et à haut niveau, l’approche d’AlphaGo Zero n’est pas trop complexe à comprendre. Le jeu de Go comprend des règles très simples de positionnement des jetons. Sa simulation est complexe car la combinatoire des coups est très élevée. ll est plus difficile qu’aux échecs de tester tous les coups possibles pour trouver le bon parcours de jeu. L’IA a donc pour mission d’élaguer l’arbre de décision des positions en supprimant le plus efficacement les branches mortes, celles qui ne peuvent pas mener à la victoire et en privilégiant celles qui ont le plus de chances d’y mener. Dans AlphaGo Zero, cet élagage s’appuie sur l”exécution d’un réseau de neurones d’apprentissage par renforcement pour chaque coup possible. Le système s’est d’abord entrainé contre lui-même et en jouant 4,9 millions de parties. Il a alors joué contre la version précédente d’AlphaGo Zero entrainée de son côté par une combinaison associant notamment l’exploitation de 150 000 parties existantes, d’origine humaine. Ici, le système était à la fois plus rapide et plus efficace sans exploiter ces parties préexistantes.

AlphaGo Zero

Bref, nous avons une IA qui apprend toute seule sans avoir besoin de données d’entrainement. Est-ce généralisable facilement ? Est-ce le début d’une IA généraliste ? En fait, on en est encore loin. Comment d’ailleurs fonctionne une IA qui n’a pas besoin de données d’entrainement ? Quelles sont les règles et les informations utilisées par l’IA ? Comment le monde est-il modélisé et simulable ? C’est une question d’univers fermé ou ouvert, et de problèmes discrets ou continus, bref, une question dépendant de la nature des règles et éléments mathématiques qui régissent le fonctionnement d’un système complexe.

Pour simplifier les choses, nous allons illustrer la question avec trois types de règles : les règles discrètes avec une combinatoire finie, les règles continues avec une combinatoire infinie, et les règles déduites implicitement des systèmes car ceux-ci ne sont pas modélisables par des règles explicites, ce qui est le cas pour ce qui relève du vivant en général et du comportement des consommateurs en particulier.

Règles discrètes et combinatoire finie

Ces règles discrètes sont exploitée dans les jeux de société (dames, échecs, Go). Le principe de base des solutions d’IA pour gagner à ces jeux consiste à élagage d’une manière ou d’une autre un arbre de décision de taille finie.

Pour sortir d’un labyrinthe parfait, on tourne toujours vers la gauche ou vers la droite et à un moment donné, la topologie du labyrinthe fait que l’on trouve la sortie. Ce n’est pas forcément optimal mais cela marche. La règle d’élagage est simple et même binaire. Dans le cas du jeu de Go, la règle est celle du placement des pions et de la manière de battre l’adversaire en entourant ses positions.

Dans les jeux de société comme le tic-tac-toe, les dames, les échecs, ou le Go, les règles définissent la grille de jeu, la variété des pions et les règles de leur déplacement. Le jeu de Go a des règles plus simples parce qu’il n’existe que deux types de pions, les blancs et les noirs, et une règle d’encerclement des pions adverses, mais la combinatoire est plus élevée qu’aux échecs, simplement parce que l’aire de jeu est plus grande, et les règles de positionnement des pions plus libres.

Regles Echecs vs Go

Yann LeCun l’explique bien dans Facebook’s head of AI wants us to stop using the Terminator to talk about AI (octobre 2017) : “So, AlphaGo is using reinforcement learning. And reinforcement learning works for games; it works for situations where you have a small number of discrete actions, and it works because it requires many, many, many trials to run anything complex. AlphaGo Zero has played millions of games over the course of a few days or few weeks, which is possibly more than humanity has played at a master level since Go was invented thousands of years ago. This is possible because Go is a very simple environment and you can simulate it at thousands of frames per second on multiple computers. […] But this doesn’t work in the real world because you cannot run the real world faster than real time.”.

Certains s’amusent parfois à comparer le nombre de parties possibles du jeu de Go avec le nombre d’atomes dans l’Univers, ce qui est impressionnant mais n’a aucun sens. Ce ne sont pas des données comparables ! Une combinatoire de positions n’est pas homothétique à un nombre d’objets ou d’atomes ! L’association d’idée a tendance à gonfler les capacités d’AlphaGo. Or une IA ne peut pas simuler des systèmes ultra-complexes à l’échelle atomique, comme un être vivant ou l’ensemble d’une planète. La combinatoire est alors plusieurs ordres de grandeur d’ordres de grandeur supérieurs à celle du jeu de Go !

Il existe une variante de cette catégories de règles, toujours avec des règles discrètes et une combinatoire finie, mais intégrant une incertitude liée à une information incomplète sur le jeu des adversaires. C’est le cas du jeu de Poker. La performance de deux IA ayant gagné au Poker est de ce point de vue plus étonnante que celle d’Alpha Go Zero, avec d’un côté Libratus et de l’autre DeepStack. Toutes les deux ont été annoncées en 2017 mais leurs auteurs sont moins efficaces en marketing que Google et DeepMind !

Les problèmes de ce type ne sont pas nombreux dans la vie pratique. Il s’agit essentiellement des jeux de société, les premiers systèmes auxquels se sont attaquées des générations entières de chercheurs en IA.

Il en existe cependant qui font partie du champ de l’IA depuis sa naissance, et surtout depuis les années 1980 : les systèmes experts à base de moteurs de règles et de solveurs ! Ceux-ci exploitent des règles en général discrètes et une combinatoire finie de ces règles pour trouver une solution optimale à partir d’une question posée. Les mécanismes de résolution de problèmes font partie des solveurs, qui exploitent des techniques dites de chainage avant ou arrière. Ils n’utilisent pour l’instant pas encore les réseaux de neurones ou le deep learning car il semble que ce n’est pas efficace. Certains moteurs de règles peuvent être alimentés par des règles identifiées de manière empirique à partir de l’analyse de données terrain et de techniques de machine learning pour les données et de deep learning pour ce qui est du traitement du langage.

Règles continues et combinatoire infinie

Un second type de problèmes de combinatoires à traiter est celui de règles que l’on peut qualifier de “continues”. On les retrouve en particulier dans la physique des matériaux, la chimie, et le fameux repliement des protéines dans leur forme tertiaire voire quaternaire qui est évoqué à la fin de l’article de DeepMind sur AlphaGo Zero. Je vais creuser un peu ce sujet.

Repliement de proteines

Les protéines sont fabriquées par les ribosomes dans les cellules et à partir de l’assemblage en continu de 21 acides aminés différents. L’encodage de ces acides aminé provient de la lecture de brins d’ARN messagers issus de la copie de morceaux de l’ADN des chromosomes que l’on appelle les gênes. Chaque acide aminé est relié au précédent par une liaison chimique avec un degré de liberté qui se mesure par une orientation spatiale et un angle de rotation. Un nouvel acide aminé va former un angle avec le précédent dans un sens ou dans l’autre en fonction des forces d’attraction ou de répulsion des autres atomes de la protéine sachant que celles-ci vont évoluer au gré de la création de la protéine après l’ajout de cet acide aminé. Les acides aminés ont naturellement tendance à créer des structures géométriques comme des hélices dans la structure secondaire des protéines. Dans la structure tertiaire, la protéine atteint son équilibre géométrique et dans la structure quaternaire, des entités séparées sont assemblées pour créer une molécule complexe [voir cette intéressante explication dans How to Fold (and Misfold) a Protein et sa seconde partie, de Sarah Kearns, février 2017].

.

Proteins folding structures

C’est le cas des histones autour desquelles l’ADN s’enroule dans les chromosomes, des ribosomes qui sont un assemblage de plus de 70 protéines et de quatre brins complexes d’ARN et de tout un tas de protéines complexes que l’on trouve dans les cellules ou de l’ATPase, une protéine complexe située dans les mitochondries qui convertit l’ADP en ATP, cette dernière étant la source énergétique principale du métabolisme des cellules.

Le repliement d’une protéine va conditionner sa fonction, à savoir son interaction avec les autres protéines et enzymes des cellules. Un déficit de certaines protéines peut être à l’origine de la maladie d’Alzheimer. Savoir comment créer des gênes qui fabriqueront des protéines pouvant s’attaquer à différentes pathologies extra- ou intra-cellulaires est donc très intéressant. On peut se définir une cible de protéine à attaquer dont on connait la forme primaire mais pas forcément tertiaire. Il faut donc pouvoir la déduire de sa formule qui est une suite d’acides aminés conditionnée par le code ADN de ses gênes, pour déterminer les zones à toucher et ensuite concevoir une protéine de synthèse via du génie génétique, et l’implanter éventuellement dans les chromosomes de cellules vivantes grâce aux fameux ciseaux à ADN CRISP-Cas9. Pour fabriquer cette nouvelle protéine, il faut pouvoir en déterminer sa composition et son repliement. Donc, en gros, pour créer une thérapie à base de protéine de synthèse, il faut idéalement pouvoir simuler et la ou les protéines ciblées et la protéine d’attaque. Aujourd’hui, on ne sait pas le faire et tout relève d’expérimentations laborieuses et de bio-mimétisme.

Les lois physiques associées au repliement des protéines sont connues au niveau atomique avec les liaisons covalentes où des atomes partagent des électrons comme dans les liaisons hydrogène-hydrogène ou hydrogène-oxygène, les attractions-répulsions ioniques ou les forces de Van der Vals qui régissent la manière dont les parties des protéines interagissent entre elles. Ces forces sont antagonistes et leur équilibre est difficile à déterminer par un simple calcul. La forme que prend une protéine est déterminée par la recherche d’un équilibre  énergétique optimum sachant qu’elle est baignée dans un environnement en général aqueux, qui ajoute des interactions ioniques diverses avec les molécules d’eau, certaines parties des protéines étant hydrophobes et d’autres hydrophiles [voir Solving for Minimum Energy Structures with Neural Networks de Brian Barch and Norman Tubman, 2017].

On arrive aujourd’hui à simuler numériquement le repliement d’à peine quelques acides aminés de peptides, qui sont des petites protéines. Or les protéines qui constituent le gros du fonctionnement de nos cellules et de leurs membranes peuvent comprendre plusieurs centaines voire milliers d’acides aminés.

La détermination du repliement des protéines ne relève pas de la recherche dans un arbre de décision comme dans le jeu de Go. On peut éventuellement s’appuyer sur un réseau de neurones de deep learning, mais on ne sait pas forcément comment l’entrainer car on manque de données d’exemples. De nombreux chercheurs travaillent sur cette épineuse question et depuis des années, avec des progrès réguliers.

Il existe une autre voie, plus long terme. Ce genre de simulation sera peut-être un jour à la portée d’ordinateurs quantiques qui présentent la spécificité de pouvoir simuler plusieurs états simultanément dans un système complexe, et pas nécessairement avec des modèles mathématiques du type de ceux du deep-learning. Nous aurons l’occasion d’en reparler en 2018 car le sujet est florissant et passionnant.

Bref, le repliement des protéines est un sujet épineux et stratégique. Si DeepMind arrive à le traiter, ce sera très bien et même révolutionnaire avec des implications incommensurables dans le secteur de la santé. Mais DeepMind ne le fera pas forcément avec la même méthode que celle qui est mise en oeuvre dans AlphaGo Zero.

Règles déduites implicitement dans des systèmes ouverts et complexes

Dans le monde du vivant et dans l’environnement, les forces élémentaires de la physique se combinent avec des niveaux de complexité et de combinatoire très élevés. Que ce soit pour conditionner les comportement des individus, les évolutions de la météo, les maladies ou de nombreux autres phénomènes naturels.

Regles et IA

Les logiciels et l’IA ne peuvent pas facilement simuler ce monde réel car il est trop complexe. Ils se contentent donc d’identifier des règles inconnues par l’exploitation des données issues de l’observation de l’environnement et avec divers capteurs. Le machine learning et le deep learning identifient ces règles implicites qui associent par un exemple un profil type de client à un comportement, ou une image d’objet à son nom.

Dans la biologie, le machine learning permet de déterminer d’éventuelles corrélations entre les mutations du génome et l’apparition de cancers divers, ou encore, entre les habitudes alimentaires, la pollution et l’apparition de ces mêmes cancers. Ce sont des corrélations mais pas forcément des causalités, ce qui explique les limites de la médecine dite prédictive. Elle prévoit éventuellement mais ne permet pas forcément de traiter les pathologies. Pour guérir les patients, il faut inventer des traitements et les corrélations ne suffisent pas. On peut juste limiter les facteurs de risques.

Pour revenir à mon obsession du repliement des protéines, des méthodes d’évaluation du repliement des protéines en structure tertiaire utilisent des réseaux de neurones récurrents et à mémoire qui utilisent des règles empiriques (RNN, LSTM, voir Deep Recurrent Neural Network for Protein Function Prediction from Sequence de Xueliang Leon Liu, 2017). Ces réseaux de neurones sont entraînés avec des bases de protéines dont on connait déjà la structure tertiaire, qui a été identifiée avec des techniques d’observation utilisant la cristallographie à rayons X, la même technique utilisée par Rosalind Franklin en 1953 pour déterminer la structure en hélice de l’ADN, expliquée dans cette vidéo.

Ce sont des méthodes probabilistes et pas de la simulation des lois physiques gouvernant la position des atomes des molécules les uns vis à vis des autres. Dans ce cas-là, les règles de repliement des protéines sont donc déduites de manière implicite par l’observation. La science est construite à partir d’une combinaison d’observations, d’élaboration de règles et théories élaborées a priori ou vérifiées a posteriori par l’observation, et affinées si besoin est.

Les IA peuvent apprendre par elles-même dans un environnement ouvert en interagissant avec le monde physique, ce que font certains robots avancés qui tâtonnent et apprennent de manière autonome à manipuler des pièces. C’est de l’apprentissage par renforcement applicable à un monde ouvert.

Enfin, il existe des problèmes tellement complexes qu’ils n’ont pas de solution formelle, relevant du principe d’indécidabilité du théorème de Gödel. C’est par exemple le cas de l’optimisation parfaite d’un mix marketing. Cette optimisation parfaite est impossible et indécidable car l’environnement est très dynamique, il comporte trop d’inconnue et l’univers du problème n’est pas facilement simulable. Les outils et leurs règles changent sans cesse. Cela impose de se mettre en permanence en posture d’expérimentation. On peut mesurer l’efficacité d’une solution prise isolément, mais pas optimiser l’usage de l’ensemble des solutions dans leur environnement.

L’IA, l’Homme et les règles complexes

Arriver à distinguer le niveau de performance de l’IA comparée à l’Homme est un épineux débat. Il existe des domaines où elle dépasse déjà largement les capacités humaines (ci-dessous, en vert) et d’autres où elle est encore en-deca.

Les jeux sont un domaine où les IA sont déjà devant l’Homme car ils fonctionnent sur des règles simples où la combinatoire est certes élevée mais finie. La combinaison de la force brute des machines et des techniques probabilistes d’élagage d’arbre de décision font l’affaire.

La vision est un domaine où l’IA dépasse déjà les capacités humaines, notamment dans la vision spécialisée que constitue l’interprétation de résultats d’imagerie médicale. Et encore, ce niveau de performance est atteint, comme dans celui de la conduite autonome, qu’avec des images dont la résolution est généralement réduite à 224×224 pixels. L’œil capte de son côté 100 millions de pixels par œil ! Cela créé un énorme décalage qualitatif. Lorsque la puissance des prochaines générations de processeurs neuromorphiques augmentera, cela permettra de faire tourner des réseaux de neurones convolutionnels (ou convolutifs, les deux appellations étant couramment utilisées) avec une bien meilleure résolution. Et la vision artificielle s’améliorera encore !

Le traitement du langage est le domaine qui est encore en retrait par rapport aux capacités humaines, même la traduction automatique qui est encore très imparfaite. Mais si vous ne connaissez pas le japonais, le traducteur français-japonais est évidemment meilleur que vous ! Il faut donc distinguer la comparaison entre l’IA et un humain en particulier et avec l’ensemble des humains en général. Ce d’autant plus que le savoir ingéré par les IA est presque toujours un savoir composite issu d’un grand nombre d’humains.

Côté énergétique, l’Homme et la vie en général ont encore quelques points d’avance. Le cerveau ne consomme que 20 W et le corps environ 100 W au repos. Une IA ne fait pas grand chose avec seulement 20 W, qui correspondent à la consommation électrique d’un laptop convertissant des photos RAW en JPEG sous Lightroom (c’est précis isn’t it ?). Les trois serveurs d’AlphaGo Zero doivent probablement consommer au minimum 1000 à 2000 W. Les premières moutures consommaient plus de 20 KW.

IA vs Homme Scorecard

Ce qui est indiqué en rouge dans le schéma n’est cependant pas théoriquement inaccessible aux IA. Il est probable que des progrès significatifs seront réalisés dans les années à venir, au moins dans la traduction, la maitrise du langage et le raisonnement généraliste. L’agilité physique générale en robotique fera aussi des progrès. Ceux-ci ne dépendent pas que de l’IA. Ils sont aussi liés aux progrès dans la mécanique, les capteurs, les moteurs et les batteries, qui sont plus lents à émerger que dans l’IA.

Ces domaines où l’IA est encore en retrait par rapport à l’Homme correspondent finalement aux aspects de la vie qui ne reposent pas sur des règles simples ! Ce qui permet de boucler en beauté ce petit papier de circonstance en vous rassurant un peu sur votre devenir !

RRR

 
S
S
S
S
S
S
S
img
img
img

Publié le 9 novembre 2017 et mis à jour le 13 novembre 2017 Post de | Composants, Intelligence artificielle, Logiciels, Technologie | 33436 lectures

PDF Afficher une version imprimable de cet article     

Reçevez par email les alertes de parution de nouveaux articles :


 

RRR

 
S
S
S
S
S
S
S
img
img
img

Les 6 commentaires et tweets sur “Les conséquences pratiques d’AlphaGo Zero” :




Ajouter un commentaire

Vous pouvez utiliser ces tags dans vos commentaires :<a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong> , sachant qu'une prévisualisation de votre commentaire est disponible en bas de page après le captcha.

Last posts / derniers articles

Free downloads

Understanding Quantum Technologies 2023, a free 1,366 pages ebook about all quantum technologies (computing, telecommunications, cryptography, sensing) also available in paperback edition on Amazon:

image

Free downloads

Understanding Quantum Technologies 2023 Short version, a 24 pages with key takeaways from the eponymous book.

image

Voir aussi la liste complète des publications de ce blog.

Derniers albums photos

Depuis juillet 2014, mes photos sont maintenant intégrées dans ce site sous la forme d'albums consultables dans le plugin "Photo-Folders". Voici les derniers albums publiés ou mis à jour. Cliquez sur les vignettes pour accéder aux albums.
albth
QFDN
Expo
791 photos
albth
Remise Légion d'Honneur Philippe Herbert Jul2021
2021
15 photos
albth
Vivatech Jun2021
2021
120 photos
albth
Visite C2N Palaiseau Mar2021
2021
17 photos
albth
Annonce Stratégie Quantique C2N Jan2021
2021
137 photos
albth
Maison Bergès Jul2020
2020
54 photos
albth
Grenoble Jul2020
2020
22 photos

image

Avec Marie-Anne Magnac, j'ai lancé #QFDN, l'initiative de valorisation de femmes du numérique par la photo. Elle circule dans différentes manifestations. L'initiative rassemble près de 800 femmes du numérique (en janvier 2022) et elle s'enrichit en continu. Tous les métiers du numérique y sont représentés.

Les photos et les bios de ces femmes du numérique sont présentées au complet sur le site QFDN ! Vous pouvez aussi visualiser les derniers portraits publiés sur mon propre site photo. Et ci-dessous, les 16 derniers par date de prise de vue, les vignettes étant cliquables.
flow
Gaëlle Rannou
Gaëlle est étudiante à 42 Paris et tutrice de l’équipe pédagogique (en 2021).
flow
Jehanne Dussert
Jehanne est étudiante à l'école 42, membre d'AI For Tomorrow et d'Open Law, le Droit ouvert. Elle est aussi fondatrice de "Comprendre l'endométriose", un chatbot informant sur cette maladie qui touche une personne menstruée sur 10, disponible sur Messenger. #entrepreneuse #juridique #santé
flow
Chloé Hermary
Chloé est fondatrice d'Ada Tech School, une école d'informatique alternative et inclusive dont la mission est de former une nouvelle génération de talents diversifié à avoir un impact sur le monde. #entrepreneuse #formation
flow
Anna Minguzzi
Anna est Directrice de Recherche au CNRS au Laboratoire de Physique et Modélisation des Milieux Condensés (LPMMC) à Grenoble. #quantique
flow
Maeliza Seymour
Maeliza est CEO et co-fondatrice de CodistAI, qui permet de créer une documentation du code informatique par une IA.
flow
Candice Thomas
Candice est ingénieure-chercheuse au CEA-Leti, travaillant sur l’intégration 3D de bits quantiques au sein du projet Quantum Silicon Grenoble. #recherche #quantique
flow
Stéphanie Robinet
Stéphanie dirige un laboratoire de conception intégrée de circuits électroniques du CEA-Leti qui travaille sur des systèmes sur puces intégrés, des interfaces de capteurs, des interfaces de contrôle de qubits et de la gestion intégrée de l'énergie. #recherche #quantique
flow
Sabine Keravel
Sabine est responsable du business development pour l’informatique quantique chez Atos. #quantique #IT
flow
Céline Castadot
Céline est HPC, AI and Quantum strategic project manager chez Atos.
flow
Léa Bresque
Léa est doctorante, en thèse à l'institut Néel du CNRS en thermodynamique quantique, sous la direction d'Alexia Auffèves (en 2021). #quantique #recherche
flow
Emeline Parizel
Emeline est chef de projet web et facilitatrice graphique chez Klee Group, co-fondatrice TEDxMontrouge, gribouilleuse à ses heures perdues, joue dans une troupe de comédie musicale, co-animatrice de meetups et est sensible à l’art et à la culture. #création
flow
Elvira Shishenina
Elvira est Quantum Computing lead chez BMW ainsi que présidente de QuantX, l'association des polytechniciens du quantique. #quantique
flow
Marie-Noëlle Semeria
Marie-Noëlle est Chief Technology Officer pour le Groupe Total après avoir dirigé le CEA-Leti à Grenoble. #recherche
flow
Gwendolyn Garan
Gwendolyn est travailleuse indépendante, Game UX Designer, Game UX Researcher (GUR) et 2D Artist pour le jeu vidéo, étudiante en Master 2 Sciences du Jeu, speaker et Formatrice sur l'autisme et la neurodiversité, l'accessibilité et les systèmes de représentation dans les jeux vidéo. #création #jeuvidéo
flow
Alexandra Ferreol
Alexandra est étudiante d'un bachelor Game Design à L'Institut Supérieur des Arts Appliqués (année scolaire 2019/2020) #création #jeuvidéo
flow
Ann-elfig Turpin
Ann-elfig est étudiante en deuxième année à Lisaa Paris Jeux Vidéos (Technical artist, 3D artiste), année scolaire 2019/2020. #création #jeuvidéo

Derniers commentaires

“[…] to Olivier Ezratty, author of Understanding quantum technologies 2023, the challenge for Europe is to position itself outside of where the US and China are likely end up...”
“Désolé, je suis passé à l'anglais en 2021 sans revenir au français. Traduire un tel ouvrage (1366) pages d'une langue à l'autre est un travail herculéen, même avec des outils de traduction automatique. Sachant...”
“Je suis un artiste conceptuel, certes je garde la grande majorité de mon travail dans ma tête par défaut d'un grand mécène. Mon travail de base se situe sur le "mimétisme" qui mène aux itérations et de nombreux...”
“Better than a Harry Potter! Thanks Olivier...”
“J'ai bien aimé le commentaire sur le film Openheiner avec l'interrogation du chercheur sur l'utilisation de ses découvertes. En continuation de ces propos, je propose d'écouter le débat suivant qui m'a semblé...”

Abonnement email

Pour recevoir par email les alertes de parution de nouveaux articles :


 

RRR

 
S
S
S
S
S
S
S
img
img
img