En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies pour vous proposer des services et offres adaptés à vos centres d'intéréts.
Intelligence artificielle: attention danger, même Bill Gates a peur!
Les progrès de l'intelligence artificielle menacent la survie de l'espèce. Et ce n'est pas madame Michu mais Bill Gates, Stephen Hawking et Elon Musk qui le disent. Ils ne sont d'ailleurs pas les seuls dans la communauté scientifique.
Quel est le point commun entre Stephen Hawking, Bill Gates et Elon Musk ? Le scientifique, le co-fondateur de Microsoft, et celui de Tesla et SpaceX pensent que l'intelligence artificielle constitue une menace pour l'humanité. Bill Gates est le dernier des trois à avoir pris position sur le sujet, la semaine dernière, au détour d'une session de questions-réponses sur Reddit.
"Je ne comprends pas pourquoi les gens ne sont pas inquiets"
"Je suis de ceux qui s'inquiètent de la super-intelligence. Dans un premier temps, les machines accompliront de nombreuses tâches à notre place et ne seront pas super-intelligentes. Cela devrait être positif si nous gérons ça bien. Plusieurs décennies plus tard cependant, l'intelligence sera suffisamment puissante pour poser des problèmes. Je suis d'accord avec Elon Musk et d'autres, et je ne comprends pas pourquoi les gens ne sont pas inquiets", a déclaré Bill Gates.
Elon Musk joue depuis quelques temps le rôle du Cassandre de l'intelligence artificielle. "Je pense que nous devrions être très prudents. Si je devais deviner ce qui représente la plus grande menace pour notre existence, je dirais probablement l'intelligence artificielle. Je suis de plus en plus enclin à penser qu'il devrait y avoir une régulation, à un niveau national ou international, simplement pour être sûr que nous ne sommes pas en train de faire quelque chose de stupide. Avec l'intelligence artificielle, nous invoquons un démon." L'entrepreneur, adepte des projets futuristes dont la faisabilité n'est pas toujours aussi réaliste que celle de ses voitures électriques, passe parfois pour un doux dingue. Mais il n'est pas le seul à tirer la sonnette d'alarme.
Le célèbre physicien Stephen Hawking, à qui l'on doit des avancées théoriques significatives dans le domaine des trous noirs et de la création de l'univers, se montre lui aussi pessimiste. "Réussir à créer une intelligence artificielle serait le plus grand événement dans l'histoire de l'homme. Mais ce pourrait aussi être le dernier", prévient-il. Ou encore : "L'impact à court terme de l'intelligence artificielle dépend de qui la contrôle. Et, à long terme, de savoir si elle peut être tout simplement contrôlée".
Impossible d'anticiper l'ensemble des effets pervers
Pourquoi tant de méfiance à l'égard de nos futurs systèmes informatiques ? L'avenir qu'ils nous réservent serait-il forcément à l'image des dystopies imaginées par la science-fiction ? En réalité, certains sont capables de démontrer par A+B pourquoi le développement de l'intelligence artificielle constitue un danger potentiel. Bien sûr, il y a la cyberguerre, le piratage, ou encore la probabilité que quelqu'un conçoive une intelligence informatique délibérément malfaisante. Mais le plus préoccupant, ce n'est pas cela. C'est la possibilité que la machine se retourne contre l'homme, non parce qu'elle aurait acquis comme par magie une conscience maléfique, mais parce que les capacités de calcul limité des programmeurs ne peuvent pas éviter l'apparition d'effets pervers.
On pourrait se dire qu'après tout, c'est l'homme qui programme la machine, et que par conséquent, il suffit de ne pas lui donner d'instructions lui permettant de se retourner contre son concepteur. Sauf que "les programmeurs peuvent échouer à anticiper l'ensemble des façons possibles d'atteindre le but qu'ils fixent à la machine, met en garde Nick Bostrom, directeur de l'Institut du Futur de l'Humanité, qui dépend de l'Université d'Oxford. Ceci en raison de biais et de filtres innés et acquis. Une super-intelligence artificielle dépourvue de ces biais, pourrait employer des moyens, logiques mais pervers et dangereux pour l'homme, d'atteindre ce but".
Exemple un peu simpliste : un robot à qui l'on aurait assigné la tâche de "faire sourire les gens", et qui, au lieu de raconter des histoires drôles, entreprendrait de leur paralyser les muscles du visage, parce que personne n'aurait songé à lui interdire de le faire. Simple question d'interprétation... Un peu comme si on éditait un manuel pour les machines intitulé "Comment servir l'homme", et qu'elles finissent par en faire un livre de cuisine, pour faire référence à un épisode génial de LaQuatrième Dimension.
 
Dangereux parce que "complètement con"?
Ce genre de bug est inévitable, selon Gérard Berry, informaticien et professeur au Collège de France, qui vient de recevoir la médaille d'or 2014 du CNRS. Dans une interview à Rue89, il explique : "L'homme est incomplet, incapable d'examiner les conséquences de ce qu'il fait. L'ordinateur, au contraire, va implémenter toutes les conséquences de ce qui est écrit. Si jamais, dans la chaîne de conséquences, il y a quelque chose qui ne devrait pas y être, l'homme ne s'en rendra pas compte, et l'ordinateur va foncer dedans. C'est ça le bug. Un homme n'est pas capable de tirer les conséquences de ses actes à l'échelle de milliards d'instructions. Or c'est ça que va faire le programme, il va exécuter des milliards d'instructions."
En d'autres termes, l'ordinateur n'est pas dangereux par supplément de conscience, mais parce qu'il est "complètement con", dixit Gérard Berry.
10 millions de dollars pour la sécurité de l'IA
Face à ces dangers, la communauté scientifique ne reste pas les bras ballants et se mobilise. A la suite d'une conférence internationale organisée par l'Institut du Futur de l'Humanité, le 2 janvier, l'Institut a publié une lettre ouverte pour inciter le monde de la recherche à ne pas se concentrer uniquement sur le développement des capacités de l'intelligence artificielle, mais aussi sur ses bénéfices pour la société et la constitution de garde-fous.
Elon Musk, qui assistait à cette conférence, a adoré l'idée. Il a decidé de mettre la main à la poche. Il financera à hauteur de 10 millions de dollars un fond de recherche dédié à la sécurité des futures avancées de l'intelligence artificielle.
Read more at http://lexpansion.lexpress.fr/high-tech/intelligence-artificielle-attention-danger-meme-bill-gates-a-peur_1647411.html#mXSp5B88HjuRWMWD.99
Stephen Hawking et Elon Musk réclament l’interdiction des « robots tueurs »
C’est une nouvelle charge portée contre les dangers potentiels de l’intelligence artificielle (IA). Dans une lettre ouverte publiée lundi 27 juillet, plus d’un millier de personnalités, dont une majorité de chercheurs en IA et en robotique, ont réclamé l’interdiction des armes autonomes, capables « de sélectionner et de combattre des cibles sans intervention humaine ».
Parmi les signataires, on retrouve Elon Musk, le célèbre PDG du constructeur de voitures électriques Tesla et de SpaceX, et l’astrophysicien britannique Stephen Hawking, qui avaient déjà fait part publiquement de leurs inquiétudes concernant l’IA. Mais aussi le cofondateur d’Apple Steve Wozniak, le linguiste américain Noam Chomsky ou encore Demis Hassabis, le fondateur de DeepMind, une entreprise consacrée à l’intelligence artificielle rachetée par Google.
« Une course à l’armement »
Publiée à l’occasion de l’IJCAI, une conférence internationale sur l’intelligence artificielle, qui se tient du 25 au 31 juillet à Buenos Aires, la lettre dénonce un danger imminent :
« L’intelligence artificielle a atteint un point où le déploiement de tels systèmes sera – matériellement, si pas légalement – faisable d’ici quelques années, et non décennies, et les enjeux sont importants : les armes autonomes ont été décrites comme la troisième révolution dans les techniques de guerre, après la poudre à canon et les armes nucléaires. »
Leur crainte : que les Etats se lancent dans « une course à l’armement », justifiée par le fait que « remplacer des hommes par des machines permet de limiter le nombre de victimes du côté de celui qui les possède ». Pour eux, « la question clé de l’humanité, aujourd’hui, est de savoir s’il faut démarrer une course à l’armement doté d’IA ou l’empêcher de commencer ».
Selon les signataires, une telle escalade serait « inévitable » si une puissance militaire se lançait dans ce domaine et, « contrairement aux armes nucléaires, [ces armes] ne nécessitent aucun matériel de base coûteux ou difficile à obtenir ». Par conséquent, préviennent-ils, « ce ne sera qu’une question de temps avant qu’elles n’apparaissent sur le marché noir et dans les mains de terroristes, de dictateurs souhaitant contrôler davantage leur population et de seigneurs de guerre souhaitant perpétrer un nettoyage ethnique ».
Cette lettre a été publiée par le Future of Life Institute (FLI), un organisme américain à but non lucratif qui se focalise, peut-on lire sur son site, sur « les risques potentiels du développement d’une intelligence artificielle de niveau humain » et qui « travaille à atténuer les risques existentiels auxquels doit faire face l’humanité ». Il avait récemment fait parler de lui en annoncant au début du mois le financement de 37 projets visant à prévenir les risques liés à l’intelligence artificielle, grâce à un don d’Elon Musk.
L’IA pourrait en pâtir
Mais ce texte ne se veut pas une charge contre l’intelligence artificielle. Les chercheurs qui l’ont signé redoutent au contraire qu’une telle application de l’IA ne « ternisse » ce champ de recherche et ne crée un « rejet majeur du grand public contre l’IA qui couperait court à tous ses bénéfices sociétaux futurs ».
La question de l’interdiction des « armes létales autonomes » a fait l’objet d’une réunion de l’ONU en avril. Le rapporteur spécial de l’ONU Christof Heyns plaide depuis plus de deux ans pour un moratoire sur le développement de ces systèmes, en attendant la définition d’un cadre juridique adapté. L’ONG Human Rights Watch a quant à elle dénoncé, dans un rapport publié en avril, « l’absence de responsabilité légale » s’appliquant aux actes de ces « robots tueurs ».
Le tout dans un contexte où l’interdiction de ces armes ne semble pas acquise pour tout le monde : en octobre dernier, la ministre de la défense norvégienne Ine Eriksen Søreide s’y était opposée. « Il serait inopportun d’interdire le développement des robots tueurs. Il est aujourd’hui difficile de savoir ce que recouvre cette notion. Il n’y a actuellement aucune technologie qui puisse vraiment recevoir ce qualificatif », avait-elle argué.
En savoir plus sur http://www.lemonde.fr/pixels/article/2015/07/27/intelligence-artificielle-hawking-musk-et-chomsky-reclament-l-interdiction-des-armes-autonomes_4701102_4408996.html#2ZErT1EupFrlAy13.99
Comment le « deep learning » révolutionne l'intelligence artificielle
Cette technologie d'apprentissage, basée sur des réseaux de neurones artificiels, a complètement bouleversé le domaine de l'intelligence artificielle en moins de cinq ans.
« Je n'ai jamais vu une révolution aussi rapide. On est passé d'un système un peu obscur à un système utilisé par des millions de personnes en seulement deux ans. » Yann LeCun, un des pionniers du « deep learning », n'en revient toujours pas. Après une longue traversée du désert, « l'apprentissage profond », qu'il a contribué à inventer, est désormais la méthode phare de l'intelligence artificielle (IA). Toutes les grandes entreprises tech s'y mettent : Google, IBM, Microsoft, Amazon, Adobe, Yandex ou encore Baidu y investissent des fortunes. Facebook également, qui, signal fort, a placé Yann LeCun à la tête de son nouveau laboratoire d'intelligence artificielle installé à Paris.
Ce système d'apprentissage et de classification, basé sur des « réseaux de neurones artificiels » numériques, est, pêle-mêle, utilisé par Siri, Cortana et Google Now pour comprendre la voix, être capable d'apprendre à reconnaître des visages. Il a « découvert » par lui-même le concept de chatet est à l'origine des images psychédéliques qui ont inondé la Toile ces dernières semaines, aux allures de « rêves » de machines.
Qu'est-ce que c'est ?
Concrètement, le deep learning est une technique d'apprentissage permettant à un programme, par exemple, de reconnaître le contenu d'une image ou de comprendre le langage parlé – des défis complexes, sur lesquels la communauté de chercheurs en intelligence artificielle s'est longtemps cassé le nez. « La technologie du deep learning apprend à représenter le monde. C'est-à-dire comment la machine va représenter la parole ou l'image par exemple », pose Yann LeCun, considéré par ses pairs comme un des chercheurs les plus influents dans le domaine. « Avant, il fallait le faire à la main, expliquer à l'outil comment transformer une image afin de la classifier. Avec le deep learning, la machine apprend à le faire elle-même. Et elle le fait beaucoup mieux que les ingénieurs, c'est presque humiliant !»
Pour comprendre le deep learning, il faut revenir sur l'apprentissage supervisé, une technique courante en IA, permettant aux machines d'apprendre. Concrètement, pour qu'un programme apprenne à reconnaître une voiture, par exemple, on le « nourrit » de dizaines de milliers d'images de voitures, étiquetées comme telles. Un « entraînement », qui peut nécessiter des heures, voire des jours. Une fois entraîné, il peut reconnaître des voitures sur de nouvelles images.
Le deep learning utilise lui aussi l'apprentissage supervisé, mais c'est l'architecture interne de la machine qui est différente : il s'agit d'un « réseau de neurones », une machine virtuelle composée de milliers d'unités (les neurones) qui effectuent chacune de petits calculs simples. « La particularité, c'est que les résultats de la première couche de neurones vont servir d'entrée au calcul des autres », détaille Yann Ollivier, chercheur en IA au CNRS, spécialiste du sujet. Ce fonctionnement par « couches » est ce qui rend ce type d'apprentissage « profond ». Yann Ollivier donne un exemple parlant :
« Comment reconnaître une image de chat ? Les points saillants sont les yeux et les oreilles. Comment reconnaître une oreille de chat ? L'angle est à peu près de 45°. Pour reconnaître la présence d'une ligne, la première couche de neurones va comparer la différence des pixels au-dessus et en dessous : cela donnera une caractéristique de niveau 1. La deuxième couche va travailler sur ces caractéristiques et les combiner entre elles. S'il y a deux lignes qui se rencontrent à 45°, elle va commencer à reconnaître le triangle de l'oreille de chat. Et ainsi de suite. »
A chaque étape – il peut y avoir jusqu'à une vingtaine de couches –, le réseau de neurones approfondit sa compréhension de l'image avec des concepts de plus en plus précis. Pour reconnaître une personne, par exemple, la machine décompose l'image : d'abord le visage, les cheveux, la bouche, puis elle ira vers des propriétés de plus en plus fines, comme le grain de beauté. « Avec les méthodes traditionnelles, la machine se contente de comparer les pixels. Le deep learning permet un apprentissage sur des caractéristiques plus abstraites que des valeurs de pixels, qu'elle va elle-même construire », précise Yann Ollivier.
Concrètement, ça donne quoi ?
Outre sa mise en œuvre dans le champ de la reconnaissance vocale avec Siri, Cortana et Google Now, le deep learning est avant tout utilisé pour reconnaître le contenu des images. Google Maps l'utilise pour déchiffrer le texte présent dans les paysages, comme les numéros de rue. Facebook s'en sert pour détecter les images contraires à ses conditions d'utilisation, et pour reconnaître et taguer les utilisateurs présents sur les photos publiées – une fonctionnalité non disponible en Europe. Des chercheurs l'utilisent pour classifier les galaxies. Yann LeCun fait aussi depuis plusieurs années cette démonstration impressionnante : il a créé un programme capable de reconnaître en temps réel les objets filmés par la webcam d'un simple ordinateur portable.
« le système a découvert le concept de chat lui-même. Personne ne lui a jamais dit que c'était un chat ».
Une des réalisations les plus poussées et les plus spectaculaires du deep learning a eu lieu en 2012, quand Google Brain, le projet de deep learning de la firme américaine, a été capable de « découvrir », par lui-même, le concept de chat. Cette fois, l'apprentissage n'était pas supervisé : concrètement, la machine a analysé, pendant trois jours, dix millions de captures d'écran issues de YouTube, choisies aléatoirement et, surtout, non étiquetées. Un apprentissage « en vrac » qui a porté ses fruits : à l'issue de cet entraînement, le programme avait appris lui-même à détecter des têtes de chats et des corps humains – des formes récurrentes dans les images analysées. « Ce qui est remarquable, c'est que le système a découvert le concept de chat lui-même. Personne ne lui a jamais dit que c'était un chat. Ça a marqué un tournant dans le machine learning », a expliqué Andrew Ng, fondateur du projet Google Brain, dans les colonnes du magazine Forbes.
Plus récemment – et plus gadget –, Google a encore fait parler de lui avec «Deep Dream », un programme permettant, en quelque sorte, de visualiser un processus de deep learning, avec des résultats étonnants. Les formes repérées, analysées et interprétées dans une image par le programme étaient visuellement « augmentées ». En clair, « on demande au réseau “quoi que tu voies, on en veut plus !” (...) Si un nuage ressemble un peu à un oiseau, le réseau va le faire ressembler encore plus à un oiseau », expliquent les auteurs de ce travail sur un blog. Résultat : un cochon-escargot dans les nuages, des palais merveilleux de toutes les couleurs et des circonvolutions hypnotisantes dans les tableaux des grands maîtres…
Les idées de base du deep learning remontent à la fin des années 80, avec la naissance des premiers réseaux de neurones. Pourtant, cette méthode vient seulement de connaître son heure de gloire. Pourquoi ? Car si la théorie était déjà en place, les moyens, eux, ne sont apparus que très récemment. La puissance des ordinateurs actuels, combinés à la masse de données désormais accessible, a multiplié l'efficacité du deep learning. « On s'est rendu compte qu'en prenant des logiciels que nous avions écrits dans les années 80, lors d'un stage par exemple, et en les faisant tourner sur un ordinateur moderne, ils fonctionnaient beaucoup mieux », explique Andrew Ng à Forbes.
Le trio de pionniers se surnommait à l'époque, avec autodérision, « la conspiration du deep learning ».
Qui plus est, on sait désormais construire des réseaux de neurones plus complexes, et le développement de l'apprentissage non supervisé a, lui aussi, également contribué à donner une nouvelle dimension au deep learning. « On est passé en cinq ans de techniques qui ne fonctionnaient pas vraiment à des techniques qui marchent. Un cap a été franchi », assure le chercheur Yann Ollivier.
Et pourtant, les spécialistes du deep learning ont longtemps été mis de côté par la communauté scientifique, sceptique. A la fin des années 80, « il y a eu une vague d'intérêt pour le deep learning », se souvient Yann LeCun, qui avait présenté sa thèse sur le sujet en 1987. Un système de lecture de chèques qu'il avait développé lisait, dans les années 90, « entre 10 % et 20 % des chèques émis aux Etats-Unis ». Mais, devant le manque de résultats de ces technologies prometteuses, lié à la faible puissance des machines et le nombre limité de données, la communauté scientifique a fini par s'en détourner.
Yann LeCun, de son côté, est passé en 2002 du monde de l'industrie à celui l'université, où il a rencontré Geoffrey Hinton et Yoshua Bengio. « Nous avons décidé tous les trois de renouveler l'intérêt de la communauté scientifique pour ces méthodes. Ça a été une traversée du désert. On était une espèce de groupe mis à part », raconte Yann LeCun. Le trio se surnomme même, avec autodérision, « la conspiration du deep learning ».
Les technologies évoluant, les résultats commencent toutefois à se montrer de plus en plus prometteurs. « Vers 2010-2012, on a commencé à établir des records. Les grandes entreprises se sont aperçues que ces systèmes fonctionnaient très bien. » En 2013, Geoffrey Hinton remporte la prestigieuse compétition ImageNet, consacrée à la reconnaissance d'image. Une « révolution », se souvient Yann LeCun :
« Il a gagné avec un taux d'erreur deux fois moins élevé que les compétiteurs les plus proches. Une révolution. On est passé d'une attitude très sceptique à une situation où tout le monde s'est mis à y travailler en un an et demi. Je n'ai jamais vu une révolution aussi rapide. Même si, de mon point de vue, elle a mis beaucoup de temps à arriver… »
Et demain ?
« L'espoir est que plus on augmente le nombre de couches, plus les réseaux de neurones apprennent des choses compliquées, abstraites, qui correspondent plus à la manière dont un humain raisonne », anticipe Yann Ollivier. Pour lui, le deep learning va, dans une échéance de 5 à 10 ans, se généraliser « dans toute l'électronique de décision », comme dans les voitures ou les avions. Il pense aussi à l'aide au diagnostic en médecine, citant certains réseaux de neurones qui « se trompent moins qu'un médecin pour certains diagnostics », même si, souligne-t-il, « ce n'est pas encore rôdé ». Les robots seront eux aussi, selon lui, bientôt dotés de cette intelligence artificielle. « Un robot pourrait apprendre à faire le ménage tout seul, et ce serait bien mieux que les robots aspirateurs, qui ne sont pas fantastiques ! », sourit-il. « Ce sont des choses qui commencent à devenir envisageables. »
« Des gens promettent la Lune, et c'est dangereux pour le deep learning »
Chez Facebook, Yann LeCun veut utiliser le deep learning « de façon plus systématique pour la représentation des pièces d'information », en clair, développer une IA capable de comprendre le contenu des textes, photos et vidéos publiées par les internautes. « Mais pour l'instant, on n'y est pas ». Il rêve également de pouvoir créer un assistant numérique personnel avec qui il serait possible de dialoguer par la voix. Plus proche de l'IA du film Her (où un humain tombe amoureux du logiciel de son smartphone) que de l'actuel système Siri des iPhones, précise-t-il.
« Pour Siri et Cortana, les réponses sont écrites à la main. Ces systèmes ne sont intelligents que parce que des ingénieurs ont pensé à toutes les possibilités ». Lui aimerait créer un système plus autonome, « à qui on pourrait poser des questions comme à un ami, sans avoir besoin d'utiliser le bon mot-clé ». Mais, temporise le chercheur, « on ne sait pas faire, on est très loin de Her. Cela nécessite un bien meilleur niveau de compréhension que les systèmes qu'on a actuellement. Et cela nécessite aussi de comprendre la psychologie des gens ».
Plus inattendu, les réseaux de neurones pourraient aussi avoir une influence sur les neurosciences, explique Yann LeCun. « Des chercheurs les utilisent comme un modèle du cortex visuel, car il y a des parallèles ». « Le cerveau humain fonctionne aussi par couches : il capte des formes simples, puis complexes », explique Christian Wolf, spécialiste de la vision par ordinateur à l'INSA de Lyon. « En ce sens, il existe une analogie entre les réseaux de neurones et le cerveau humain. Mais, à part cela, on ne peut pas dire que le deep learning est à l'image du cerveau. »
L'avenir semble donc sourire au deep learning, mais Yann LeCun reste méfiant :
« On est dans une phase très enthousiaste, c'est très excitant. Mais il y a aussi beaucoup de bêtises racontées, il y a des exagérations. On entend dire qu'on va créer des machines intelligentes dans cinq ans, que Terminator va éliminer la race humaine dans dix ans… Il y a aussi de gros espoirs que certains placent dans ces méthodes, qui ne seront peut-être pas concrétisés. Des gens promettent la Lune, et c'est dangereux pour le domaine. »
Ces derniers mois, plusieurs personnalités, parmi lesquelles le fondateur de Microsoft, Bill Gates, l'astrophysicien britannique Stephen Hawking et le PDG de Tesla, Elon Musk, avaient exprimé leurs préoccupations par rapport aux progrès de l'intelligence artificielle, qu'ils jugent potentiellement dangereuse.
Yann LeCun, lui, se veut pragmatique, et rappelle que le domaine de l'IA a souvent souffert des attentes disproportionnées à son égard. Il espère que, cette fois, la discipline ne sera pas victime de cette « inflation des promesses ».
En savoir plus sur http://www.lemonde.fr/pixels/article/2015/07/24/comment-le-deep-learning-revolutionne-l-intelligence-artificielle_4695929_4408996.html#QVYRPZKsCgFRTAQM.99
« Yann est un dieu dans sa discipline », lancent en cœur deux jeunes disciples qui viennent d’être recrutés par le maître pour travailler chez Facebook, dans le premier centre de recherche d’Europe continentale de ce géant du Web. Cette équipe spécialisée en intelligence artificielle compte déjà 45 membres, dont six à Paris depuis l’ouverture officielle de cette antenne le 2 juin.
Comme tout dieu, l’idole a plusieurs noms, « Yawn Lee Koon », « Yen Leh Kahn », « Yan Lee Chun »… « Aux Etats-Unis, ils ont toujours eu du mal à écrire mon nom, Le Cun. J’ai fini par l’écrire en un seul mot », glisse en souriant ce chercheur de 55 ans, dont près de la moitié passée Outre-Atlantique. Il a rejoint Facebook fin 2013, tout en restant professeur à l’université de New York. « Un Prix Nobel de physique américain s’est même offusqué que je prononce mon nom en “in”, car il pensait que c’était impossible en breton ! » Le jeune chercheur d’alors n’était pas linguiste mais il savait tout de même comment sa famille parlait…
C’est cependant un linguiste qui le mit sur la voie de ce qui allait devenir sa spécialité et faire de lui une sommité mondiale, les réseaux de neurones artificiels. « En lisant un dialogue entre Noam Chomsky et Jean Piaget sur l’apprentissage inné ou acquis du langage, j’ai repéré un argument faisant référence aux réseaux de neurones que je ne connaissais pas. Ce champ prometteur était quelque peu abandonné et je m’y suis plongé tout seul », se souvient Yann LeCun. A l’époque, au début des années 1980, il était étudiant...
L’accès à la totalité de l’article est protégé
En savoir plus sur http://www.lemonde.fr/sciences/article/2015/06/08/yann-lecun-l-intelligence-en-reseaux_4649831_1650684.html#xFoD1EoYBoDqXZkW.99
En vous inscrivant vous pourrez si vous le souhaitez être prévenu par email en cas de nouveauté (article, commentaire, sujet sur le forum) et personnaliser votre profil pour participer au blog.