Intelligence Artificielle : la révolution d’une dame de 70 ans

De nombreux spécialistes considèrent que l’Intelligence Artificielle (IA) créera dans les prochaines années une disruption d’une ampleur supérieure à celle de la révolution industrielle du 19ème siècle. Des scénarios d’anticipation fleurissent, dessinant les contours d’une société, du travail et de l’homme re-façonnés par l’IA. Pourtant, l’Intelligence Artificielle n’en est pas à ses premières heures de gloire, puisqu’elle a alterné glaciations et réchauffements durant plus de 70 ans ! L’engouement actuel ne serait-il donc qu’un feu de paille ? Non, car aussi bien les fondamentaux de la discipline que son contexte ont changé : entre disponibilité des données, puissance de calcul et de stockage, et progrès algorithmiques, l’Intelligence Artificielle entre définitivement dans une nouvelle ère.

La naissance de l'intelligence artificielle

L’idée de l’intelligence artificielle  fascinait déjà bien avant ses premiers balbutiements technologiques. Au XVIIIème siècle, le Turc mécanique, un automate joueur d’échecs, constitua un spectacle pour des milliers de personnes. Nombreux furent ceux qui, à l’instar de Napoléon, le défièrent et – bien souvent – perdirent. D’autres, admiratifs ou plus dubitatifs, le rencontrèrent pour regarder ses rouages et essayer de percer le mystère de cet être de fer doté d’une intelligence apparemment bien peu commune.

Turc Mécanique
Le Turc Mécanique
Copper engraving from the book: Karl Gottlieb von Windisch, Briefe über den Schachspieler des Hrn. von Kempelen, nebst drei Kupferstichen die diese berühmte Maschine vorstellen. 1783

 

Mais si l’homme se voyait volontiers en Prométhée des temps modernes, les capacités technologiques dont il disposait l’ont longtemps empêché de faire plus qu’en rêver. Le Turc mécanique lui même ne se révéla qu’être une supercherie, un ingénieux mécanisme déguisant un joueur (très) humain.

 

La naissance de l’Intelligence Artificielle peut être datée de 1943, quand, inspiré par les recherches en neurosciences, un groupe de chercheurs élabore les réseaux de neurones, des ensembles d’algorithmes qui constituent la première technologie de l’IA. Modestement basés sur le cerveau humain, ils visent à copier certaines de ses capacités comme l’apprentissage ou la mémorisation, et ne se nomment pas encore “Intelligence Artificielle”.

 

Le coup d’envoi est donné pour que les chercheurs fassent de l’idée de l’IA une réalité, malgré un flou concernant ses applications immédiates qui est le propre de toute recherche fondamentale. Toutefois, pour établir une nouvelle discipline, il faut de l’organisation et des fonds. Une opération qui prend une dizaine d’années, et se concrétise en 1956 lors de la conférence de Dartmouth, qui réunit entre 10 et 20 chercheurs et trace les frontières académiques et scientifiques de l’IA. Fait intéressant, c’est à cette occasion que le nom d’Intelligence Artificielle voit le jour pour la première fois après avoir été proposé par John McCarthy, organisateur de cette conférence et pionnier de l’IA. Il aura donc fallu 13 ans pour que, après une première pierre très technologique, l’IA naisse – cette fois – en tant que discipline.

Le premier hiver de l'IA

Les premières avancées arrivent sans trop tarder, notamment dans des secteurs comme celui du langage naturel. Le programme ELIZA devient par exemple en 1966 le premier agent conversationnel. Il se montre capable de duper des utilisateurs croyant interagir avec un être humain, une capacité qui est utilisée pour qualifier un dispositif d’IA selon le test de Turing. L’ironie est qu’ELIZA y parvenait sans avoir la moindre idée du sujet de la discussion, son succès reposant sur un ingénieux recours à des réponses passe-partout.

Eliza

Le programme Eliza.
http://www.eliza.levillage.org/

 

Les chercheurs sont alors extrêmement optimistes sur les avancées de l’IA. Marvin Minsky déclare  en 1970 dans le magazine Life qu’une IA avec le potentiel d’un être humain ordinaire verra le jour dans les trois à huit années suivantes. Les investissements fleurissent. On prédit ainsi un brillant avenir aux perceptrons, une catégorie de réseaux de neurones, capables en théorie d’apprendre, de prendre des décisions, de traduire des langues.

Rapidement pourtant, les scientifiques travaillant sur l’IA sont confrontés à des problèmes structurels, notamment des puissances de calcul trop limitées ou des bases de données insuffisantes. La déception des partenaires industriels et financiers est à la hauteur des espoirs qu’ils ont placés dans la discipline : grande, à l’image de la chute des investissements qui s’en suit logiquement. Au Royaume-Uni, les subventions sont mêmes quasiment coupées en 1973 après que le Rapport Lighthill constate un “échec lamentable’’ de l’IA.

L'heure des systèmes experts

Malgré cela, le glas n’a pas sonné pour l’IA. Elle entame une traversée du désert qui s’achève en 1980 lorsque apparaissent les systèmes experts. Ces programmes sont organisés autour de règles logiques issues de connaissances humaines. Ils sont, comme leur nom l’indique, spécialisés dans un domaine précis, ce qui leur permet de répondre à des questions ou de résoudre des problèmes cadrés. C’est en suivant ce schéma que Mycin, développé en 1975 et spécialisé dans le domaine médical, diagnostique des maladies infectieuses du sang, contribuant ainsi au passage à montrer la viabilité des systèmes experts.

 

Histoire IA

Fresque sur l’histoire de l’IA
Source : https://www.flickr.com/photos/altimetergroup/32509221691

 

Le part détenue par le rêve et l’imaginaire – les forces initiales derrière le développement de l’IA – peut paraître bien plus faible, puisque l’IA des systèmes experts s’appuie sur des règles écrites par l’homme et non émergentes. Mais les systèmes experts présentent trois avantages majeurs qui expliquent leur succès :

  • Ce que l’IA a perdu en ambition, elle l’a gagné en applications, puisque les systèmes experts visent dès le départ la résolution d’un problème concret et circonscrit ;
  • La création des IA se démocratise : élaborer un système expert modeste et l’améliorer progressivement devient à la portée de plus en plus d’acteurs ;
  • L’IA peut être comprise, puisqu’elle utilise des règles définies et formalisées par les humains (vaste sujet de l’explicabilité, plus que jamais d’actualité aujourd’hui).

La seconde vague de l’IA démarre en 1980 avec Xcon (un système expert dédié à une obscure tâche d’optimisation des configurations d’ordinateurs dont nous vous épargnons les détails), créé par Carnegie-Mellon. Son succès peut être résumé en un chiffre : 40 milliards, soit le montant des économies qu’il a permis à son entreprise de réaliser. Inutile de dire que d’autres n’ont pas tardé à emboîter le pas, si bien qu’un milliard de dollars est dépensé dans l’IA en 1985. Un secteur industriel entier, structuré autour des systèmes experts, émerge même.

La seconde hibernation de l'IA

Pourtant, là encore, les attentes – trop grandes – se retrouvent déçues. Cette fois, les chercheurs ne sont pas à blâmer. Marqués par l’expérience encore toute fraîche des années 70, ils sont parmi les seuls à comprendre avec angoisse que l’enthousiasme est exagéré. Comme toute technologie, les systèmes experts ont des limites.

Les investisseurs les découvrent, et déchantent. L’utilisation des systèmes experts est restreinte à des contextes spécifiques, leurs coûts de maintenance sont élevés, et des dispositifs plus performants apparaissent. Ce dernier fait entraîne à lui seul l’obsolescence soudaine d’une industrie de plus de 500 millions de dollars en 1987.

Cet emballement n’était rien d’autre qu’une bulle spéculative dont l’explosion au milieu des années 80 marque le début de la seconde hibernation de l’IA. Elle ne se terminera qu’au milieu de la décennie suivante. Pour un temps plus éloignés des projecteurs, les projets autour de l’IA avancent sereinement et progressivement sans être l’objet d’un emballement.

L'IA aujourd'hui : bulle ou révolution ?

Deux avancées majeures ont révolutionné l’IA depuis le début du siècle. Au début des années 2000 d’abord, Yann LeCun apporte aux mécanismes d’apprentissage une précision inespérée jusqu’alors. Puis Andrew Ng découvre comment (rétro)propager le feedback dans des réseaux de neurones, ouvrant la voie à des réseaux beaucoup plus conséquents en taille. Ces deux avancées majeures ont libéré les verrous des réseaux de neurones artificiels, permettant à l’IA de monter progressivement en abstraction, passant ainsi – par exemple, et à partir du cas de la reconnaissance d’images – d’un ensemble de points à une moustache puis à un chien. Le ‘’deep learning’’ était né.

 

Andrew NG

Andrew Ng
Source : https://www.flickr.com/photos/nvidia/16841620756

 

Comment caractériser l’engouement actuel pour l’IA ? S’agit-il, comme par le passé, d’un épisode de progrès technologique enthousiasmant qui sera suivi d’un dégonflement de la bulle ? Y a t-il des raisons de croire en une expansion durable de l’IA ?

 

On ne compte plus les intervenants et les rapports faisant part de leur foi inébranlable en l’IA. Cette assurance n’est pas sans fondements car, cette fois-ci, l’IA ne risque pas de manquer de carburant. L’IA se nourrit de données et de puissance de calcul que l’arrivée récente de la parallélisation, du cloud et du Big Data a permis de considérablement augmenter. Le Deep Learning, très gourmand, n’aurait sans doute pas pu se développer pareillement sans cela.

 

Les technologies de l’IA, en plus d’être mieux alimentées, connaissent également des avancées considérables. Le deep learning est à l’origine de véritables progrès dans la reconnaissance d’image, la traduction automatique ou la classification d’objets.

 

Le mouvement actuel de l’IA paraît d’autant plus assuré qu’il ouvre de nombreuses perspectives d’applications concrètes et monétisables, à l’image des voitures autonomes. Cette percée a été facilitée par une circulation plus fluide entre données, calcul, technologies et débouchés commerciaux grâce à une meilleure intégration de la recherche et des milieux industriels et commerciaux.

 

La vague de l’IA que nous connaissons aujourd’hui ne repose donc pas uniquement sur l’amélioration de ses algorithmes. Cette dernière se fait main dans la main avec des transformations technologiques scientifiques et commerciales, qu’elle est effectivement bien en passe d’emmener avec elle vers une révolution.