Benoît GEORGES

Journaliste.

Intelligence artificielle : de quoi parle-t-on ?

Faite d'innovations technologiques et d'un peu de science-fiction, l'intelligence artificielle est devenue un enjeu économique essentiel. Nourrie de puissantes capacités chaque jour renforcées de traitement de l'information ainsi que de possibilités d'apprentissage automatique, l'IA se trouve au coeur de la révolution numérique à l'oeuvre dans le monde. Avec un certain retard européen.

Qu'est-ce que l'intelligence artificielle ? La question peut paraître simple, mais la réponse est loin de l'être. Car si l'on peut définir l'intelligence artificielle (IA) en quelques mots -la science de rendre les machines intelligentes, pour reprendre la formule utilisée par un des plus brillants spécialistes du domaine, le cofondateur de DeepMind, Demis Hassabis 1 - un tel résumé recèle des questions en cascade. Qu'est-ce que l'intelligence ? Existe-t-elle sous une seule ou plusieurs formes ? Est-elle le propre de l'homme ou peut-on considérer que certains animaux, dans certaines circonstances, peuvent en faire preuve ? Voilà comment une expression devenue courante, et même omniprésente depuis une poignée d'années, peut s'avérer complexe à appréhender.

Aux origines de l'IA

Marvin Minsky (1927-2016), professeur au MIT et l'un des pères fondateurs de l'intelligence artificielle, en avait une définition plus longue, mais sans doute plus satisfaisante : « La construction de programmes informatiques capables d'accomplir des tâches qui sont, pour l'instant, accomplies de façon plus satisfaisantes par des êtres humains. » Cela fait de l'IA non pas une science en tant que telle, mais plusieurs branches qui se sont développées au cours des six dernières décennies : reconnaissance de la parole ou d'images, apprentissage automatique et même jeu - nous y reviendrons.

Le terme d'intelligence artificielle fut d'ailleurs inventé, par Marvin Minsky et son collègue du MIT John McCarthy, dans une démarche clairement pluridisciplinaire. Il apparaît pour la première fois à l'occasion d'un colloque scientifique organisé à l'été 1956, sur le campus de l'université de Dartmouth, dans le New Hampshire (États-Unis). Confidentielle, la conférence réunissait une petite vingtaine de chercheurs pionniers de disciplines alors balbutiantes comme l'informatique, les sciences cognitives ou l'électronique. Plus que de construire une machine capable d'égaler le cerveau humain, l'idée était de voir comment des tâches différentes pourraient être accomplies par des programmes informatiques.

Si, encore aujourd'hui, nous imaginons tous l'intelligence artificielle comme une machine surdouée pouvant dépasser voire détruire l'homme, c'est un peu à Marvin Minsky que nous le devons. Il servit en effet de conseiller à Stanley Kubrick et Arthur C. Clarke pour l'une des premières apparitions de l'IA dans la culture populaire : l'ordinateur HAL 2 du film 2001 : l'Odyssée de l'espace, sorti en 1968.

Un demi-siècle plus tard, il est frappant de constater à quel point Minsky imaginait déjà très bien l'intelligence artificielle de 2019. L'ordinateur du film assure sans relâche des tâches de conduite autonome, de maintenance prédictive et de planification que, désormais, nous commençons à confier aux machines. HAL analyse les images et maîtrise le langage, ce qui lui permet de lire sur les lèvres, et donc de comprendre les astronautes à leur insu. Surtout, la façon dont les humains dialoguent avec l'ordinateur est incroyablement semblable à celle que nous utilisons pour parler aux assistants vocaux d'Apple, Google ou Amazon. De HAL à Alexa, l'assistant personnel d'Amazon, il n'y a qu'un pas, mais ô combien important : à ce jour, aucune enceinte connectée n'a décidé, comme dans le film, de se débarrasser d'êtres humains par peur qu'ils ne l'empêchent d'accomplir sa mission.

Il y a une autre différence : à ce jour, l'intelligence artificielle reste cantonnée à des tâches bien précises, et s'avère totalement incapable d'en accomplir plusieurs à la fois. Elle égale, et parfois dépasse, l'humain pour des tas de choses qu'il fait sans vraiment y penser : reconnaître un visage ou un morceau de musique, retranscrire une phrase lue ou entendue, etc. Parfois, l'IA est même supérieure aux meilleurs des humains, que ce soit pour jouer aux échecs ou au jeu de go, mais aussi pour identifier une tumeur sur une radiographie ou prévoir les pannes d'une machine à partir de ses vibrations. Elle est en revanche incapable d'utiliser toutes ces compétences à la fois pour analyser une situation ou former un raisonnement.

Ce que n'est pas et ce qu'est l'IA

Comme l'explique le Français Luc Julia, l'un des inventeurs du système de commande vocale Siri d'Apple, « toutes ces technologies ont pour but de nous assister dans des tâches ponctuelles, souvent répétitives et fortement codifiées. Elles nous fournissent une aide qui vient amplifier notre humanité, et augmenter nos capacités intellectuelles, mais elles ne peuvent en aucun cas nous remplacer ». Aujourd'hui vice-président de l'innovation de Samsung, il récuse même le terme d'intelligence artificielle 3, pour lui préférer celui d'intelligence augmentée. Julia voit donc l'IA plus comme un outil au service des humains que comme un concurrent potentiel de ces derniers.

Cela ne doit pas masquer les progrès spectaculaires accomplis par l'IA en soixante ans d'existence, et l'accélération qu'elle a connue au cours de la dernière décennie, en particulier dans le domaine de l'apprentissage automatique (machine learning). Cette approche, qui s'appuie sur des modèles mathématiques et des statistiques pour donner aux ordinateurs la capacité d'apprendre à partir d'exemples, n'est pourtant qu'un des deux grands domaines de l'intelligence artificielle. Car, très tôt, les chercheurs se sont affrontés sur les deux façons possibles de confier aux machines des tâches accomplies par les humains.

La première approche considère que la pensée peut être assimilée à un traitement de l'information, c'est à dire un ensemble de symboles obéissant à des règles. Dans ce cas, l'IA cherche à modéliser ces symboles et à reproduire, dans le code, les règles qui les gouvernent. Cette vision a connu son heure de gloire dans les années 1980 et 1990, à travers les « systèmes experts » : des logiciels d'aide à la décision, conçus pour imiter le raisonnement des spécialistes d'un métier, qui se sont répandus dans la finance, la médecine ou... les échecs, comme l'avait montré la victoire de Deep Blue d'IBM sur Garry Kasparov en 1997.

À l'inverse, l'apprentissage automatique cherche avant tout à se passer de règles, car, après tout, notre cerveau peut s'en passer. Pour reconnaître le visage de ses parents ou commencer à parler, un jeune enfant n'a pas besoin de connaître les règles : il apprend seul, à partir de ses expériences. Avec cette approche, l'idée n'est donc pas de programmer une machine, mais de l'entraîner, comme un animal savant, en lui fournissant des données qu'elle doit analyser (un objet dans une image, un caractère d'imprimerie, un son...). À chaque exemple, le modèle statistique se modifie légèrement jusqu'à parvenir au résultat souhaité. Par analogie avec le cerveau humain, dont les neurones biologiques transmettent et modifient les informations, ces systèmes utilisent des « réseaux de neurones » artificiels.

Révolution numérique et apprentissage automatique

Imaginés dès les années 1940, ces réseaux de neurones ont suscité énormément d'espoirs, mais aussi de grandes déceptions. S'ils ont permis de reconnaître l'écriture manuscrite sur des chèques dès les années 1990, ils ont été beaucoup moins performants dans d'autres domaines. Du moins jusqu'au début des années 2000, où un trio de chercheurs a développé une nouvelle technique d'apprentissage automatique, qu'ils ont appelée deep learning, ou (« apprentissage profond ») 4. Le Français Yann LeCun (université de New York) et les Canadiens Yoshua Bengio (université de Montréal) et Geoffrey Hinton (université de Toronto), tous trois passés par les prestigieux Bell Labs de l'opérateur américain AT&T à la fin des années 1980 et au début des années 1990, ont longtemps fait partie des rares spécialistes à croire à la piste des réseaux de neurones, à une époque où la quasi-totalité des experts en IA les considéraient comme une voie sans issue. « Publier des articles sur le deep learning dans les revues ou les conférences était très difficile, racontait en 2018 Yann LeCun aux Échos.Quand on parlait des réseaux de neurones, les gens rigolaient un peu dans notre dos. On passait pour des doux dingues. » 5

Mais l'amélioration des algorithmes, l'augmentation de la puissance de calcul et l'avènement du big data (les mégadonnées), qui permet d'entraîner les systèmes sur d'immenses quantités de données, ont finalement donné raison aux « doux dingues ». À partir de 2009, les systèmes de deep learning ont commencé à s'imposer face aux autres méthodes, d'abord pour reconnaître la voix, puis pour les images ou la traduction, avec des performances jamais obtenues auparavant 6.

Ces progrès n'ont pas échappé aux géants du numérique, toujours à l'affût de nouvelles méthodes pour exploiter les gigantesques masses de données qu'ils collectent en permanence. En 2012, Google a recruté Geoffrey Hinton, et Yann LeCun est devenu le maître d'oeuvre de la recherche en IA de Facebook. Cela a marqué le début d'une ruée des Gafam (Google, Amazon, Facebook, Apple et Microsoft) vers les meilleurs talents en intelligence artificielle. Les embauches de chercheurs des plus grandes universités se sont multipliées, comme les acquisitions d'entreprises pionnières : entre 2012 et 2015, les financements de start-up d'intelligence artificielle sont passés de 559 millions de dollars à 3,7 milliards par an, pour atteindre près de 5 milliards en 2016 7.

La même année, un événement fera découvrir au grand public ce réveil spectaculaire de l'intelligence artificielle. En mars, dans un grand hôtel de Séoul, le programme AlphaGo, conçu par les équipes de Demis Hassabis chez DeepMind, bat par quatre parties à une l'un des plus grands champions mondiaux de jeu de go, le Sud-Coréen Lee Sedol. Comme la victoire de Deep Blue sur Garry Kasparov vingt ans plus tôt, celle d'AlphaGo aura un retentissement mondial, d'autant que la plupart des experts en IA ne s'attendaient pas à ce que la machine dépasse l'humain avant une dizaine d'années. Elle illustre aussi la puissance des nouveaux systèmes d'apprentissage automatique : l'essentiel de l'entraînement d'AlphaGo, qui combine l'apprentissage profond et une autre méthode appelée apprentissage par renforcement, s'est fait en laissant la machine jouer des millions de parties contre elle-même.

Ce match fut également un moyen pour Google, qui avait racheté DeepMind en janvier 2014 pour 400 millions de livres (650 millions de dollars), de montrer son avance. Car le géant californien s'est converti à grande vitesse au deep learning : en 2012, relèvent les deux spécialistes Erik Brynjolfsson et Andrew McAfee, « l'entreprise n'utilisait pas encore cette technologie pour améliorer des produits comme Search, Gmail, YouTube ou Maps. Au troisième trimestre de 2015, l'apprentissage profond, dont les résultats avaient dépassé ceux de toutes les autres approches, était utilisé dans toute l'entreprise dans près de 1200projets » 8.

Des enjeux colossaux

Pour Google, mais aussi pour Facebook ou Amazon, l'intelligence artificielle est désormais le cœur du réacteur, que ce soit pour cibler au mieux les internautes, leur proposer de nouveau services (assistants vocaux, géolocalisation...), traduire et comprendre leurs propos, filtrer les quantités exponentielles de contenus publiés en ligne... Et même proposer aux autres entreprises des outils d'intelligence artificielle « à la demande », comme le fait Amazon Web Services, la branche d'informatique en nuage (cloud computing, ou services informatiques à distance) du groupe de Jeff Bezos.

Près de soixante-cinq ans après la conférence de Dartmouth, moins de dix ans après les premiers succès du deep learning et trois ans après la victoire d'AlphaGo, l'intelligence artificielle fait désormais partie de notre réalité. La reconnaissance vocale entre dans les foyers grâce aux enceintes connectées, les prototypes de véhicules autonomes sont sur nos routes, la reconnaissance faciale est utilisée dans les aéroports et dans certaines rues en Chine, l'apprentissage automatique promet d'optimiser la logistique, le contrôle qualité, la maintenance...

Mais l'IA suscite aussi, et de plus en plus, des interrogations et des craintes, parfois exagérées mais toujours légitimes. Sur l'avenir du travail, bien sûr, et la façon dont des machines dotées de certaines de nos compétences pourraient, selon que l'on est optimiste ou pessimiste, nous assister ou nous remplacer. Sur l'opacité des algorithmes, également, car à la différence des anciens systèmes d'IA basés sur des règles, ceux mis au point grâce au deep learning ne permettent pas d'avoir une explication précise de la façon dont ils décident - les recherches sur l'explicabilité de l'IA se multiplient, mais sans qu'une solution particulière ne se distingue. S'y ajoute le problème des biais, car les jeux de données qui servent à entraîner les algorithmes ne correspondent pas toujours à la réalité qu'ils devront traiter - on a ainsi vu des outils de recrutement privilégier « automatiquement » les candidatures masculines 9.

Mais l'intelligence artificielle soulève également de grands enjeux de souveraineté. Car l'essentiel de la recherche, ainsi que les entreprises les plus avancées, se trouvent aujourd'hui aux États-Unis, partis les premiers dans ce qui est devenu une course mondiale. Derrière, la Chine affirme clairement son intention de devenir leader mondial de l'IA à l'horizon 2030. L'accès presque sans limites aux données de 1,4 milliard d'habitants, ainsi que la mobilisation de toutes les ressources de l'État, peuvent lui permettre d'y arriver.

Et l'Europe ? Malgré la qualité de sa recherche, notre continent, coincé entre deux superpuissances ayant des visions différentes de l'intelligence artificielle, dépourvu d'acteurs majeurs du numérique et de l'électronique, semble mal armé dans cette bataille mondiale. Il semble au moins en avoir pris conscience. En décembre 2018, Bruxelles a présenté un plan de coordination entre les États membres qui ambitionne d'atteindre au moins 20 milliards d'euros d'investissement public et privé en IA d'ici à la fin 2020, puis 20 milliards par an la décennie suivante. L'Europe souhaite également être en pointe dans la mise au point de systèmes d'IA qui soient « dignes de confiance », afin de répondre aux préoccupations des populations et des entreprises. Espérons que cela lui permettra de rattraper au moins un peu de son retard.



  1. « Artificial intelligence and the future », conférence de Demis Hassabis au Collège de France, novembre 2018.
  2. L'acronyme HAL (heuristically programmed algorithmic computer) est aussi un clin d'oeil à IBM, les trois lettres suivantes dans l'alphabet.
  3. Luc Julia, L'intelligence artificielle n'existe pas, First Éditions, 2019.
  4. Yann LeCun, Yoshua Bengio et Geoffrey Hinton, « Deep learning », Nature, vol. 521, mai 2015.
  5. « Hinton, LeCun, Bengio : la "conspiration" du deep learning », Les Échos, 9 août 2018.
  6. En mars 2019, Hinton, LeCun et Bengio ont reçu le prix Turing, considéré comme un équivalent du prix Nobel en informatique, pour leurs travaux sur le deep learning.
  7. « The state of artificial intelligence », CB Insight, 2018.
  8. Erik Brynjolfsson et Andrew McAfee, Des machines, des plateformes et des foules, Odile Jacob, 2018.
  9. Cathy O'Neil, Algorithmes, la bombe à retardement, Les Arènes, 2018.
http://www.constructif.fr/bibliotheque/2019-10/intelligence-artificielle-de-quoi-parle-t-on.html?item_id=5704
© Constructif
Imprimer Envoyer par mail Réagir à l'article