Pierre-Yves CUSSET

Agrégé de sciences économiques et sociales

Partage

Sommes-nous dominés par les algorithmes ?

Algorithmes et intelligence artificielle alimentent la science-fiction et certains fantasmes autour du pouvoir. Ils nourrissent également des inquiétudes justifiées au sujet des libertés individuelles, qui s’abandonnent aisément. Outils omniprésents, dont la maîtrise s’avère compliquée, les algorithmes appellent une régulation collective efficace et des usages individuels intelligents.

La science-fiction est remplie de récits (2001 : l’Odyssée de l’espace, I, robot, Terminator, etc.) dans lesquels machines ou robots conçus par l’homme se retournent contre lui jusqu’à le dominer ou chercher à le faire disparaître. D’une façon générale, l’aliénation de l’homme à la technique est un thème de réflexion ancien. La défiance actuelle dans les algorithmes peut donc être considérée comme le dernier avatar d’une appréhension ancienne qui, si elle alimente les fictions, n’est pas forcément dénuée de fondements.

Selon la définition du Larousse, l’algorithme est un « ensemble de règles opératoires dont l’application permet de résoudre un problème énoncé au moyen d’un nombre fini d’opérations 1 ». Une simple recette de cuisine peut être assimilée à un algorithme. Mais évidemment, nul ne se sent menacé par une recette de cuisine. Ce qui fait la force des algorithmes actuels, c’est leur traduction en langage informatique. Et ce qui peut faire menace, c’est, d’une part, l’omniprésence de ces algorithmes dans le fonctionnement des objets que nous manipulons quotidiennement et, d’autre part, l’apparition de nouveaux types d’algorithmes autoapprenants, au fondement des progrès récents de l’intelligence artificielle (IA).

Avant de se pencher sur le pouvoir que les algorithmes pourraient avoir sur nous et sur les moyens de les contrôler, on se propose de rappeler quelles innovations ont redonné de la force à la crainte qu’ils inspirent.

Des algorithmes dont le fonctionnement nous échappe ?

Le milieu des années 2010 avait consacré le pouvoir des données (numériques), les fameuses big data, collectées plus ou moins à notre insu, à l’occasion de nos navigations sur l’océan du Web. Mais ces données ne sont rien si elles ne peuvent être analysées par de puissants outils de calcul. Ces outils de calcul, précisément, reposent sur l’efficacité des algorithmes qui sous-tendent les traitements effectués. Ce sont bien des algorithmes qui rendent pertinentes ou non les suggestions d’un moteur de recherche, les recommandations d’un service de streaming musical, le guidage d’un GPS capable de prendre en compte en temps réel les aléas de la circulation, la traduction automatique de textes ou la reconnaissance d’images.

C’est aussi la puissance de calcul et l’accès à de gigantesques bases de données qui ont permis la renaissance d’une stratégie de recherche qui bouleverse aujourd’hui le monde de l’intelligence artificielle, celle des réseaux de neurones 2. Il est utile de revenir quelques instants sur l’histoire de l’intelligence artificielle, car les nouvelles architectures logicielles ont certaines caractéristiques qui peuvent alimenter la défiance dans les algorithmes.

Les réseaux de neurones ont en fait une origine ancienne. Leur principe est introduit par les pionniers de la cybernétique, dès les années 1940. C’est ainsi qu’en 1943, le neurophysiologiste Warren McCulloch et le logicien Walter Pitts proposent de modéliser mathématiquement un réseau de neurones. Chaque neurone prend des variables en entrée, y applique un poids pour produire une somme qui déclenche son activation passé un certain seuil. À la fin des années 1950, le « perceptron » conçu par Frank Rosenblatt est la première véritable machine qui s’inspire des réseaux de neurones formels de McCulloch et Pitts tout en y ajoutant un mécanisme d’apprentissage qui autoorganise la structure du réseau de façon à reconnaître certains traits à partir des images captées par 400 cellules photoélectriques. Mais, à la fin des années 1960, les progrès limités des premières machines issues de cette approche semblent condamner cette voie de recherche, « connexionniste » et inductive, au profit d’une approche « symbolique » et hypothético-déductive, qui dominera la recherche jusqu’au milieu des années 1990.

Avec l’approche « symbolique », il s’agit de proposer une véritable théorie de l’esprit et d’ouvrir un espace de raisonnement autonome indépendamment du monde physique. C’est d’ailleurs à l’occasion du développement de cette approche, qui va connaître des succès évidents dans l’évolution de l’informatique, que naît l’expression « intelligence artificielle ». Mais ses limites apparaîtront dès qu’il s’agira de confronter les machines symboliques aux bruits et aux ambiguïtés du monde réel, physique et sensible, et non à celui de la seule logique des règles abstraites. Les machines issues de l’approche symbolique se montrent par exemple très peu performantes dans les domaines de la synthèse vocale ou de la reconnaissance de formes.

Les nouvelles techniques d’apprentissage profond d’inspiration « connexionniste » ont fait un retour en grâce dès les années 1980 avec un certain nombre d’avancées théoriques, et notamment la conception d’un algorithme de correction d’erreur permettant l’ajustement automatique du réseau de neurones, base de l’apprentissage par la machine. Un des premiers succès concrets de ces nouvelles approches est à mettre au crédit de Yann Le Cun et de ses collègues des AT and T Bell Labs, avec la mise au point d’une technique de reconnaissance des codes postaux manuscrits à la fin des années 1980. À la faveur de l’augmentation des capacités techniques de l’informatique et de l’accès à de gigantesques bases de données sur lesquelles asseoir l’apprentissage par la machine, on observe depuis 2010 des progrès spectaculaires, en particulier dans les domaines de l’image, de la voix ou de la traduction automatique.

Les modèles qui reposent sur les réseaux de neurones sont fondamentalement différents de ceux qui sous-tendent l’approche symbolique. Ils ne sont plus définis a priori par les concepteurs mais émergent de l’espace de calcul 3 à l’issue de la phase d’apprentissage. Il ne s’agit pas, par exemple, pour les concepteurs d’identifier les caractéristiques d’un animal, de les modéliser puis de coder des algorithmes permettant d’identifier ces caractéristiques dans une image. C’est le réseau de neurones lui-même qui ajuste progressivement ses paramètres pour réduire ses erreurs de prédiction lors d’une phase d’apprentissage où des milliers ou dizaines de milliers d’images sont proposées à la machine. Et si celle-ci apprend en ajustant les paramètres de son réseau de neurones pour minimiser les erreurs de prédiction, la conception du réseau de neurones lui-même est le fruit d’ajustements par essais-erreurs, certes à la main de leurs concepteurs mais dans le cadre d’une approche relativement artisanale.

L’une des conséquences de ce changement d’approche est que le fonctionnement des nouvelles machines algorithmiques est plus difficilement intelligible, y compris par ceux qui les ont conçues, à tel point que l’on évoque des « boîtes noires algorithmiques ». Cette caractéristique alimente le sentiment d’une perte de maîtrise de la machine par l’homme. Comment maîtriser des algorithmes dont on ne semble pas complètement comprendre le fonctionnement ?

Cette crainte a trouvé à s’exprimer par exemple dans la lettre ouverte du Future of Life Institute publiée le 22 mars 2023, appelant à un moratoire sur les recherches en intelligence artificielle. On y lisait notamment que « les laboratoires d’IA se sont lancés dans une course effrénée pour développer et déployer des puissances numériques toujours plus titanesques sur lesquelles personne – pas même leurs créateurs – n’a une capacité totale de compréhension, d’anticipation ou de contrôle 4 ». La lettre a été signée par de grandes figures du monde des nouvelles technologies, dont Elon Musk, patron de Tesla, de SpaceX… et de xAI, ou Steve Wozniak, cofondateur d’Apple. La recherche sur l’IA n’a pas ralenti pour autant, y compris dans les entreprises détenues par certains des signataires de la lettre.

Tous esclaves des algorithmes ?

La critique des algorithmes va cependant au-delà de la dénonciation de leur illisibilité ou de leur inintelligibilité. L’usage des algorithmes est associé à trois types de risques au moins :

  1. un risque assez général de perte de contrôle des décisions ;
  2. un risque de voir se développer, de façon intentionnelle ou non, des discriminations ou de l’injustice ;
  3. un risque plus spécifique, propre à certains algorithmes de suggestion de contenus, d’enfermement dans des bulles informationnelles.

L’historien israélien et essayiste à succès Yuval Noah Harari a exprimé sa crainte que l’on s’en remette de plus en plus aveuglément à l’intelligence artificielle, d’abord pour des tâches anodines, comme écrire un e-mail, mais ensuite pour des décisions de plus en plus importantes : décisions de recrutement mais aussi désignation de cibles militaires 5.

Cette critique est à distinguer de celle qui attribuerait une « agentivité » aux algorithmes, c’est-à-dire une volonté de prendre des décisions qui iraient contre les intérêts de leurs créateurs, voire une volonté de domination. Cette perspective, courante dans les romans d’anticipation, est peu vraisemblable, surtout avec les IA « faibles » de l’approche connexionniste, qui n’est pas une IA générale 6 mais une IA spécialisée dans certaines tâches bien précises. En d’autres termes, les algorithmes ne prennent sans doute que le pouvoir qu’on veut bien leur laisser, par facilité ou par paresse.

Le deuxième risque associé à l’usage des algorithmes concerne des mécanismes de discrimination ou d’injustice, intentionnels ou non. Dans la première catégorie (intentionnelle), on trouve une manipulation du système de classement des comparateurs de produits qui a valu à Google d’être condamné par la Commission européenne à une amende de 2,4 milliards d’euros en 2017, condamnation confirmée en 2024 par la Cour de justice de l’Union européenne 7. Il a, en effet, été reproché à Google d’avoir privilégié les résultats de son propre comparateur de produits par rapport à ceux des comparateurs de produits concurrents, alors même que les résultats de son propre comparateur ne seraient pas apparus en première position dans le classement « naturel » de son moteur de recherche.

Mais, comme le souligne Dominique Cardon 8, il est de plus en plus probable que les algorithmes produisent des effets indésirables sans qu’ils aient été anticipés. Ce pourrait être le cas d’algorithmes de prédiction de délits ou de crimes qui, formant leurs modèles à partir des données judiciaires historiquement biaisées à l’égard de certaines populations (les Noirs aux États-Unis), reconduiraient ces biais dans leurs prédictions. Les « biais algorithmiques », souvent dénoncés, ne résideraient donc pas tant dans les algorithmes eux-mêmes que dans la structure des données qui fournissent la matière de leurs apprentissages.

Le troisième risque associé aux algorithmes concerne spécifiquement les algorithmes de personnalisation des contenus. Ce risque était déjà identifié en 2014 par le Conseil d’État 9, qui notait que le terme de personnalisation était ambigu : « Le service est personnalisé dans la mesure où son utilisateur peut agir pour le modifier ; le service est personnalisé dans la mesure où son exploitant traite les données personnelles de l’utilisateur pour le paramétrer. Or, la plus souvent mise en œuvre est la deuxième forme de personnalisation, dans laquelle l’internaute n’est pas acteur de son expérience. » L’utilisateur a peu de chances de comprendre les mécanismes sous-jacents à cette personnalisation. Bien souvent, il n’en est même pas conscient. Et cette personnalisation peut avoir pour effet de l’enfermer dans une bulle informationnelle.

Dans le rapport qu’elle a remis en 2024, la commission d’experts installée par le président de la République pour évaluer l’impact de l’exposition des jeunes aux écrans 10 note également que les réseaux sociaux reposent sur des algorithmes de suggestion qui sursollicitent l’attention « exogène » ou automatique, au détriment de l’attention « endogène » ou volontaire, qui doit être entraînée pour être efficiente. Elle s’inquiète également, comme le Conseil d’État, des effets délétères d’un possible enfermement dans des « bulles de filtres algorithmiques » au travers desquelles nos opinions préalables se voient confirmer. Elle y voit un risque de polarisation des opinions.

Contrôler les algorithmes ou leurs usages ?

Si le fonctionnement des algorithmes nous échappe au moins en partie, peut-on en contrôler l’usage ? Dans son étude de 2014, le Conseil d’État préconisait trois méthodes d’encadrement des algorithmes dans une optique de protection des libertés individuelles :

  1. assurer l’effectivité de l’intervention humaine dans la prise de décision ;
  2. mettre en place des garanties de procédure et de transparence lorsque les algorithmes sont utilisés pour prendre des décisions à l’égard d’une personne ;
  3. développer le contrôle des résultats produits par les algorithmes, notamment pour détecter l’existence de discriminations illicites.

S’agissant du premier point, la loi de 1978 dite « informatique et liberté » proscrit déjà le profilage automatique, c’est-à-dire la prise d’une décision impliquant une appréciation sur un comportement humain sur le fondement d’un algorithme établissant le profil d’un individu : cette interdiction est stricte pour les décisions de justice, tandis que pour les décisions administratives ou privées, le traitement automatisé est autorisé à condition de ne pas être le seul fondement de la décision.

Qu’en est-il des risques plus diffus ? À la naissance d’Internet, le principe de sa neutralité a été très tôt posé. Comme le rappelait le Conseil national du numérique 11, « la neutralité d’Internet repose sur le principe d’une gestion non discriminatoire des flux d’informations circulant dans ses infrastructures ». Mais peut-on attendre des algorithmes qu’ils soient neutres ? Cette revendication, pensée comme une réponse aux biais algorithmiques, se heurte pourtant à l’impossibilité d’une représentation neutre des informations depuis laquelle des biais pourraient être observés. On attend bien des algorithmes qu’ils trient l’information, qu’ils soient donc discriminants. Mais l’on souhaite que cette discrimination repose sur des principes clairs. C’est ainsi qu’à l’exigence de neutralité des algorithmes a été assez vite substituée une exigence de loyauté. Concrètement, les services proposés par les diverses plateformes doivent ainsi être en mesure d’expliquer à l’utilisateur les priorités qui président aux décisions de leurs algorithmes. Et l’on doit pouvoir vérifier que des intérêts cachés ou des favoritismes dissimulés n’altèrent pas les décisions de ces algorithmes, ce pour quoi Google avait été condamné.

Plus récemment, le règlement européen sur les services numériques (ou DSA), adopté le 19 octobre 2022, a instauré pour les grandes plateformes l’obligation d’expliquer le fonctionnement des algorithmes qu’elles utilisent pour recommander certains contenus publicitaires en fonction du profil des utilisateurs. Les très grandes plateformes et les très grands moteurs de recherche doivent par ailleurs proposer un système de recommandation de contenus non fondé sur le profilage.

***

Les algorithmes sont aujourd’hui omniprésents, leur fonctionnement, obscur, leur efficacité, redoutable. Mais jusqu’à preuve du contraire, ils ne sont pas animés d’une volonté de pouvoir. De quoi faut-il se méfier, si ce n’est donc des algorithmes eux-mêmes ? De ceux qui les utilisent pour faire avancer leurs pions, économiques ou idéologiques ? Sans doute. Ici, le droit nous donne quelques armes pour nous défendre et il va probablement s’étoffer. Mais ce dont il sera le plus difficile de se défendre, c’est de notre inclination à la facilité, à la confirmation des certitudes, à la découverte du déjà-connu que viennent habilement flatter les nouveaux outils numériques.

Pouvoir des plateformes et des réseaux sociaux

Si l’efficacité des algorithmes qu’utilisent les plateformes et les réseaux contribue grandement à leur succès économique, leur pouvoir ne se résume pas à celui de leurs algorithmes.

Dans le cas des plateformes, c’est leur pouvoir de marché grandissant qu’il s’agit d’encadrer si l’on ne veut pas qu’il devienne hégémonique. Ce pouvoir de marché permet aux plateformes de dicter leur loi aux entreprises (référencées par Amazon, par exemple) ou aux individus (chauffeurs ou livreurs d’Uber) dont l’accès au marché dépend d’elles. Les outils du droit de la concurrence sont a priori capables de traiter ce genre de situation.

Dans le cas des réseaux sociaux, les choses sont sans doute plus nuancées. Le réseau social est un outil du contre-pouvoir lorsqu’il facilite la mobilisation des opposants (printemps arabes) ou la diffusion d’idées ou d’analyses qui, bien qu’argumentées, ne sont pas représentées dans les médias mainstream. Mais ces réseaux sont également accusés d’entretenir la polarisation des opinions, de favoriser les phénomènes de harcèlement en ligne, notamment chez les jeunes, et de censurer certaines opinions (cellules de fact-checking plus ou moins obscures, suppressions de compte, etc.).

  1. https://www.larousse.fr/dictionnaires/francais/algorithme.
  2. L’histoire passionnante de cette renaissance est contée dans Dominique Cardon, Jean-Philippe Cointet et Antoine Mazières, « La revanche des neurones. L’invention des machines inductives et la controverse de l’intelligence artificielle », Réseaux, no 211, 2018, pp. 173-220. Les paragraphes qui suivent s’inspirent largement de ce récit.
  3. Dominique Cardon, « Le pouvoir des algorithmes », Pouvoirs, no 164, 2018, pp. 63-73.
  4. https://futureoflife.org/open-letter/stoppons-les-experimentations-sur-les-ia-une-lettre-ouverte/.
  5. Voir Les Échos, 20 décembre 2024.
  6. Autrement appellée, affectueusement, « good old-fashioned AI ».
  7. https://curia.europa.eu/jcms/upload/docs/application/pdf/2024-09/cp240135fr.pdf.
  8. Dominique Cardon, op.cit.
  9. Conseil d’État, Le numérique et les droits fondamentaux, Paris, La Documentation française, 2014.
  10. https://www.elysee.fr/emmanuel-macron/2024/04/30/remise-du-rapport-de-la-commission-dexperts-sur-limpact-de-lexposition-des-jeunes-aux-ecrans.
  11. Conseil national du numérique, Neutralité des plateformes. Réunir les conditions d’un environnement numérique ouvert et soutenable, 2014, https://cnnumerique.fr/files/2017-09/CNNum_Rapport_Neutralite_des_plateformes.pdf.
http://www.constructif.fr/bibliotheque/2025-3/sommes-nous-domines-par-les-algorithmes.html?item_id=7945
© Constructif
Imprimer Envoyer par mail Réagir à l'article