Lecture en cours
Histoire(s) de l’Intelligence Artificielle

Histoire(s) de l’Intelligence ArtificielleTemps de lecture : 9 minutes

En à peine six décennies, l’Intelligence Artificielle est devenue omniprésente. En complétant la force, la précision et l’endurance surhumaine des machines par une intelligence qui dépasse largement la nôtre pour un nombre croissant de tâches, elle inaugure le « deuxième âge de la machine ». Dans cet article, Patrick Albert montre que si son histoire est scientifique et industrielle, elle est aussi militaire, capitalistique et maintenant éthique et géopolitique.

L’intelligence artificielle est née avec l’informatique aux États-Unis dans les années 1950, mais son histoire « officielle » commence avec la célèbre « École d’été de Dartmouth » organisée par les mathématiciens, John McCarthy et Marvin Minsky, pour réunir pendant six semaines une vingtaine de chercheurs en informatique, cybernétique, électronique, philosophie et linguistique, afin de fonder ce nouveau domaine, lui donnant son nom et son objectif initial : simuler l’intelligence humaine. L’objectif s’est depuis généralisé à toute forme d’intelligence, telles celles qui organisent la matière, ou animent les bactéries, virus, plantes et animaux, en particulier les animaux sociaux. Son horizon putatif est la supra-intelligence[1].

Apprendre à parler, savoir écrire, coopérer

À l’origine, deux approches sont en compétition : l’une s’apparente à la façon dont nous apprenons à parler – tout simplement par l’exemple et la pratique, en écoutant et en parlant –, tandis que la seconde s’apparente à l’apprentissage de l’écriture par mémorisation d’un corpus de règles et d’exceptions formalisé par des experts : les linguistes.

Dans la première approche de nature probabiliste, dite « connexionniste », la machine construit elle-même son modèle de décision, par induction, en « digérant » des milliers et jusqu’à des millions d’exemples qu’un humain aura sélectionnés. Les exemples peuvent être des images, des textes, de la musique, des profils de personnes… Dans la seconde méthode, dite « symbolique », c’est un humain qui fait le travail de formalisation de la « base de connaissances » généralement représentée par un ensemble de règles de décision de type « si … alors … ». Une troisième approche enfin, dite « multi-agents », a ensuite émergée et est en forte croissance, modélise le travail en équipe, car en intelligence artificielle aussi, l’union fait la force.

Intelligence comme apprentissage

La méthode probabiliste prend son essor en 1957 avec le Perceptron qui informatise une modélisation simplifiée des neurones. Dès 1959, une IA gagne au jeu des dames après avoir appris en jouant contre elle-même, créant ainsi ses propres données d’apprentissage ! Mais les succès restent très limités, car les temps d’apprentissage rédhibitoires empêchent le domaine de décoller. Il faudra attendre la réunion de trois facteurs : amélioration des algorithmes, accélération hardware et plus encore parallélisation massive des calculs, et enfin la profusion « d’exemples » disponibles sur le web. En 2010, la base d’apprentissage ImageNet rassemblant des millions d’images fédère la communauté « apprentiste » autour d’une compétition annuelle, et c’est en 2012 qu’un réseau de neurones d’un nouveau genre – l’apprentissage profond – crée l’évènement en devançant largement tous ses compétiteurs. Puis ça va très vite… En 2015, les IA comprennent les images plus vite que les humains, et de même pour la transcription de la parole en 2016, année où le programme AlphaGo bat le champion du monde du jeu de Go par 4 parties à 1. C’est le début du succès mondial de l’IA reposant sur les réseaux neuronaux « profonds » dont la taille explose littéralement, jusqu’à contenir plus de 3000 milliards de paramètres. Ils sont déjà le moteur d’innombrables applications : recommandation de livres, de vidéos ou musique, voiture autonome, robots industriels et de service, compréhension et création de textes, de musiques, d’images, etc. etc.

Intelligence comme raisonnement

En 1965 le premier chatbotELIZAvoit le jour, qui simule un psy menant des entretiens thérapeutiques, puis c’est au mitan des années 1980 que l’on assiste à un premier essor industriel avec la vague des « Systèmes Experts » qui automatisent le raisonnement en utilisant des centaines ou des milliers de règles extraites de l’expertise du domaine. Ça fonctionne, mais la maintenance de ces bases de règles s’avère trop difficile, et la mode s’essouffle… jusqu’en 1997 lorsque la victoire de Deep Blue d’IBM contre le champion du monde des échecs démontre qu’un important cap est franchi. L’automatisation à base de ce que l’on appelle dorénavant les « règles métiers » se déploie alors à bas bruit dans les télécoms, la banque et l’assurance. En 2011, IBM frappe fort à nouveau en gagnant le jeu Jeopardy version américaine de « Questions pour un champion ». L’IA s’est émancipée du monde étriqué des 64 cases de l’échiquier pour aborder le vaste univers du langage et de la culture générale. Sous le nouveau nom de RPA – Robot Process Automation –, l’IA symbolique pénètre dans l’industrie, l’administration et les services pour conférer fiabilité et robustesse à ce que l’on appelle les « décisions de routine » qui ne requièrent qu’une très bonne connaissance de la tâche.

Intelligence comme coopération

Entre temps, partant du constat que l’intelligence est une propriété non seulement des individus, mais aussi des collectifs, humains ou non, une troisième branche de l’IA faisait discrètement son chemin, celle des « agents intelligents ». Née aux États-Unis dans les années 1970, cette approche pour partie « bio-inspirée » formalise des modèles de coopération[2], voire d’auto-organisation d’ensembles d’agents composés de quelques unités ultra-spécialisées jusqu’à quelques milliers, peu sophistiqués mais totalement coopérants. La robustesse est son principal avantage, car si un ou plusieurs agents se trompent ou même disparaissent, d’autres serrent les rangs et poursuivent les opérations. Les essaims de drones, inspirés des nuées d’oiseaux, des bancs de poissons ou des colonies de fourmis en sont les exemples les plus spectaculaires, comme cet essaim de 1824 drones parfaitement coordonnés qui a inauguré les Jeux Olympiques de Tokyo 2020, ou comme les essaims militaires, documentés par le journal New Scientist, utilisés par Israël pour localiser, identifier et attaquer des combattants palestiniens durant la guerre contre Gaza en mai 2021.

Aujourd’hui, l’histoire des sciences, techniques et applications de l’IA s’accélère : alors que toutes ces méthodes restent très imparfaites, leur maîtrise est devenue un formidable enjeu de puissance tant militaire qu’économique.

Financement et géopolitique de l’IA

L’IA n’est pas un phénomène hors-sol, elle sert à transformer nos sociétés, et l’histoire de son financement nous aide à comprendre dans quelles directions. C’est donc le très influent Institut Rockfeller qui a subventionné l’évènement fondateur, l’« école d’été de Dartmouth », pour aussitôt passer le relai à l’armée américaine restée à peu près seule aux commandes jusqu’aux années 1990[3]. À coups de millions de dollars, l’armée sélectionnait les méthodes d’IA à développer, et surtout, définissait les objectifs à atteindre : traduction automatique (du Russe vers l’Anglais…), interprétation des images et du « signal », planification de missions et robotique. Pour ne prendre que quelques exemples emblématiques, Google Translate, SIRI l’assistant vocal d’Apple, ou encore la « voiture autonome », ont été voulus, et initialisés ou soutenus par la tête de pont scientifique de l’armée états-unienne : la DARPA – Defense Advanced Research Projects Agency. Dans l’esprit de ses commanditaires, c’est à un char d’assaut que ressemblait cette « voiture » reprise ensuite par Google, embauchant en 2009 un des grands vainqueurs des courses organisées par la DARPA. Les autres pays ont suivi comme, par exemple, la Russie où la « voiture », nommée T-14 est bien un tank.

La première poignée de chercheurs en IA a utilisé la doctrine de « suprématie scientifique et technologique » des militaires états-uniens en suscitant des espoirs tels que l’armée lui a assuré la croissance éclair à l’origine de sa suprématie mondiale. Mais les promesses étaient irréalistes (voire farfelues ![4]) et ne pouvaient être tenues, à deux reprises les militaires ont craqué, coupant les crédits et déclenchant des « hivers de l’IA », ainsi qu’on les a nommés. Le premier dure de 1973 jusqu’en 1981 lorsque le Japon se lance dans l’IA avec un plan de 850 millions de dollars, déclenchant aussitôt une réponse états-unienne à hauteur de 1 milliard de dollars, toujours pilotée par l’armée ; en France, l’IA ne concernait alors que quelques dizaines d’universitaires. Suit un nouvel hiver en 1987 long d’une petite dizaine d’années. Puis c’est dans les années 2010 que la spectaculaire percée de l’approche connexionniste, avec « l’apprentissage profond » (ou Deep Learning), propulse l’IA jusqu’aux étoiles, et déclenche en particulier la mobilisation massive de Google[5] et Amazon suivis de Facebook[6] (maintenant Meta). Depuis ce moment de bascule, si les budgets militaires restent des leviers de tout premier plan pour orienter les recherches en amont – 100 millions d’€/an en France pour la Loi de programmation militaire 2019-2025, et 2 milliards de dollars pour le plan « AI Next » de la DARPA lancé en 2019 – ce sont les dizaines de milliards du capital privé qui décident des méthodes à optimiser et des applications à déployer. La nomination en 2016 d’Eric Schmidt, PDG historique de Google, à la présidence du « Defense Innovation Advisory Board » qui conseille l’armée américaine sur la technologie est un exemple emblématique de l’alliance entre États et entreprises privées autour de ce que l’on appelle maintenant les « technologies duales », un concept qui a pour effet la transposition systématique des technologies de guerre dans nos existences, car pour financer leur course à l’IA, les militaires ont besoin que nous utilisions, ou subissions, les versions démilitarisées de leurs applications.

Plus de 60 pays ont mis en ordre de bataille leurs ministères de la défense, de l’intérieur, de la recherche et de l’industrie pour organiser et financer leur filière IA selon une « feuille de route IA », comme la France en mars 2018. Toutefois, l’asymétrie reste brutale car les États-Unis et la Chine mobilisent à eux seuls 80% des investissements mondiaux annuels, tandis que l’Europe ne compte que pour 7%. Les méga-firmes transnationales de l’IA telles Google, Microsoft, Amazon et Facebook/Meta disposent de moyens à la hauteur de leur volonté de domination mondiale grâce auxquels ils mènent l’IA, en partenariat toujours étroit avec la Maison Blanche. Ou du moins, la mènent encore… car la victoire de Google au jeu de Go a réveillé la Chine, c’était une grossière erreur stratégique ! Majoritairement composé d’ingénieurs, le gouvernement chinois a compris le danger, faisant aussitôt de l’IA une priorité absolue, si bien qu’en juillet 2017, la Chine a dévoilé une feuille de route très simple : devenir d’ici 2030 le centre d’innovation mondial en IA. Et on peut y croire, car la qualité et le nombre des scientifiques chinois est au service de la volonté des dirigeants de prendre leur revanche sur la colonisation toujours présente dans les mémoires. Les BATIX[7] qui sont les jumeaux chinois des GAFAM commencent à leur damer le pion. Les États-Unis, à leur tour, alertés en 2019 par un rapport percutant du Comité de Défense mentionné plus haut, réalisent qu’ils pourraient perdre la course à l’IA, dont Vladimir Poutine avait annoncé dès 2017 que « Celui qui deviendra leader en ce domaine sera le maître du monde ». On assiste à une accélération inédite dont les motivations hélas ne sont pas vraiment le bien de l’humanité…

Le développement de l’IA états-unienne, et donc mondiale, s’est largement produit au service d’applications militaires dont nous utilisons ou subissons les avatars. Notre « profilage » indécent par Facebook, Google et leurs concurrents est le déploiement civil des IA de « ciblage » conçues pour l’armée américaine et la NSA, tout comme l’usage policier de la reconnaissance faciale[8], des drones et des robots-chiens[9] ne sont que quelques exemples de la « valorisation » civile des applications militaires aux origines de l’IA. Et si la Chine est à juste titre montrée du doigt, elle n’est en réalité que l’arbre qui cache mal une forêt toujours plus dense.

Nous payons le prix du péché originel de l’IA, car l’intelligence humaine s’exerce dans de très nombreux domaines, et d’autres modalités de financement auraient produit d’autres usages de l’IA.

Reste « l’Éthique », ultime rempart du citoyen, et nouveau champ de la géopolitique de l’IA. En décembre 2019, l’Agence des droits fondamentaux de l’Union européenne dénombrait plus de 260 documents, textes et chartes éthiques au niveau mondial. Mais ce rempart tient plutôt du rideau de fumée car ces comités, tous « consultatifs et non contraignants », occupent essentiellement deux rôles : les comités « sponsorisés » par le privé aident les lobbies à bloquer, ralentir, ou amoindrir la production de normes par les États, tandis que les comités d’éthique publics habillent de grandes « valeurs » des normes laxistes au service du dogme de la « liberté d’innover et d’entreprendre ». À ce titre, la position en 2021 de la Commission Européenne est exemplaire : sa proposition législative « se limite aux exigences minimales nécessaires pour répondre aux risques et aux problèmes liés à l’IA, sans restreindre ou freiner indûment le développement technologique ni augmenter de manière disproportionnée les coûts de mise sur le marché de solutions d’IA ». L’extraordinaire accélération des investissements civils et militaires, habillée de l’invraisemblable prolifération de chartes et comités d’Éthique indique l’urgence du contrôle par la population de la poursuite de l’histoire de l’IA. L’affaire est d’importance, car nous assistons impuissants à la naissance du deuxième âge de la machine.

[1] Que le philosophe Nick Bostrom, directeur du Future of Humanity Institute, définit dans son best-seller paru en 2014, Superintelligence, chemins, dangers, stratégies (Ed. Dunod), comme « un intellect beaucoup plus compétent que les meilleurs cerveaux humains dans pratiquement tous les domaines, y compris la créativité scientifique, la sagesse et les talents sociaux. » On nomme Singularité le moment de son hypothétique avènement, qui fait l’objet de vigoureux débats chez les scientifiques.

[2] Les technologies de Blockchain au fondement des crypto-monnaies permettent à des agents de s’organiser contractuellement et être rémunérés, par exemple avec des Bitcoin. Les « Smart Contracts » de la crypto-monnaie Ether, numéro deux derrière Bitcoin, automatisent le suivi et le solde des contrats. On trouve ainsi des organisations multi-agents totalement automatisées réunissant autour d’un objectif des robots virtuels ou physiques : les « DAO ».

[3] Rockfeller fut le plus grand des « barons voleurs » du 19e siècle. La fortune amassée grâce à son monopole sur le pétrole a contribué à façonner les technosciences aux États-Unis et au-delà. Muriel Le Roux historienne au CNRS indique que « Tous les centres de recherche européens ont peu ou prou bénéficié de la manne financière ». Muriel Le Roux, « La fondation Rockefeller et la recherche médicale », La revue pour l’histoire du CNRS [En ligne], 2 | 2000, mis en ligne le 06 mars 2006.

[4] Dès 1958 à propos du « Perceptron », le New York Times reportait, qu’il était « l’embryon d’un ordinateur électronique qui, selon la marine, sera capable de marcher, de parler, de voir, d’écrire, de se reproduire et d’être conscient de son existence ». Cf. Mickel Olazaran, « A Sociological Study of the Official History of the Perceptrons Controversy » Social Studies of Science, 1996, vol. 26, n° 3, pp. 611-659.

[5] Que l’on peut dater de l’embauche comme directeur de la Recherche et Développement de Ray Kurzweil, scientifique renommé, un des fondateurs du transhumanisme et prophète de la Singularité, mentionnée plus haut, qu’il annonce pour 2048.  Son Université de la Singularité forme nombre de décideurs mondiaux de haut niveau à ses vues.

[6] On notera la présence du français Yann Lecun depuis 2013, maintenant « Chief AI Scientist ». La France produit des chercheurs de très haut niveau mais est un nain en matière d’industrie et de service d’IA. Faute de s’opposer frontalement au États-Unis, comme l’a judicieusement fait la Chine, l’Europe s’est soumise au GAFA.

[7] Baidu, Ali Baba, Tencent et Xiaomi – Tencent est le plus grand propriétaire de brevets d’IA.

[8] On peut à ce sujet se joindre à la plainte collective portée par l’ONG La quadrature du Net contre le ministère de l’Intérieur et l’État français : https://technopolice.fr/plainte/

[9] Les robots-chiens « SPOT » sont les « descendants » du LS3 BigDog, un robot-mule à usage militaire développé par la startup Boston Dynamics. Financée… par la DARPA puis Google qui l’a achetée en 2013…

Pour citer cet article

Patrick Albert, , « Histoire(s) de l’Intelligence Artificielle », Silomag 15, juillet 2022. URL : https://silogora.org/histoires-de-lintelligence-artificielle/

Réagir

Si vous souhaitez réagir à cet article, le critiquer, le compléter, l’illustrer ou encore y ajouter des notes de lecture, vous pouvez proposer une contribution au comité de rédaction. Pour cela, vous pouvez envoyer votre texte à cette adresse : contact@silogora.org

AGORA DES PENSÉES CRITIQUES
Une collaboration

Mentions légales Crédits