Vingt ans après la conception de la Machine de Turing, le premier colloque sur l’Intelligence Artificielle (IA) a été organisé à Dartmouth en 1956, par ses deux fondateurs, Marvin Minsky et John McCarthy, en présence du prix Nobel Herbert Simon, le « père de la rationalité limitée ». Le colloque a soulevé des questionnements de nature technique et économique, mais également anthropologique, sociologique et psychologique. L’IA y a été définie comme étant « la construction de programmes informatiques qui s’adonnent à des tâches pour l’instant accomplies de façon non satisfaisante par des êtres humains, car elles demandent des processus mentaux de haut niveau tels que l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique ». Cette définition a été reprise dans la plupart des rapports sur l’IA et notamment, dans le « rapport Villani » (2018). L’IA est désormais une discipline majeure partagée entre deux principales branches (l’IA automatisée et l’IA apprenante), qui conjuguent des techniques de modélisation et de représentation de plus en plus sophistiquées (Le Cun). Ces techniques reposent sur des solutions composites organisées en briques de logiciels, réseaux d’algorithmes et couches de neurones, traitant des données de plus en plus massives (big data), des connaissances structurées ou non structurées, de multiples langages et des reconnaissances d’objets.

Depuis 65 ans, le développement de l’IA, héritière de la cybernétique, de l’informatique et de l’internet, a traversé plusieurs cycles marqués par des phases d’étiage (de 1974 à 1980 puis de 1987 à 1993) et de crue (de 1980 à 1987), avec l’avènement des systèmes-experts, puis de 1994 aux années 2000, avec l’apport du web. Depuis les années 2010, les montées du big data, des plateformes digitales et des réseaux sociaux, sous l’impulsion des start’up et surtout, des groupes américains et chinois de la big tech, ont entraîné une véritable « explosion » de l’IA, parfois considérée comme la « révolution technologique » de la première moitié du XXIe siècle (Brynjolfsson, McAfee), Des témoignages et publications de plus en plus foisonnants contribuent à forger dans l’opinion publique, une nouvelle « mythologie digitale » (Koenig), suscitant à la fois des espoirs (« tech for good ») et des craintes (« tech for worst »). Les avancées de l’IA font espérer une relance de la consommation, un accroissement de la productivité, une meilleure gestion des risques…, mais font parallèlement craindre la destruction d’emplois dans les pays développés, une vaste reconversion des compétences, un creusement de la fracture numérique au sein du corps social, et, à plus long terme, une transhumanisation de la société (Bostrom).

Désormais l’IA investit toutes les activités économiques, accélère les processus d’innovation, change les modes de production, transforme les organisations et bouleverse les relations sociales, mais elle oblige également à revisiter certaines théories – sinon certains paradigmes – qui fondent plusieurs disciplines scientifiques, comme le management, mais aussi, la philosophie, la sociologie, la psychologie et la psychanalyse.

Si l’IA contribue à créer de la valeur socio-économique, elle engendre parallèlement des externalités négatives – et notamment des peurs collectives et individuelles – dont le traitement requiert un encadrement de l’IA et l’accès à une « maturité algorithmique ».

 

La valeur socio-économique créée par l’IA

L’IA est le principal levier de création de valeur économique dans la plupart des activités humaines (Mateu, Pluchart)[1] :

  • l’innovation, grâce aux techniques de conception créative (designthinking), de simulation et de projection (modélisation 3D ; jumeaux numériques, metavers…) ;
  • la production manufacturière, avec l’autonomisation des processus de fabrication et à l’optimisation de la supply chain… ;
  • la distribution, sous les effets d’une meilleure connaissance des clients (KYC), de la conception personnalisée des produits, d’une meilleure gestion des données clients… ;
  • l’énergie, avec les compteurs intelligents, le fonctionnement optimisé des réseaux; la maintenance intelligente des infrastructures… ;
  • la santé, grâce à la médecine prédictive, à l’assistance au diagnostic, aux robots chirurgicaux, aux androïdes… ;
  • les mobilités, avec les flottes autonomes; les voitures intelligentes et l’assistance à la conduite, le contrôle de la circulation; la sécurité routière renforcée… ;
  • les services financiers, « augmentée » par la relation automatisée avec la clientèle (grâce aux robo-advisors), l’offre financière personnalisée, l’optimisation du trading boursier ; la détection des fraudes et la lutte contre le blanchiment d’argent… ;
  • l’éducation et la culture, marquées par la recherche et l’archivage de documents, la création de contenus, le recours à des assistants personnels…

Les systèmes assistés par l’IA assurent trois principaux types de fonctions : physique, avec les automatismes industriels et de services; informatique, avec les applications de calcul et de stockage des données ; affective, avec les robots émotionnels.

Les avancées de l’IA favorisent d’abord l’automatisation et l’hyper-automatisation[2] des systèmes de production et des chaînes logistiques. Le programme allemand « industrie 4.0 » repose sur la « cobotique », alliant robotique et collaboration des travailleurs (Kohler, Weisz,). Il vise le développement d’un « système cyber-physique » conjuguant des acteurs agiles et des facteurs hybrides relevant de l’Internet des Objets (régulation à distance ou autonome des chaines productives, interopérabilité entre les machines) et de l’Internet des Services (cloud computing, Software as a Service, process virtuels…). L’IA contribue ainsi à réduire les coûts des processus industriels, mais elle permet dans le même temps de renforcer l’ergonomie et la sécurité des postes de travail. Grâce à l’IA, les coûts marginaux de production, de livraison, de maintenance (à distance), de contrôle et de communication, « tendent vers 0 » (Rifkin).

Le développement de l’IA entraîne ainsi de profonds changements dans le monde du travail (Brynjolfsson, McAfee). Il accélère le phénomène de délocalisation des emplois (dans des centres d’appel et des usines offshore) vers les pays à faible revenu, contribuant à l’expansion des économies en développement. Il intensifie les phénomènes de dématérialisation des processus productifs et des échanges commerciaux. Selon Baldwin (2019), les progrès de l’IA favorisent l’émergence de nouvelles formes d’open innovation et de co-working,, qui s’étendent de la recherche-développement (living labs, fablabs…) à la production coopérative (micro-fabrication numérique, do-it-yourself, maker spaces…), et à la consommation collaborative (hébergement peer-to-peer, co-voiturage…).

La valeur créée par l’IA repose aussi sur une meilleure gestion des risques opérationnels et financiers, grâce à des systèmes de prévention et de détection de pannes, de fraudes, d’impayés… Les applications d’IA et de blockchain permettent d’analyser et de sécuriser des flux de données rendus de plus en plus massifs par les nouvelles réglementations et normes (phénomène de tetra-normalisation) imposées aux entreprises et aux administrations. Une des priorités des chercheurs en IA vise à accroitre la cybersécurité.

La valeur engendrée par l’IA est également de nature psychologique et sociale. Les robots de services assurent de plus en plus de fonctions d’assistance ménagère ou personnelle (notamment médicale). Certains d’entre eux sont célèbres, comme Eliza, Lilly ou Kenshiro ; ils revêtent une forme humaine (androïdes) et/ou sont capables de simuler des sensations et de l’empathie (Devillers). Ils provoquent des réactions psychologiques chez leurs utilisateurs, notamment chez les personnes vulnérables. Le rapport japonais « Vivre ensemble avec des robots » soutient que les automates constitueront à l’avenir un des meilleurs palliatifs au vieillissement de la population. Les robots industriels, de services et émotionnels seraient ainsi des facteurs de bien-être et de transformation de la société (Besnier).

Le renouveau économique et social attendu au cours de la décennie 2020-2030, serait comparable à celui de la décennie 1920-1930, notamment grâce aux entreprises « digital natives » et aux « villes et bâtiments intelligents » (Petrovic). Mais les effets positifs de ce renouveau perçus par certains économistes et managers, sont largement contrebalancés par les constats plus nuancés des philosophes, des sociologues et des psychologues.

 

Les peurs suscitées par l’IA

La plupart des acteurs socio-économiques sont confrontés aux impacts négatifs du développement accéléré de l’IA, notamment dans ses formes les plus sophistiquées.

Une des peurs engendrées par l’IA résulte de l’effet « boite noire » entraîné par les biais algorithmiques, qui résultent pour l’essentiel de décisions humaines ayant des origines perceptuelles, émotionnelles ou cognitives. Plusieurs anti-modèles ont marqué l’histoire de ces biais : manipulation de sondages américains et britanniques par Cambridge Analytica, sélection discriminatoire d’Applecard, profilage biaisé des internautes par Google, recrutements orientés d’Amazon… Les progrès de l’IA et la multiplication de ses acteurs – dont les profils et les niveaux de langage sont disparates – contribuent à amplifier « l’opacité algorithmique », qui affecte notamment les analyses prédictives en matière de justice, de finance, de marketing, de sondage, d’élection … Le caractère apprenant de certains logiciels peut être détourné au profit d’intérêts marchands ou de visées partisanes, par des questions orientées, des segmentations spécieuses d’enquêtés, des tarifications discriminatoires… C‘est pourquoi les algorithmes font de plus en plus l’objet d’une surveillance accrue de la part d’administrations, d’universités (notamment celle de Columbia) et d’associations de défense des consommateurs.

La peur la plus partagée dans les pays occidentaux est suscitée par les avancées des automatismes qui modifient en profondeur les conditions de travail, les pratiques des métiers et les identités professionnelles (Turcq). Les robots industriels affectent les interactions hommes-machines (HRI) et suppriment des emplois. Le travail à distance assisté par l’IA contribue à délocaliser les postes et à désocialiser les travailleurs. Ces mutations provoquent des peurs collectives et individuelles, notamment celle d’être victime d’une déqualification professionnelle en ne s’adaptant pas aux technologies numériques, et celle d’un déclassement social en perdant son emploi. L’IA contribue ainsi à creuser les inégalités entre une élite et le reste de l’humanité asservi à des tâches subalternes ou condamné au chômage. Son développement favorise par ailleurs la contraction du domaine public au profit de la sphère privée progressivement étendue aux krypto-monnaies, aux néo-banques, à l’exploitation commerciale des services publics… Ces évolutions encouragent les remises en question des paradigmes classiques du libéralisme économique et de l’individualisme méthodologique.

Selon Mc Kinsey[3], à l’horizon 2030, la plupart des tâches répétitives de nature productive, commerciale et administrative, seraient menacées. Seules les activités des managers, des chercheurs et des experts seraientrésilients. L’acte transactionnel (opérer, vendre) est remplaçable par l’IA, tandis que l’activité transformationnelle (créer, motiver) relève de l’humain et le management en réseau (transmettre, partager) repose sur le « phygital » (l’humain augmenté par le digital). L’organisation aura toujours besoin d’humains pour donner du sens, décider, motiver, gérer les crises et exercer des responsabilités. Les décisions peuvent être intuitives, analytiques et/ou rationnelles, mais plus le manager ou le leader exerce de responsabilités, plus ses décisions sont à la fois rationnelles et intuitives et donc, partiellement inaccessibles à l’IA (Veyssiere, Robeveille).

Ces peurs s’étendent progressivement à tous les citoyens, notamment depuis la crise du covid. La multiplication et l’interconnexion des systèmes de contrôle suscitent l’angoisse d’être enfermé dans une société de surveillance, organisée sur le modèle du panoptique dénoncé par Foucault. Cette sensation de perte de liberté est accentuée par l’impression que les applications de l’IA favorisent l’efficience productive et le bien-être individuel au détriment de la liberté et de l’autonomie des personnes. Les logiciels de communication d’influence ou de marketing incitatif (nudge) ôtent leur libre-arbitre aux citoyens ou aux consommateurs (Koenig). La révolution de l’IA révèle « la nature humaine la plus profonde ». Elle contribue à « libérer le cerveau humain disponible », mais ce temps gagné est consacré soit à la création ou au partage de connaissances, soit à une navigation aléatoire sur internet, qui entraîne une « apocalypse cognitive » elle-même génératrice de déviances psychologiques (Bronner). Certains biais de l’IA contribuent également, au travers des réseaux sociaux, à propager de fausses informations et des thèses complotistes, à secréter de nouveaux fantasmes collectifs autour de « l’homme-machine », de l’hybridation humaine et du transhumanisme ou du post-humanisme (Grinbaum). Ces dérives de l’imaginaire favorisent les réactions paranoïaques, les pulsions de mort et la satisfaction immédiate des besoins et des désirs (Ferry).

Le développement de l’IA présente également des enjeux de nature géo et socio-politique, car il risque de rompre les équilibres entre États et entre groupes sociaux. L’IA est devenue un levier de la suprématie mondiale. Une « guerre froide technologique » s’instaure entre les États-Unis, la Chine et les États européens. La Chine, devenue « l’Arabie saoudite de la donnée » est consciente que « la numérisation lui offre la chance du millénaire ». Des rapports ambigus opposent les GAFAM américains et les BTAX chinois aux États nationaux (Pitron). La régulation de l’IA exige une gouvernance mondiale basée sur un meilleur équilibre des forces entre les États, les grandes entreprises et les contre-pouvoirs (ONG, syndicats, associations).

 

L’encadrement de l’IA

Afin d’encadrer le développement de l’IA, des mouvements s’élèvent en faveur de meilleures régulation et réglementation de l’IA. Les législations – notamment en France, le Règlement Général sur la Protection des Données Personnelles – comportent des vides juridiques qui exposent les entreprises et les particuliers à des risques de discrimination, de captation de données ou de perte de contrôle. Les logiques des nouvelles générations d’algorithmes sont de plus en plus difficilement explicables et interprétables par les législateurs, les juristes et les justiciables. Leur contrôle nécessite l’assistance de scientifiques, mais aussi de sociologues et de psychologues (Jean, 2021). Il requiert notamment d’appliquer strictement le principe d’opt-in qui impose aux plateformes digitales de soumettre à leurs utilisateurs le droit d’exploiter leurs données personnelles (Bensoussan).

Les IA automatisée (ou explicite) et apprenante (ou implicite) interrogent de plus en plus sur leurs origines, leurs portées et leurs limites. Les développeurs et les usagers de l’IA en ignorent encore largement les natures, les causes et les effets. L’IA soulève encore des interrogations sur la traçabilité des données, sur les logiques des algorithmes et sur les chaînes de causalité des phénomènes observés. Elle suscite désormais moins de questionnements d’ordre technologique, que d’interrogations d’ordre philosophique (notamment sur l’éthique de l’IA et sur l’anthropomorphisme de « l’homme augmenté »), sociologique (sur les effets des transformations du travail), psychologique et psychanalytique (sur les fantasmes de l’IA et les natures des biais psychologiques). De plus en plus de psychologues et de psychanalystes s’accordent à reconnaitre que l’IA peut maitriser certaines propriétés élémentaires de l’intelligence, mais qu’elle ne peut se substituer à certaines formes de l’intelligence humaine (IH), incluant l’intuition, l’émotion et le désir. Le passage de l’IH à l’IA n’implique pas seulement de réduire la pensée humaine à une logique purement rationnelle, elle doit intégrer les logiques propres à l’intelligence émotionnelle – dominée par des intuitions, des inhibitions, des affects psychologiques… – et à l’intelligence collective – marquée par des effets d’imitation et d’ancrage dans la pensée dominante. Un alignement de l’IA sur l’IH implique une sophistication des algorithmes largement inaccessible en l’état actuel des heuristiques et des modèles de simulation (Houdé).

Suivant les prescriptions de Minsky, les chercheurs en IA s’efforcent de reproduire différents niveaux de conscience. Ils privilégient la prise de conscience intellectuelle, par la conception d’algorithmes d’apprentissage comportant un nombre croissant de couches de neurones, qui permettent de maîtriser des concepts et des raisonnements de plus en plus complexes. Ils parviennent à simuler certaines expressions de la conscience sensible (avec certains assistants personnels), mais ils se heurtent aux formes perceptuelles ou phénoménologiques (donnant sens par le langage aux expériences passées), et aux formes sociales et morales de la conscience. Les chercheurs en IA se heurtent ainsi au « mur de l’inconscient » érigé par « le langage qui est sa principale voie d’accès » (Lacan).

Le développement de l’IA soulève des problématiques de nature éthique, institutionnelle et psychanalytique, dont la résolution mobilise des groupes pluridisciplinaires de chercheurs et de praticiens de l’IA. Leurs réflexions mettent en lumière l’importance des enjeux attachés au développement de l’IA. Leurs propositions visent à limiter les risques de toutes natures qu’elle engendre et à restaurer la confiance dans l’IA. Elles ont pour objectif d’atteindre une certaine maturité algorithmique par une responsabilisation de tous les acteurs de la chaîne de l’IA. Cette visée implique d’améliorer la transparence et l’explicabilité des algorithmes (Jean), mais aussi d’anticiper les impacts des dysfonctionnements et des mythes de l’IA (Grinbaum).

Les sociologues, les psychologues et les psychanalystes ont notamment pour rôles d’identifier et d’analyser les origines et les effets des biais perceptuels, émotionnels et cognitifs affectant les différents acteurs et sujets de l’IA, mais il leur revient également d’anticiper les effets des avancées de l’IA sur les consciences et les inconscients des sujets impliqués dans la société digitale. La recherche d’une IA éthique repose sur le traitement des biais algorithmiques, d’origine essentiellement humaine, mais surtout, sur la responsabilisation de tous les acteurs de la chaîne de l’IA, qui implique la mesure et la correction des impacts négatifs individuels et collectifs de son déploiement. Les regards croisés entre philosophes, psychanalystes et gestionnaires présentés dans cet ouvrage s’efforcent de répondre à cet impératif de la société digitale.

 

(D’après le livre Intelligence humaine et intelligence artificielle, sous la direction de D. Bonnet et J-J. Pluchart, Editions Eska, 2022)

 

[1] Mateu J-B., Pluchart J-J. (2019), Économie de l’Intelligence artificielle, Revue d’Économie Financière, n° 135.

[2] L’hyperautomatisation est une expansion de l’automatisation grâce à des outils et logiciels sophistiqués basés sur l’IA et sur un écosystème de plateformes qui étendent l’automatisation à tous les processus opérationnels pouvant être automatisés.

[3] Mc Kinsey, L’IA va transformer 90% des métiers, rapport au salon Viva technology. PWC (2017)

 

Cet article a été publié sur Vox-Fi le 3 janvier 2022.