L’IA générative est-elle une destruction créatrice ?
Les utilisateurs de l’IA appréhendent ses « boites noires » mais aussi ses « cygnes noirs ». Les premières recouvrent les biais d’algorithmes de plus en plus « apprenants » donc opaques. Les seconds rendent imprévisible la date à laquelle les androïdes remplaceront complètement les humains (Pluchart, 2024). Cette nouvelle génération de chatbots est en mesure de bouleverser les pratiques de nombreux métiers (Stiegler, 2015), notamment dans la recherche (avec les nouveaux moteurs de recherche et algorithmes de calcul), l’enseignement (avec de nouvelles applications pédagogiques), le contrôle et le fisc (avec les applications de détection de fraude), le journalisme (avec les logiciels de rédaction et de traduction), le commerce en ligne et le conseil bancaire (avec les profileurs, les calculateurs et les agents conversationnels)… Bien que les derniers rapports de la Banque Centrale Européenne et de l’Organisation Internationale du Travail soient de nature à les rassurer, car ils ne prédisent pas de suppressions nettes d’emplois significatives, les utilisateurs s’inquiètent toutefois de l’ampleur des reconversions professionnelles à engager.
Une étude du groupe SI (entreprise de services du numérique et de conseils) menée en 2023 avec l’institut de sondage Viavoice, révèle une adoption encore limitée de l’IA en France. Son application n’en suscite pas moins la crainte que ses applications ne se substituent progressivement aux créations humaines restituées dans des livres, manuels, rapports, articles discours, exercices, etc. Mais aussi dans les relations commerciales et la communication courante entre producteurs et consommateurs. Plusieurs expériences menées par Valluy (2024) montrent que certaines applications comme https://www.autoscribeur.fr/ ou https://www.intellischreiber.de/, permettent de rédiger un mémoire d’une centaine de pages en quelques minutes, et que les logiciels de détection des plagiats (comme Compilatio) ou des textes ex nihilo générés par ChatGPT 4 (ou ses équivalents comme LLama, Claude 1&2, mistral 7b, Esnie Bot 4) sont désormais inopérants. La détection ne reposerait donc plus que sur des indices observés par l’expérience et la sagacité humaines : l’uniformité du texte, un raisonnement trop orienté, l’illogisme ou la maladresse de certaines formules, les métadonnées improbables du document, etc. Après avoir présenté des cas d’usage de l’IA générative dans plusieurs secteurs d’activité (arts et divertissements ; conception et fabrication, sciences de la vie, industries et énergie, marketing, gestion d’entreprise, traduction et rédaction de documents, recherche académique, éducation, technologie de l’information, finance, etc.), Nadeau et Jobin (2024) se demandent comment son application peut concilier économie et éthique.
L’IA générative est désormais considérée comme étant le principal facteur de changement des entreprises et des administrations, car elle modifie en profondeur la synergie entre la main-d’œuvre et la machine (Stiegler, 2015). Il est devenu impératif pour ces organisations de renforcer leurs compétences et leurs processus. C’est pourquoi elles adoptent de plus en plus des « guides de bonnes pratiques » en matière d’IA, afin de bénéficier pour les entreprises d’un avantage concurrentiel, et pour les administrations un meilleur service aux usagers. Les clients et les citoyens exigent désormais que les solutions mises en œuvre soient à la fois transparentes, responsables et éthiques. L’adoption anticipée de ces pratiques responsables les protège contre les risques d’improductivité, de perte de la confiance de leurs parties prenantes et d’insécurité technologique et juridique (Jean, 2022). Les entreprises et les administrations doivent faire preuve de sens éthique à la fois dans leurs pratiques courantes, dans le traçage et l’utilisation de leurs données, dans le choix de leurs algorithmes et de leurs processus de prise de décision. Elles doivent enrichir leurs compétences en IA, développer une culture de la responsabilité, donner la priorité à la confidentialité et à la sécurité afin de garantir que les applications d’IA protègent les données des utilisateurs, grâce à des audits réguliers et indépendants de leurs systèmes, ainsi qu’à la correction systématique des biais algorithmiques. Elles doivent désigner des référents chargés de piloter les projets d’IA, de digitaliser les opérations et d’assister leurs acteurs, de développer des pôles d’expertise internes et d’encadrer les interventions des cabinets externes d’ingénierie (Stiegler, 2015).
Pour aller plus loin
Jean A. (2022), Les algorithmes font ils la loi ?, L’Observatoire, 221 pages.
Nadeau P., Jobin K. (2024), Intelligence artificielle. Eds Dunod, 240 pages
Pluchart J-J. (2024), 60 ans d’agents conversationnels d’Eliza à chat GPT, blog Clubturgot.com.
Stiegler B. (2015), La société automatique, tome I, L’avenir du travail, Fayard.
Valluy J. (2023, 2024), Humanité et numérique(s) – De l’histoire de l’informatique en expansion sociétale… au capitalisme de surveillance et d’influence (1890-2023), Terra-HN-éditions, Collection HNP,: http://www.reseau-terra.eu/article1347.