L'IA diminue les capacités de réflexion humaine… Mise en garde concernant la dette cognitive : « C'est pratique, mais ça donne le tournis. »

Les résultats de recherches montrant que l'intelligence artificielle générative (IA) modifie le processus de pensée humain et la structure du cerveau avant même qu'elle puisse imiter parfaitement le style d'écriture humain sont publiés les uns après les autres, provoquant des remous dans le monde universitaire et industriel.

Le phénomène de « dette cognitive », où la mémoire et les capacités de pensée critique humaines déclinent en raison du recours à l'IA pour la génération de texte, a été démontré par des données concrètes. Il ne s'agit pas simplement d'apprendre à utiliser des outils ; cela soulève des questions fondamentales sur la manière de préserver nos capacités de pensée spécifiquement humaines, indépendamment de la technologie.

Le MIT, Microsoft et d'autres institutions affirment qu'une dépendance accrue à l'égard de l'IA affaiblit la connectivité cérébrale et l'esprit critique. Les inquiétudes concernant une perte de profondeur dans l'éducation et la recherche se multiplient également. « La culture de l'IA doit être redéfinie. »

Récemment, des institutions de recherche de premier plan, telles que l'University College Cork (UCC), le MIT, l'Université Carnegie Mellon et Oxford University Press, ont publié dans la revue Nature un article analysant l'impact de l'IA sur les capacités cognitives humaines sous différents angles. L'analyse stylométrique de l'équipe de recherche irlandaise a révélé que les textes écrits par les modèles les plus récents, comme GPT-4, conservent une « empreinte numérique » en raison de leurs caractéristiques plus fines et plus homogènes que celles des textes écrits par des humains.

Mais le problème majeur réside dans les modifications cérébrales. Lors d'une expérience menée par des chercheurs du MIT auprès de 54 participants, le groupe ayant rédigé des dissertations à l'aide de ChatGPT a présenté une connectivité neuronale nettement plus faible que le groupe témoin. Notamment, 83 % des participants ayant utilisé ChatGPT étaient incapables de se souvenir de leur texte, contre seulement 11 % dans le groupe témoin. Les chercheurs ont qualifié ce phénomène de « dette cognitive », qui consiste à sacrifier ses capacités cognitives futures pour un gain de temps immédiat.

Une étude conjointe de l'Université Carnegie Mellon et de Microsoft, portant sur 319 travailleurs du savoir, a révélé que plus la confiance envers l'IA augmentait, moins on s'efforçait de l'examiner de manière critique. Par ailleurs, un sondage réalisé par Oxford University Press a montré que 62 % des étudiants britanniques estimaient que l'IA nuisait au développement de leurs compétences, s'inquiétant notamment d'une baisse de la profondeur de leur réflexion.

Plutôt que de tout laisser à l'IA, nous devons cultiver une acceptation sélective et des capacités d'utilisation centrées sur l'humain.

Ces résultats de recherche suggèrent que le marché des technologies de l'information, dominé par la « théorie de l'omnipotence de l'IA générative », doit évoluer vers une « IA responsable » et une « utilisation de l'IA centrée sur l'humain ». Bien que le marché de l'IA générative connaisse actuellement une croissance fulgurante, des inquiétudes persistent quant à la surabondance de données de faible qualité, souvent qualifiées de « résidus d'IA », et aux perturbations qui en résultent pour l'écosystème informationnel.

Le fait que l'IA démontre un fort pouvoir de persuasion, indépendamment de l'exactitude des faits, notamment dans le domaine de la persuasion politique et sociale, représente un risque important pour les plateformes numériques. Des recherches menées par l'Université d'Oxford et d'autres institutions ont révélé que les modèles les plus récents souffrent encore d'un phénomène appelé « hallucination », où l'exactitude des faits chute de 10 à 14 points de pourcentage lorsqu'on leur demande d'augmenter la quantité d'informations. Cela suggère que lorsque les entreprises intègrent l'IA à leurs activités, elles doivent prendre en compte non seulement l'augmentation de la productivité, mais aussi les coûts liés à la prévention du déclin de l'esprit critique chez leurs employés et à la mise en place de processus de vérification des faits.

James O'Sullivan, chercheur à l'University College Cork en Irlande, a souligné les différences fondamentales entre les méthodes créatives des humains et de l'IA, déclarant : « Même si ChatGPT essaie d'avoir un ton humain, il laisse toujours une empreinte stylistique détectable. »

« Les étudiants d’aujourd’hui commencent à penser comme des machines », explique Erica Galea, co-auteure du rapport d’Oxford University Press sur l’évolution des comportements des étudiants. « Ils traitent les idées plus rapidement, mais ils perdent la profondeur de réflexion que procure le fait de s’arrêter, de poser des questions et de penser par soi-même. »

Les progrès futurs de l'intelligence artificielle tendront probablement à minimiser l'intervention humaine, mais paradoxalement, la valeur de cette intervention humaine devrait encore augmenter. Au-delà des simples réglementations interdisant l'utilisation de l'IA, les entreprises et les établissements d'enseignement redéfiniront les « capacités de création et d'édition secondaires » – c'est-à-dire la capacité à examiner de manière critique les ébauches générées par l'IA et à les enrichir d'un style unique – comme des compétences fondamentales.

En conclusion, la main-d'œuvre idéale de demain ne se limitera probablement plus aux simples « opérateurs » maîtrisant l'IA, mais s'étendra aux « penseurs » qui conservent l'intuition et l'esprit critique, qualités que l'IA ne saurait remplacer. À long terme, cela pourrait engendrer une polarisation des capacités cognitives due à la dépendance à l'IA, et l'élaboration de politiques et de mesures éducatives visant à prévenir ce phénomène constituera un enjeu majeur pour le secteur informatique.