Depuis sa sortie en novembre 2022 ChatGPT a fait couler beaucoup d’encre… numérique. Développé par la société américaine OpenAI, ce « transformateur génératif pré-entraîné » qui se présente sous la forme d’une interface conversationnelle est considéré comme le plus puissant du genre. Propulsé par la forme d’intelligence artificielle la plus sophistiquée, il surprend, épate et inquiète par ses performances dans des tâches « cognitives » qui jusqu’à maintenant ne pouvaient qu’être le fruit d’un cerveau humain. Alors que certains le perçoivent comme une technologie révolutionnaire, il est clair que son accessibilité au grand public pose des enjeux de taille, notamment en matière de sécurité et d’éthique. Voici quelques clés pour mieux la décrypter.

Propulsé par l’IA générative

ChatGPT est une intelligence artificielle (IA) dite « générative », soit un type d’IA capable d’analyser et de comprendre des requêtes textuelles, appelées « invites » ou prompts, et d’y répondre en générant un contenu original (texte, images, vidéos, musique) formaté selon nos besoins (style, nombre de mots, etc.). Cette IA ne se limite donc pas à retrouver du contenu dans les données existantes comme le font les moteurs de recherche actuels. Pour parvenir à une telle performance, celle-ci a dû être entraînée avec une très grande quantité de données; dans le cas de GPT-4, cet entraînement s’est fait avec tout le contenu public du Web publié jusqu’en septembre 2021. On nomme « GPT-4 » la version de ChatGPT sortie en novembre 2022 puisqu’il s’agit de la quatrième génération de transformateur génératif pré-entraîné (GPT étant l’acronyme de generative pre-trained transformer) développée par OpenAI.

À partir des données d’entraînement et grâce à un système mathématique hyperpuissant, l’IA générative est capable de comprendre une requête complexe et de prédire statistiquement la meilleure réponse possible. C’est la raison pour laquelle on parle ici d’une IA recourant à une technique probabiliste. Une IA générative peut ainsi, par exemple, générer une réponse très élaborée à la demande de produire « un texte d’environ 1500 mots sur l’évolution du rôle de l’enseignant à travers l’histoire en mettant l’accent sur les technologies qui ont fait leur entrée dans la vie scolaire, dans le style d’un auteur X et incluant cinq citations ». Et puisque cette IA possède une mémoire, il est possible d’ajouter de nouvelles précisions à sa requête afin d’en raffiner la réponse. Notons que c’est le développement de l’apprentissage profond, dans la seconde moitié de la décennie 2010, qui a permis de décupler les performances de l’IA générative.

Grand modèle de langage multimodal

En tant qu’interface de type conversationnel, ChatGPT permet d’interagir avec cette technologie qui existe depuis plusieurs années que l’on appelle « grand modèle de langage » ou plus couramment « LLM » (de l’anglais large language models). Un LLM est un algorithme qui fonctionne en analysant de grandes quantités de données textuelles (ou autres) et en apprenant les modèles de langage qui sous-tendent ces données. Il peut par la suite utiliser ces modèles pour comprendre et produire de nouveaux contenus. Dans « grand modèle de langage », le qualificatif « grand » réfère au fait qu’il s’agit d’un modèle de langage de dernière génération qui possède de plus grands réseaux de neurones artificiels développés sur de gigantesques ensembles de données comportant eux-mêmes un nombre impressionnant de paramètres.

À ce qualificatif s’ajoute désormais celui de « multimodal », puisque les bases de données de divers types (langage naturel, langage mathématique et informatique, images et contenus audiovisuels) ont été combinées et qu’un même modèle, comme c’est le cas de ChatGPT, peut traiter et produire de multiples formes de contenus. Un tel modèle peut ainsi non seulement analyser, synthétiser, évaluer et générer du texte, mais aussi résoudre des problèmes mathématiques et scientifiques, coder, concevoir des travaux dans la plupart des disciplines techniques et non techniques, et même produire de la musique et de la vidéo (OpenAI, 2023; Google Research, 2023).

Intelligence artificielle… générale?

ChatGPT a-t-il atteint une forme d’intelligence générale, comme l’avance l’étude de Microsoft — l’un des plus importants investisseurs dans ChatGPT et OpenAI —, intitulée Une étincelle d’intelligence artificielle générale (Bubeck, 2023)? Son principal auteur, le chercheur en IA Sébastien Bubeck, précise sur quelles capacités de GPT-4 ses collègues et lui s’appuient pour y aller d’une telle affirmation.

« La démonstration centrale de notre recherche est que GPT-4 atteint une forme d’intelligence générale, montrant même des indices d’intelligence générale artificielle. Cela est démontré par ses capacités mentales centrales (telles que le raisonnement, la créativité et la déduction), l’éventail des sujets sur lesquels il a acquis une expertise (tels que la littérature, la médecine et le codage) et la variété des tâches qu’il est capable d’accomplir (par exemple, jouer à des jeux, utiliser des outils, s’expliquer…). »

Cette publication est toutefois controversée, comme le rapporte l’article du New York Times Un système d’IA qui raisonne (un peu) comme un humain (version française de La Presse) du journaliste spécialisé en technologies Cade Metz dont voici un extrait :

« Certains experts en IA ont vu dans l’article de Microsoft des prétentions opportunistes au sujet d’une technologie que personne ne comprend vraiment. Ils objectent que l’intelligence générale requiert une connaissance du monde matériel que GPT-4 ne possède pas en théorie. ‘L’article Étincelles d’IAG est un exemple de ce que certaines grandes entreprises font : mettre un argumentaire de relations publiques sous la forme d’un article scientifique’, dénonce Maarten Sap, chercheur et professeur à l’Université Carnegie Mellon de Pittsburgh. MM. Bubeck et Lee admettent qu’ils ne savaient pas exactement comment décrire le comportement du système et qu’ils ont fini par intituler leur article Étincelles d’IAG pour frapper l’imagination d’autres chercheurs. Alison Gopnik, professeure de psychologie et chercheuse en IA à l’Université de Californie à Berkeley, affirme que GPT-4 — comme d’autres systèmes du genre — est sans aucun doute puissant, mais qu’il n’est pas évident que le texte généré soit le résultat de quelque chose comme le raisonnement humain ou le bon sens. ‘Quand on voit un système compliqué, on fait de l’anthropomorphisme : tout le monde le fait, ceux qui travaillent dans le domaine et les autres’, a affirmé Mme Gopnik. ‘Mais toujours comparer l’IA et les humains, comme dans une compétition de jeu télévisé, ce n’est pas la bonne façon d’aborder la question.’»

Biais et fabulations

Si ChatGPT impressionne par ses multiples capacités, il faut savoir qu’il a aussi ses limites. En effet, bien que certaines de ses capacités « cognitives » imitent celles de l’intelligence humaine, il pas doté de sentience (capacité de raisonner et ressentir) ni de métacognition, ce qui fait qu’il ne peut porter de regard critique sur ce qu’il produit et qu’il ne peut donc pas se corriger. Ainsi, ses réponses sont à risque d’être teintées par différents biais (préjugés racistes, sexistes, favorables ou défavorables à certaines affiliations politiques, etc.) ou encore de comporter des résultats erronés, que l’on a nommés « fabulations » ou « hallucinations ». C’est que le modus operandi de ChatGPT qui fait en sorte qu’il génère la réponse la plus probable (comme le font aussi les autres IA génératives) le mène d’abord et avant tout à fournir une réponse, même s’il s’agit de résultats erronés ou de pures inventions…

Ajoutons que puisque ChatGPT ne mentionne pas ses sources, il peut être ardu de confirmer la véracité de certaines de ses réponses. Outre ces faiblesses, il faut aussi garder en tête que l’IA pose des risques pour la sécurité des données personnelles et de la vie privée. Les utilisateurs doivent s’assurer de ne fournir aucune information sensible à ChatGPT, puisqu’OpenIA précise clairement dans la foire aux questions de l’agent conversationnel que les interactions effectuées avec lui seront utilisées pour entraîner les prochains modèles d’IA de l’entreprise. Par conséquent, les utilisateurs sont responsables de s’assurer de ne divulguer aucune information sensible.

Catherine Meilleur

Auteure:
Catherine Meilleur

Stratège en communication et Rédactrice en chef @KnowledgeOne. Poseuse de questions. Entêtée hyperflexible. Yogi contemplative

Catherine Meilleur possède plus de 15 ans d’expérience en recherche et en rédaction. Ayant travaillé comme journaliste, vulgarisatrice scientifique et conceptrice pédagogique, elle s’intéresse à tout ce qui touche l’apprentissage : de la psychopédagogie aux neurosciences, en passant par les dernières innovations qui peuvent servir les apprenants, telles que la réalité virtuelle et augmentée. Elle se passionne aussi pour les questions liées à l’avenir de l’éducation à l’heure où se pointe une véritable révolution, propulsée par le numérique et l’intelligence artificielle.