Vous êtes seul devant votre ordinateur, en pleine séance d’apprentissage en ligne, et celle-ci n’implique aucune interaction humaine, que ce soit avec un enseignant ou d’autres apprenants. Seriez-vous susceptible d’interagir avec votre ordinateur comme si vous étiez des partenaires sociaux, tel que vous le feriez avec vos congénères dans une classe traditionnelle? À la lumière des dernières connaissances en neurosciences sociales et affectives, il semble que ce soit tout à fait plausible. Cette découverte est non seulement surprenante et intéressante sur ce qu’elle nous apprend du comportement humain, mais elle nous offre un nouvel angle sous lequel explorer l’expérience d’apprentissage numérique afin de l’améliorer.
C’est le sujet auquel se consacre l’un des chapitres du livre « Les émotions, l’apprentissage et le cerveau : explorer les implications éducationnelles des neurosciences affectives » de Mary Helen Immordino-Yang, professeure associée en éducation, psychologie et neurosciences. Voyons les principaux points abordés par Immordino-Yang et sa collègue Vanessa Singh dans ce fascinant chapitre intitulé « Perspectives des neurosciences sociales et affectives sur la conception des technologies numériques d’apprentissage ».
L’éclairage des neurosciences affectives et sociales sur l’apprentissage
Un mot d’abord sur les neurosciences. Il s’agit d’un champ multidisciplinaire qui se penche sur l’étude du système nerveux, des neurones au comportement, et qui fait appel à un vaste éventail de disciplines, allant de la biologie à la chimie en passant par les mathématiques et l’informatique. Ce domaine se décline lui-même en plusieurs branches ou sous-disciplines dont font partie les neurosciences affectives et les neurosciences sociales. Alors que les premières s’intéressent au comportement des neurones en relation avec les émotions, les secondes visent à comprendre des processus et des comportements sociaux à travers des mécanismes biologiques.
Ce champ de connaissances a entre autres permis des découvertes qui ont un impact majeur sur notre compréhension et notre approche de la cognition humaine et de l’apprentissage. Les neurosciences affectives ont notamment confirmé que les émotions et la pensée rationnelle sont inextricablement liées, de même que le sont le corps et l’esprit, contrairement au postulat dualiste de Descartes qui s’est longtemps imposé en Occident.
« Loin de dissocier les émotions de la pensée, les nouvelles recherches suggèrent collectivement que les émotions, telles que la colère, la peur, le bonheur et la tristesse, sont des processus cognitifs et psychologiques qui impliquent le corps et l’esprit (Barrett, 2009; Damasio, 1994/2005; Damasio et al., 2000). […] Dans l’ensemble, les neurosciences affectives, ainsi que la psychologie, documentent les innombrables façons dont le corps et l’esprit sont interdépendants pendant l’émotion, et donc les innombrables façons dont les émotions organisent (et biaisent) le raisonnement, le jugement de soi et des autres, ainsi que la récupération des souvenirs au cours de l’apprentissage (Immordino-Yang et Damasio, 2007) », précisent Mary Helen Immordino-Yang et Vanessa Singh.
De leur côté, les neurosciences sociales ont jeté un nouvel éclairage sur les mécanismes biologiques fondamentaux qui sont à la base de notre manière d’apprendre en tant qu’êtres sociaux. Rappelons que le psychologue Albert Bandura a été le premier à mettre en lumière le fait qu’apprendre en observant nos congénères, non seulement pour imiter mais pour dépasser leur modèle, est un processus inhérent au développement et aux conduites humaines — processus appelé modelage ou expérience vicariante. En tant qu’être fondamentalement social, l’humain se définit et se développe donc à travers ses rapports avec autrui, et cet aspect ne peut être occulté lorsqu’il est question d’apprentissage. « En outre, les enseignants savent depuis longtemps que la réflexion et l’apprentissage, processus à la fois cognitifs et émotionnels, ne se déroulent pas dans le vide, mais dans des contextes sociaux et culturels (Fischer et Bidell, 2006). La façon dont les gens prennent leurs décisions est en grande partie liée à leurs expériences sociales passées, à leur réputation et à leur histoire culturelle », rappellent Immordino-Yang et Singh.
Pour être plus précis, ce champ des neurosciences s’est notamment penché sur le rôle des émotions sociales dans l’apprentissage, les émotions sociales étant des émotions en lien avec les actions, les sentiments ou les pensées d’autrui. Leur développement au cours de l’éducation permet à chacun de s’adapter au groupe qui, en échange, assure sa relative survie. Parmi ces émotions, on retrouve l’amour, l’amitié, l’empathie, la curiosité, la solidarité, la culpabilité, l’autocritique, la timidité, la honte, etc. Or, les émotions sociales jouent vraisemblablement un rôle clé dans l’apprentissage.
« Dans ce contexte, la physiologie des émotions sociales qui régissent nos relations interpersonnelles et notre sens moral semble impliquer des interactions dynamiques entre les systèmes neuronaux de sensation et de conscience corporelles — les mêmes systèmes qui sont connus pour être impliqués dans le ressenti des émotions de base, telles que la colère, la peur et le dégoût — ainsi que les systèmes qui soutiennent d’autres aspects de la cognition et de la régulation des émotions, y compris les régions impliquées dans la récupération de la mémoire épisodique et la mise en perspective par rapport au soi (Harrison, Gray, Gianaros, et Critchley, 2010; Zaki, Ochsner, Hanellin, Wagner, et Mackey, 2007). […] L’interaction entre ces systèmes neuronaux suggère que les émotions sociales perdurent, guidant nos décisions, notre engagement continu et notre apprentissage. En outre, les données suggèrent que ces émotions peuvent obtenir leur pouvoir de motivation en coordonnant des mécanismes neuronaux responsables de calculs complexes et de connaissances avec des mécanismes qui facilitent la récupération de notre propre histoire personnelle, tout en étant colorés par des réactions jouant sur des systèmes de régulation homéostatique qui, au sens le plus fondamental, maintiennent notre corps en vie et notre esprit à l’écoute », résument Immordino-Yang et Singh.
L’ordinateur : partenaire social de l’apprenant?
Les deux collègues comptent parmi ces chercheurs qui, à partir de ces nouvelles données, proposent des façons inédites de concevoir et d’améliorer l’apprentissage. Dans leur cas, Immordino-Yang et Singh émettent l’hypothèse que l’être humain ne serait pas si différent lorsqu’il se trouve en contexte d’apprentissage en ligne sans interaction humaine que lorsqu’il apprendrait en classe traditionnelle. Après tout, comme elles le résument, « les nouvelles avancées dans le domaine des neurosciences sociales et affectives montrent de plus en plus clairement que les êtres humains utilisent un traitement subjectif et émotionnel pour penser et apprendre ». Pourquoi l’apprenant utiliserait-il face à son ordinateur un tout autre traitement, alors que ses mécanismes de réflexion et d’apprentissage restent les mêmes et que, de surcroît, il tend à anthropomorphiser ses outils numériques?
« Nombreux sont ceux qui considèrent que les expériences d’apprentissage numérique ne sont pas sociales, tant que l’apprenant interagit seul avec le média. Ici, nous renversons la situation et suggérons que de nombreuses personnes peuvent interagir avec leurs outils numériques comme s’il s’agissait de partenaires sociaux, même si aucun autre être humain n’est impliqué. Le fait de considérer l’apprentissage numérique comme le résultat d’interactions sociales dynamiques et soutenues entre les apprenants et les ordinateurs modifie la manière dont nous concevons et utilisons les technologies numériques pour l’apprentissage — et pourrait nous aider à comprendre pourquoi nous sommes si attachés à nos appareils », avancent Immordino-Yang et Singh.
Les neurosciences ont d’ailleurs mis en lumière des mécanismes internes qui démontrent que lorsque nous interagissons avec nos congénères dans le cadre d’un apprentissage, nous recourons pour les comprendre à un processus empathique. « Aujourd’hui, les neurosciences sociales révèlent certains des mécanismes biologiques fondamentaux de l’apprentissage social (Frith & Frith, 2007; Mitchell, 2008). Selon les données actuelles, le traitement social et l’apprentissage impliquent généralement l’internalisation de ses propres interprétations subjectives des sentiments et des actions d’autres personnes (Uddin, Iacoboni, Lange & Keenan, 2007). Nous percevons et comprenons les sentiments et les actions des autres en fonction de nos propres croyances et objectifs, et nous vivons par procuration ces sentiments et ces actions comme les nôtres (Immordino-Yang, 2008). Tout comme les preuves neuroscientifiques affectives établissent un lien entre notre corps et notre esprit dans les processus émotionnels, les preuves neuroscientifiques sociales établissent un lien entre notre propre moi et la compréhension d’autres personnes », expliquent les deux chercheures.
Or, si l’apprenant conserve ce processus empathique dans ses interactions avec l’ordinateur pour se repérer dans son apprentissage, comment sa grille d’analyse humaine peut-elle lui être utile, alors que son vis-à-vis, même s’il l’anthropomorphise, a bien peu en commun avec lui, y compris sur le strict plan du traitement de l’information? « La cognition humaine, c’est-à-dire les facultés de traitement de l’information, d’application des connaissances et de prise de décision, diffère considérablement de la mise en œuvre de l’information et du calcul par les ordinateurs. Plus important encore, le traitement de l’information par l’humain est guidé par des valeurs subjectives et fondées sur la culture », précisent Immordino-Yang et Singh. « En d’autres termes, nous, les êtres humains, sommes capables de stratégies descendantes et ascendantes d’attention et de traitement de l’information; notre cognition implique de décomposer ou de briser l’information en ses parties composites, ainsi que de rassembler et d’intégrer l’information dans des représentations plus complexes (Immordino-Yang & Fischer, 2009). […] En tant qu’êtres biologiques, une bonne partie de ce qui explique le comment de notre façon de faire les choses réside dans le pourquoi nous les faisons », ajoutent-elles.
Au temps de l’intelligence artificielle générative
Abordons ici la question de l’intelligence artificielle (IA) sous sa forme « générative », cette forme capable de générer elle-même du contenu, qui impressionne autant qu’elle inquiète depuis la sortie à la fin de 2022 de ChatGPT, l’outil le plus connu propulsé par cette technologie. À partir des données d’entraînement et grâce à un système mathématique hyperpuissant, l’IA générative est en mesure de comprendre une requête complexe et de prédire statistiquement la meilleure réponse possible, qu’il s’agisse de résoudre un problème mathématique ou scientifique, de coder ou encore de produire du texte, de l’image, de l’audio ou de la vidéo. À l’heure actuelle, il manque encore à l’IA quelques aptitudes pour nous concurrencer sur tous les terrains cognitifs. Si elle ne parvient pas à raisonner et planifier, à inhiber ses biais, à comprendre comment fonctionne le monde ou encore à s’exécuter sur le plan moteur aussi bien qu’un humain ou un animal, certains experts croient fermement que ces lacunes seront éventuellement comblées. Toutefois, l’idée de comparer l’intelligence artificielle — bien mal nommée selon plusieurs — à l’intelligence humaine fait évidemment grand débat. Quelques échanges tenus dans le cadre de la Série « Les révolutions de l’intelligence » des Rencontres de Pétrarque de 2023 illustrent à quel point l’IA pourrait bouleverser nos vies et notre regard sur notre humanité. Lors de ce débat, Yann LeCun, chercheur et directeur scientifique pour l’IA à Meta, qui est aussi l’un des pères de l’apprentissage profond, cette branche de l’IA ayant permis les avancées dans le domaine ces dernières années, va jusqu’à affirmer que cette technologie pourrait éventuellement éprouver des émotions. Selon lui, le jour où l’on aura « des machines [d’IA] qui parviennent à planifier leurs actions, imaginer les résultats des séquences de leurs actions et qu’elles ont des buts à satisfaire, elles vont inévitablement avoir des émotions ». Voici, comment M. LeCun perçoit cette technologie, son évolution, et, en parallèle, comment il perçoit le cerveau humain :
« Oui certes, ces systèmes à l’heure actuelle font des milliards et des milliards de multiplications, d’additions et de comparaisons. C’est très très simple au niveau algorithmique, si on veut parler d’algorithmes. Ce qui fait leur complexité c’est ce qu’ils sont capables d’apprendre. Ils sont effectivement entraînés pour faire des prévisions statistiques à l’heure actuelle. Mais d’une certaine manière, on peut dire la même chose de nos cerveaux. On peut le réduire à des opérations biochimiques. Donc à un bas niveau ce sont des opérations relativement simples. Le cerveau est une machine; les machines sont des machines. Il n’y a aucune raison de penser que dans un futur plus ou moins proche on n’aura pas des machines qui n’auront pas toutes les caractéristiques intelligentes des humains ou des animaux. Ils ne les ont pas à l’heure actuelle, c’est vrai, il ne faut pas faire cette confusion, on en est encore très loin, mais il ne fait aucun doute que cela va arriver. Vraiment aucun doute. »
Anne Alombert, philosophe, maîtresse de conférences à l’Université Paris 8, spécialiste des enjeux anthropologiques des transformations technologiques contemporaines, propose pour sa part une tout autre vision qui, précisons-le, n’implique aucune notion d’ordre mystique :
« Le cerveau, je ne crois pas du tout que ce soit une machine. Le cerveau c’est une partie d’un organisme, et un organisme ce n’est pas une machine. Un organisme vivant c’est un tout qui n’est pas réductible à la somme de ses parties. Ça veut dire que vous ne fabriquez pas un organisme vivant en assemblant différentes parties qui lui préexistent, si vous voulez. L’organisme il se forme par différenciation, bref ça n’a rien à voir avec une machine. Et par ailleurs, la matière, la matérialité de l’organisme ce sont des structures organiques. Donc ce ne sont pas des structures inorganiques ou inertes comme ce qu’on appelle « les machines » — mais en fait le terme « machine » n’est plus vraiment adéquat, parce que là on a des réseaux en réalité; le numérique c’est quand même des réseaux. […] — C’est un grand débat, mais pour moi ce qui est très important ce n’est pas tant le débat que la différence entre le calcul d’une part et l’interprétation d’autre part. Et je crois que l’interprétation c’est le propre du vivant. Non pas de l’humain, mais du vivant. Vivre c’est interpréter dans un contexte, dans une situation, c’est se transformer en interprétant la situation, et ça ce n’est pas mécanisable, ce n’est pas programmable, parce que c’est une invention constante si vous voulez. Donc, je crois que l’interprétation n’est pas réductible au calcul. »
La réponse de M. LeCun aux propos de Mme Alombert ne laisse aucun doute sur le caractère irréconciliable de ces deux postures : « Tout, absolument tout est réductible au calcul. D’un point de vue théorique, il n’y a que deux sortes de calculs qui existent : le calcul classique et le calcul quantique; il n’y a aucune raison de penser que le cerveau utilise le calcul quantique, donc c’est plutôt du calcul classique, et la théorie nous dit qu’on peut simuler n’importe quel ordinateur générique sur n’importe quel autre. […] Donc le débat de savoir si l’esprit, tel qu’on l’entend, est simulable n’existe plus parmi les scientifiques. »
Au-delà de la « machine à calculer » … la fascinante complexité humaine
Remettant en question notre unicité humaine, allant jusqu’à avancer que l’IA pourrait finir par éprouver des émotions, la vision de Yann LeCun est pour le moins troublante et difficile à concevoir pour plusieurs d’entre nous. Avant de savoir si l’avenir lui donnera raison sur l’évolution de l’intelligence artificielle, il était pertinent de souligner les avancées fulgurantes de l’IA générative et d’exposer en quoi elles suscitent des réflexions qui, jusqu’à tout récemment, relevaient de la science-fiction. Il importe aussi de noter que si les progrès de l’IA générative permettront d’améliorer les fonctions adaptatives de l’apprentissage numérique, afin qu’elles répondent toujours mieux aux besoins individuels des apprenants, encore faut-il continuer de décrypter comment fonctionnent ces apprenants — qui eux sont des êtres vivants, uniques, sentients, sociaux, imprégnés de culture, ayant un vécu, un Soi et un Moi (tel que le décrit la psychologie sociale), des buts, des rêves, etc. Et même si tout était réductible au calcul, apprécions la formidable complexité de la « plateforme » que développe chaque être humain pour comprendre autrui — et pour apprendre —, telle que la décrivent Immordino-Yang et Singh :
« Les êtres humains naissent avec la propension d’imposer un ordre, de classer et d’organiser leur environnement conformément à leur façon individuelle de théoriser et d’agir dans le monde. Le contenu de ces théories et de ces actions est le résultat de l’interaction entre les expériences biologiques, sociales et culturelles de la vie. Au cours de leur développement, les enfants vivent de nouvelles expériences qui façonnent et remodèlent les réseaux neuronaux et les schémas existants et qui ont un impact sur leur développement cognitif, social et émotionnel. C’est pourquoi les modèles câblés de connectivité neuronale qui sous-tendent les modules fonctionnels innés, tels que ceux qui facilitent l’évaluation sociale, sont dynamiquement sculptés par les expériences sociales et culturelles tout comme elles sont subjectivement perçues et émotionnellement « ressenties ». En bref, nos expériences personnelles tout au long de notre développement constituent une plateforme qui nous permet de comprendre les pensées et les actions d’autrui et de les relier à nos propres références. »
Comme l’expliquent les deux chercheures, la dynamique neurobiologique qui sous-tend cette « plateforme » humaine ne peut se comparer au traitement de l’information purement cognitif que produit l’IA à l’heure actuelle, et c’est justement ce qui doit être pris en compte pour mieux adapter l’apprentissage numérique à la cognition pluridimensionnelle humaine.
« Pour comprendre ce que nous voulons dire, revenons aux preuves neurobiologiques présentées plus haut concernant la relation entre le corps et l’esprit. Si la sensation du corps (ou du corps simulé) pendant l’émotion peut influencer notre façon de penser, ce que de nombreuses preuves suggèrent, cette influence se produirait par le biais de la sensation du corps ou de la perception. Cependant, ces sensations n’ont pas la même importance. Même la simple perception visuelle d’objets ou de situations dans l’environnement est comprise en termes de propension à causer du tort ou du bien par rapport à la situation et au contexte actuels. En fonction du contexte, ces réponses peuvent être liées à notre bien-être dans un sens de survie de base, ou dans un sens socioculturel plus évolué. L’ensemble de ces appréciations, valeurs et sensations conduit à ce que nous appelons traditionnellement la cognition. Littéralement, et comme le suggère le terme « émotions », nous sommes « mis en mouvement par » les valeurs que nous attribuons aux perceptions (ou aux perceptions simulées) et, de cette façon, nos perceptions et nos perceptions simulées nous « motivent » à nous comporter de manière significative (Immordino-Yang & Sylvan, 2010). Bien qu’une conception purement cognitive du traitement de l’information décrive parfaitement les calculs qui régissent l’intelligence artificielle et l’incarnation (sous la forme du comportement des robots mobiles), cela représente, de notre point de vue, un fossé fondamental entre l’intelligence artificielle et l’intelligence biologique qui doit être traité dans la conception d’interfaces qui facilitent des interactions utiles entre les deux. »
Adapter l’apprentissage numérique à la cognition humaine
Bien que l’intelligence artificielle puisse se montrer beaucoup plus performante que le cerveau humain dans le traitement purement cognitif de l’information, elle n’a pas à ce jour l’éventail des compétences cognitives proprement humaines. Cet état de fait n’empêche toutefois en rien l’apprenant de voir en son ordinateur ou son environnement d’apprentissage numérique un potentiel partenaire social qu’il devra bien décrypter afin d’interagir avec lui de manière efficace et productive. Plus concrètement, si l’apprenant avait à compléter un exercice, il devrait comprendre le but de cet exercice, relier ce but à ses propres compétences et expériences, puis traduire ses compétences en commandes compréhensibles par l’ordinateur. Toutefois, lorsque l’interface informatique est mal adaptée à la cognition humaine, l’apprenant risque fort de vivre une expérience frustrante, démotivante, voire désengageante. Voici toute la complexité du rapport cerveau-ordinateur qui serait en jeu selon Immordino-Yang et Singh :
« Dans une classe traditionnelle d’apprentissage, chaque étudiant amène ses objectifs, ses connaissances et ses décisions uniques qui ont été façonnés par ses expériences sociales et cognitives et qu’il doit apprendre à utiliser avec empathie pour comprendre les actions de l’enseignant, que celui-ci soit une personne ou un ordinateur. […] L’utilisation d’ordinateurs et d’autres technologies pour apprendre et effectuer des tâches pose à l’étudiant le défi de discerner et de reconstruire mentalement des actions dont les objectifs et les procédures sont souvent invisibles. Non seulement ces processus dépendent de la connaissance du fonctionnement de l’ordinateur, mais ils varient également en fonction de l’histoire subjective, émotionnelle et personnelle de l’étudiant, ainsi que de ses intérêts et objectifs actuels. […] Nous suggérons ici que l’une des principales difficultés que les humains (et en particulier les novices en informatique) rencontrent avec les interfaces informatiques est que les humains ont du mal à anticiper et à comprendre ce que l’ordinateur va faire et pourquoi — en fait, parce que nous n’avons jamais vécu comme un ordinateur, nous avons du mal à « empathiser » avec eux et à partager leur état de traitement, comme nous nous efforcerions naturellement de le faire avec une autre personne. »
La solution serait-elle alors de concevoir des interfaces informatiques qui imitent les compétences humaines et émotionnelles? Ce n’est pas ce que prônent les deux chercheures, pas plus que d’exposer aux apprenants les dessous techniques du fonctionnement de l’ordinateur. La piste que privilégient Immordino-Yang et Singh est plutôt d’améliorer les interfaces pour qu’elles répondent aux critères d’une véritable interaction entre partenaires sociaux. Afin que l’apprenant puisse s’engager avec l’ordinateur de façon plus fluide, il faudrait selon elles que les objectifs et les motivations de l’environnement d’apprentissage numérique lui permettent notamment de saisir le plus clairement possible à quoi sert le programme.
« Pour que les actions et les réponses de l’interface numérique soient perçues comme utiles et productives, et pour que les apprenants novices s’engagent efficacement dans l’environnement d’apprentissage numérique en tant que partenaires collaboratifs, les concepteurs de médias numériques pourraient envisager des moyens de rendre les échanges entre l’être humain et l’ordinateur plus proches de bons procédés sociaux : les objectifs devraient être transparents, les actions de l’ordinateur partenaire devraient être prévisibles et liées aux besoins subjectifs de l’apprenant humain, et chaque partenaire dans l’échange devrait avoir une part appropriée du contrôle. »
Cette dernière idée, de donner à l’apprenant et à l’ordinateur une part appropriée du contrôle, s’inscrit aussi dans le cadre des bons procédés sociaux. Toutefois les deux chercheures s’appuient également sur le fait qu’il a été démontré chez les étudiants universitaires qu’avoir un certain contrôle interne sur le contenu, le contexte et le rythme de son apprentissage, aide à croire en sa réussite et favorise l’engagement dans l’apprentissage. Immordino-Yang et Singh vont encore plus loin, en suggérant que de conférer à l’apprenant un certain contrôle sur des caractéristiques importantes de son expérience d’apprentissage numérique pourrait amoindrir un manque notable dans cette relation.
« Puisque les ordinateurs n’ont pas d’émotions, pourquoi ne pas trouver des moyens permettant à l’utilisateur humain de fournir des caractéristiques émotionnelles à l’interaction humain-machine en lui donnant un certain contrôle sur les aspects critiques de l’apparence, de la sensation et du comportement de l’interface et de l’environnement? »
Ajoutons que le fait de favoriser une relation bidirectionnelle équilibrée entre l’apprenant et l’ordinateur serait loin d’être anodin selon les deux chercheuses pour la perception que l’apprenant pourra développer de lui-même — on peut sans doute parler de ce sentiment crucial qu’est le sentiment d’efficacité personnelle —, ainsi que de l’utilité qu’il percevra de son partenaire collaboratif.
« À partir de là, il semble essentiel que les technologies d’apprentissage soient conçues de manière à ne pas donner aux étudiants qui les utilisent un sentiment de dépendance à l’égard de la machine, mais au contraire à favoriser un sentiment d’autonomie qui permette à l’étudiant de maîtriser des compétences qu’il n’aurait pu acquérir sans l’aide de l’ordinateur. En engageant l’étudiant dans une interaction plutôt que dans une manipulation unidirectionnelle par un partenaire conversationnel ou l’autre (où c’est la personne ou la machine qui conduit), les étudiants peuvent être plus susceptibles d’interagir de manière productive avec l’environnement d’apprentissage numérique et de l’utiliser pour faciliter leurs performances. »
**
En se basant sur des découvertes fascinantes permises par les neurosciences affectives et sociales, Mary-Helen Immordino-Yang et Vanessa Singh proposent une façon inédite d’aborder la relation humain-ordinateur. Un regard qui tombe à point, alors que l’apprentissage numérique s’affirme comme une voie d’éducation de l’avenir pour les jeunes comme pour les adultes, et que l’intelligence artificielle, qui est intégrée à ce mode d’apprentissage, évolue à la vitesse grand V. Or, peu importe quelles seront les prochaines compétences de l’IA, pour que les concepteurs pédagogiques puissent créer des programmes qui soient le mieux adaptés à la cognition humaine, qui soient le plus stimulants et engageants possible, il est essentiel d’approfondir notre connaissance de l’apprenant.
Grâce aux neurosciences, nous avons désormais une meilleure idée des mécanismes biophysiologiques qui sous-tendent la cognition humaine, nous savons entre autres que notre pensée rationnelle est inextricablement liée à nos émotions, et que les émotions sociales, notamment l’empathie, joueraient un rôle prépondérant dans l’apprentissage. En nous invitant à considérer l’apprentissage numérique comme le résultat d’interactions sociales dynamiques continues entre l’apprenant et l’ordinateur, et à l’améliorer pour qu’il se rapproche davantage des bons procédés sociaux, ces chercheures nous guident vers un vaste champ des possibles qu’il nous reste maintenant à explorer avec sérieux. En voulant faire le pont entre l’expertise neuroscientifique et celle en conception pédagogique numérique, Mary Helen Immordino-Yang et Vanessa Singh nous rappellent de ne jamais perdre de vue, à travers la frénésie du développement technologique, le facteur le plus important : le facteur humain.
Sources :
-
Immordino-Yang, Mary Helen; Singh, Vanessa, “Perspectives from Social and Affective Neuroscience on the Design of Digital Learning Technologies”, dans Emotions, Learning, and the Brain: Exploring the Educational Implications of Affective Neuroscience, New York, W.W. Norton & Company Inc., p. 181-190, 2016.
Note : Les citations ont été traduites en traduction libre
-
Épisode 1/5 : Qu’est-ce que l’intelligence, Série « Les révolutions de l’intelligence », Les Rencontres de Pétrarque, France culture, 10 juillet 2023.
En complément :
- [VIDÉO] Biais cognitifs
- [VIDÉO] L’importance des émotions dans l’apprentissage
- [VIDÉO] Neurosciences : apprendre en 4 temps
- Le modelage ou l’apprentissage par l’observation
- L’apprenant et le sentiment d’efficacité personnelle
- Au cœur du sentiment d’efficacité personnelle
- Intelligence artificielle : de la programmation manuelle à l’apprentissage profond
- Ce que l’IA ne fait pas (encore)
- Simplifier l’IA… et confectionner des gâteaux
- Décrypter ChatGPT
- 10 catégories d’outils d’IA générative
- Intelligence artificielle : testez vos connaissances!
- Apprentissage adaptatif intelligent : à chacun sa formation!
- 4 branches des neurosciences
- 10 apports des neurosciences à l’éducation
- Histoire et apports des neurosciences : testez vos connaissances!
- Cerveau, apprentissage et neurosciences : testez vos connaissances!
- Fascinante mémoire : testez vos connaissances!
Auteure:
Catherine Meilleur
Stratège en communication et Rédactrice en chef @KnowledgeOne. Poseuse de questions. Entêtée hyperflexible. Yogi contemplative
Catherine Meilleur possède plus de 15 ans d’expérience en recherche et en rédaction. Ayant travaillé comme journaliste, vulgarisatrice scientifique et conceptrice pédagogique, elle s’intéresse à tout ce qui touche l’apprentissage : de la psychopédagogie aux neurosciences, en passant par les dernières innovations qui peuvent servir les apprenants, telles que la réalité virtuelle et augmentée. Elle se passionne aussi pour les questions liées à l’avenir de l’éducation à l’heure où se pointe une véritable révolution, propulsée par le numérique et l’intelligence artificielle.