La version gratuite de ChatGPT 3 défraie la chronique depuis près d’un an. Cette IA conversationnelle interroge et interpelle toute personne qui essaie de communiquer avec elle. Il est important de la tester car cela permet de constater qu’elle répond aux questions de manière relativement claire et rapide. De prime abord, les capacités de l’IA semblent impressionnantes.
Vous pouvez tester la version gratuite de cette intelligence artificielle conversationnelle, en vous connectant et en vous inscrivant sur le site d’OpenAI https://chat.openai.com/auth/login. Vous pouvez tout d’abord commencer par discuter avec elle, l’interroger sur un sujet que vous connaissez bien, comme par exemple « la vérification des sources », pour constater la pertinence et la cohérence de ses réponses et de sa manière de communiquer. Si vous prenez ensuite un peu de recul, vous pouvez réfléchir à l’usage pertinent que vous pouvez faire de cet outil. Peut-être aurez-vous envie de vous améliorer en anglais et donc de pouvoir discuter en anglais avec ChatGPT et d’être corrigé par ce dernier si vous faites des erreurs. Vous pouvez dès lors créer un « prompt1 » (commande en langage naturel), et faire de ChatGPT votre « professeur d’anglais personnalisé ». Ainsi, lorsque vous lui parlerez en anglais, il corrigera d’abord vos erreurs, puis vous donnera la règle grammaticale associée et enfin vous proposera un « trick » (aide-mémoire) pour que vous ne fassiez plus la même erreur. Les capacités de cette IA sont surprenantes, oui, mais aussi inquiétantes car l’on peut aisément se questionner sur les conséquences de cette invention technologique, surtout quand elle est accessible à tous.
ChatGPT un modèle de langage développé par OpenAI
GPT (Generative Pre-trained Transformer) est une famille de modèles de langage développé par OpenAI, une entreprise spécialisée en intelligence artificielle (IA) basée à San Francisco. ChatGPT s’appuie sur GPT 3.5 dans sa version gratuite et accessible à tous et sur le dernier modèle GPT 4 pour sa version payante aux performances encore plus remarquables. Les modèles de la famille GPT utilisent l’apprentissage automatique pour générer du texte en se basant sur des milliards de séquences de mots provenant de différentes sources en ligne. Ils sont entraînés sur de vastes ensembles de données textuelles, ce qui leur permet de générer des réponses cohérentes et pertinentes aux requêtes de l’utilisateur. Ces modèles sont ensuite entraînés spécifiquement pour suivre des instructions et produire du texte au contenu acceptable, ce qui leur permet d’être utilisés par le plus grand nombre dans la version conversationnelle de ChatGPT. ChatGPT est donc un chatbot dont le moteur est un modèle GPT.
ChatGPT est souvent utilisé dans des chatbots et des applications de messagerie instantanée, fournissant ainsi une meilleure expérience utilisateur, plus personnalisée et plus efficace. Il peut également être utilisé pour traduire automatiquement des textes dans différentes langues, rédiger des contenus pour des sites web, blogs et autres. Enfin, il est utilisé aussi pour générer des textes à partir de quelques mots-clés donnés en entrée.
Si cette IA plait autant aux utilisateurs (entreprises et internautes), c’est qu’elle permet d’améliorer l’efficacité et l’expérience utilisateur en s’adaptant aux préférences et au langage de celui-ci, tout en répondant de manière instantanée et précise à ses questions.
ChatGPT, un modèle de langage basé sur la prédiction
Il faut rappeler, tout d’abord, que ChatGPT est un « large langage model » (grand modèle de langage) qui a été entraîné sur des données ne dépassant pas 2021 et qu’il n’est pas connecté à Internet.
Le modèle qui sert de fondement à ChatGPT est similaire à celui utilisé par le correcteur automatique dans les smartphones pour compléter les messages. Ce correcteur y parvient grâce à un algorithme qui essaie de prédire, à partir des mots écrits, quels sont les prochains mots les plus probables dans la phrase. Les modèles de langage comme ChatGPT ont le même objectif : prédire la suite logique mais de manière beaucoup plus efficace parce qu’ils ont été entraînés sur beaucoup plus de données. De plus, le modèle de ChatGPT dispose de 175 milliards de paramètres pour la version ChatGPT 3.52 (cent fois plus que la version précédente GPT 2), qui lui permettent d’ajuster ses performances pour fournir des résultats plus précis. Il est important de noter que les textes générés par ChatGPT ressembleront à ceux que les ingénieurs lui ont donné en apprentissage lors de son entraînement.
Pour améliorer davantage les performances de ChatGPT, les ingénieurs ont ensuite « fine-tuné » leur modèle, c’est-à-dire affiné ses paramètres. Pour cela, ils ont utilisé des « feed-back » humains, autrement dit des retours d’utilisateurs, pour trier et organiser les réponses en fonction de leur pertinence. Ce processus a permis à ChatGPT de proposer des réponses plus pertinentes, en conformité avec les consensus scientifiques et moraux. Pour transformer ce modèle en chatbot, il a ensuite fallu lui donner une mise en scène lui permettant de répondre aux questions de manière plus « humaine ».
Toutefois, il n’est pas toujours fiable car son objectif est de produire des textes crédibles et non pas véridiques. Il peut donc lui arriver d’avoir une « hallucination » et d’aller jusqu’à inventer des réponses, des références d’articles ou d’auteurs. Les hallucinations sont définies par Keivan Farzaneth, conseiller pédagogique principal en intelligence artificielle au collège Sainte-Anne, comme étant le moment où l’IA « interprète ou génère des informations qui ne sont pas exactes. Par exemple, une IA pourrait générer une réponse qui n’a pas de sens ou qui est complètement hors contexte, ou alors, elle pourrait penser qu’elle a identifié un chat dans une image alors qu’il n’y en a pas ». (Farzaneh, Glossaire, dernière modification 14 août 20233.) Attention donc, ChatGPT ne peut pas remplacer les recherches sur les moteurs de recherche classiques car il n’effectue aucune recherche dans une base de données lorsqu’il répond à une question : ChatGPT produit uniquement le texte le plus cohérent possible à partir du texte qu’il a obtenu en entrée, pas le plus fiable. C’est ce que souligne également Laure Soulier, maîtresse de conférences en informatique dans l’équipe Machine learning for information access de l’Institut des Systèmes Intelligents et de Robotique (ISIR) :
« Il écrit des réponses plausibles qui nous semblent cohérentes, mais qui peuvent en réalité se révéler inexactes ou trompeuses. L’entraînement basé sur l’apprentissage par renforcement ne contraint pas le modèle à générer des informations véridiques et sa connaissance du monde est limitée aux données qu’on lui a fournies lors de l’entraînement. N’étant pas pour le moment connecté au web, le ChatGPT n’a pas accès aux nouvelles informations publiées4. »
Il faut alors vérifier systématiquement les informations qu’il donne car, s’il fournit des réponses très vraisemblables, celles-ci ne sont fondées sur aucune source concrète.
En effet, certains de ses usages aujourd’hui répandus, notamment la republication directe sur d’autres supports de textes issus de ChatGPT, remettent en question la possibilité de vérifier les sources et les informations, soulevant ainsi des interrogations sur la fiabilité et l’authenticité des informations, ainsi que sur l’impact de l’IA sur la capacité à distinguer la vérité de la fiction. Même si certains outils ont été développés pour tenter de pallier ce problème, il est évident que l’une des clés essentielles pour résoudre ce défi sera la formation et l’éducation des utilisateurs aux bonnes pratiques d’utilisation de cette nouvelle technologie.
L’intelligence artificielle et l’information
Comment, dans ce contexte d’incertitude autour des sources et d’instabilité du document, le professeur documentaliste peut-il permettre à tous les élèves d’acquérir une culture de l’information et des médias, sachant qu’avec l’avènement de l’IA, il devient de plus en plus difficile de vérifier la véracité des informations que l’on peut trouver sur Internet ?
L’un des exemples les plus flagrants et actuels concernant la vérification des informations générées par l’IA est celui des images, créées par l’IA Midjourney, représentant Emmanuel Macron assis sur des poubelles près de la Tour Eiffel ou fuyant des policiers en pleine rue ou encore portant le gilet orange des éboueurs. Ces images sont des exemples frappants de ce phénomène car elles ne sont pas des montages mais bien des créations d’intelligence artificielle qui s’inspirent du style vestimentaire d’Emmanuel Macron, de ses expressions et de ses bijoux. Elles sont si réalistes qu’elles remettent en question la capacité à distinguer la vérité de la fiction ou à repérer les fausses informations. Les deep fakes ont déjà posé la question de la véracité des vidéos, car elles permettent de remplacer le visage d’une personne par un autre et de changer ses propos de manière très réaliste. Avec l’IA, il sera de plus en plus difficile de vérifier l’authenticité d’une information, même s’il s’agit d’une photographie ou d’une vidéo.
Concernant la création de contenus textuels, ChatGPT 3 et sa version plus récente ChatGPT 4 ne sont pas en reste dans l’élaboration de fausses informations ! En effet, ces deux IA sont incapables, pour le moment, de garantir la fiabilité des informations qu’elles donnent et d’en donner les sources.
D’une part, lorsque ChatGPT est utilisé comme moteur de recherche, alors que ce n’est pas sa vocation, il n’est pas possible de garantir la véracité des informations fournies. À aucun moment cette IA n’effectue une recherche d’informations. Si, par exemple, on lui demande de rédiger la biographie de Descartes, le contenu qu’elle fournira sera vraisemblable et une partie sera probablement juste, mais il est possible que des erreurs ou des inexactitudes se glissent dans ses propos. Ainsi, ChatGPT pourrait affirmer que Descartes a effectué un séjour en Amérique du Sud, alors que cette information est fausse. Le problème est que ce genre d’erreur n’est perceptible que par des personnes qui connaissent déjà bien le sujet et ici, en l’occurrence, la vie de Descartes. Il est donc essentiel d’expliquer le fonctionnement de cette IA à tous les utilisateurs pour ne pas tomber dans l’illusion que nous avons affaire à une incroyable encyclopédie capable de répondre à toutes nos questions en un clin d’œil.
D’autre part, ChatGPT peut être utilisé de manière malveillante pour créer sciemment de fausses informations ou pour influencer et manipuler des utilisateurs. Un générateur de texte qui semble très vraisemblable et convaincant peut être utilisé à mauvais escient et malheureusement les garde-fous d’OpenAI ne sont pas infaillibles. Des personnes malintentionnées peuvent ainsi utiliser ce chatbot pour produire des codes malveillants, créer de faux profils de rencontre, réaliser des arnaques plus crédibles ou mener des campagnes d’hameçonnage. Lorsqu’on essaie par exemple de demander à ChatGPT de créer un mail de phishing, l’IA s’excusera d’abord de ne pas pouvoir satisfaire notre requête :
« Je suis désolé, mais en tant qu’agent d’IA, je ne peux pas écrire un email de phishing. La création et la distribution de courriels de phishing sont des actes malveillants et illégaux, qui peuvent causer des dommages importants aux victimes.
Au lieu de cela, je vous recommande de rester vigilant et de ne jamais divulguer vos informations personnelles […].
Il est important de signaler tout courriel de phishing suspect aux autorités compétentes […]5. »
Cependant, en insistant un peu, il est malheureusement possible de contourner les restrictions de ChatGPT afin d’obtenir le résultat demandé. Il est également possible de simuler une conversation avec un ChatGPT « nazi » ou « raciste » en lui donnant des instructions différentes ou en lui demandant de jouer un rôle spécifique dans un « jeu de rôle » ou dans un scénario de film.
Selon une étude menée par NewsGuard, une start-up fondée en 2018 aux États-Unis lors de l’explosion des fake news partagées sur les réseaux sociaux au moment de l’élection présidentielle de 2016 et spécialisée dans l’évaluation de la crédibilité des sites web d’actualités et de médias, la dernière version de ChatGPT, ChatGPT 4, est moins fiable que sa version précédente dès lors qu’on le questionne sur des thèses complotistes. NewsGuard a effectué des tests sur les propos de l’IA qui pouvaient alimenter des sujets complotistes. Ainsi dans « 80 % des cas, le robot d’intelligence artificielle (IA) ChatGPT a relayé des affirmations fausses et trompeuses lorsque nous lui avons posé des questions orientées sur des sujets d’actualité importants » (Brewster, Arvanitis & Sadeghi, 20236). Cette capacité de l’IA à produire des textes vraisemblables mais non véridiques souligne la nécessité d’être vigilant quant à l’utilisation de ChatGPT. En effet, le chatbot peut être utilisé pour désinformer ou alimenter des récits complotistes de manière très convaincante, surtout si on lui demande de prendre le point de vue de quelqu’un qui adhère à des théories du complot.
Dès lors, comment lutter contre les fausses informations créées par les intelligences artificielles et relayées sur Internet ? Comment s’assurer que chacun dispose des clefs pour détecter le vrai du faux ?
Des outils numériques commencent à être développés pour répondre à ces problématiques. Par exemple, en 2020, Microsoft a créé une IA appelée Video Authenticator, capable de détecter les fausses vidéos ou images. Une autre solution serait de mettre en place un système de certification des contenus publiés, par l’ajout d’un patch ou d’un élément visible pour authentifier leur véracité. Cependant, ces solutions ne sont pas encore généralisées et présentent encore des failles car elles ne permettent pas de détecter toutes les fausses informations. La question de la véracité de l’information est plus que jamais d’actualité et les professionnels de l’information et des médias doivent s’adapter à ces nouvelles réalités. Les cours d’EMI dispensés par les professeurs documentalistes sont donc essentiels pour agir contre les fake news, en formant les élèves à un usage réfléchi de ces outils.
ChatGPT dans l’enseignement
Au premier abord, les usages de chatGPT questionnent beaucoup et inquiètent de nombreux enseignants. En effet, il est assez facile de trouver sur Internet, à la radio ou autour de nous, des témoignages d’étudiants et d’élèves confiant qu’ils utilisent ChatGPT pour gagner du temps. L’IA leur permet par exemple de résumer un livre, formuler un plan de dissertation ou traduire un texte en quelques instants. La démocratisation de l’utilisation de ce genre d’IA interroge dès lors les méthodes d’enseignements et d’apprentissages.
ChatGPT 3 peut notamment remettre en question les devoirs à la maison car rien n’empêche les élèves d’utiliser ce chatbot pour réaliser une dissertation ou un écrit d’invention, les intelligences artificielles conversationnelles générant des textes dans un français presque parfait. Les élèves peuvent très facilement poser une question à l’IA et copier-coller l’information ou le texte donné sans citer leur source (ici ChatGPT 3). Un tel usage s’apparente non seulement à du plagiat, comme l’indique Keivan Farzaneh sur son site L’intelligence artificielle en éducation (rubrique Introduction au plagiat, 2023), mais, plus encore, les élèves utilisant ainsi cet outil ne font pas eux-mêmes le travail demandé et par conséquent n’apprendront rien de cet exercice. Il ne paraît donc plus possible de donner ce genre de devoir sauf si le sujet est d’actualité (dépassant 2021) ou s’il est suffisamment complexe pour que l’IA ne sache pas le traiter correctement. Pour minimiser les risques de plagiat (copier-coller d’un texte généré par une IA conversationnelle), les exercices de rédaction de textes devront sans doute se faire en classe plutôt qu’à la maison. Keivan Farzaneh ajoute également : « Si la rédaction se fait sur un support numérique, il est important de se promener régulièrement en classe, et lorsque possible, d’orienter les appareils des élèves dans une même direction afin d’avoir une vue d’ensemble de la classe plus facilement. » (rubrique Minimiser les risques de plagiat, 20237) Les enseignants vont devoir repenser les sujets, privilégier des études de cas ou des analyses de documents par exemple. L’arrivée de cette nouvelle technologie les encouragera peut-être à se tourner davantage vers l’expression orale, obligeant ainsi les élèves à réfléchir par eux-mêmes. Il faudra également insister sur l’illégalité et les conséquences du plagiat, même si le texte a été généré par un robot et que les élèves ne se rendent pas toujours compte que ce robot en est la source.
Reconsidérer l’ensemble de l’enseignement et des méthodes d’apprentissage à cause de ChatGPT n’est vraiment pas nécessaire. L’inquiétude ressentie aujourd’hui peut rappeler celle qu’a suscitée Wikipédia à ses débuts. Depuis, l’usage de cette encyclopédie a été encadré et étudié à l’école, menant à une utilisation plus réfléchie par tout un chacun. Tout comme Wikipédia, les chatbots peuvent être très efficaces dans certains cas mais il faut rester prudent quant à leur utilisation.
Il s’agit également de former les élèves à un usage raisonné de ChatGPT car, comme nous l’avons vu précédemment, l’IA peut produire des erreurs. Il faut donc que les élèves soient conscients des biais que peuvent générer les chatbots et qu’ils comprennent le concept d’hallucination.
D’autre part, il peut être facile de repérer les textes générés par l’IA, notamment lorsqu’il n’est pas habituel pour les élèves de s’exprimer sans faire d’erreur, dans une syntaxe parfaite. ChatGPT a également tendance à générer des répétitions et à produire des phrases courtes. Pour pouvoir vérifier si les élèves ont copié-collé ChatGPT, il est possible d’utiliser des outils permettant de vérifier si un texte a été écrit par un humain ou par une IA. Plusieurs outils (GPTZéro, AI Text Classifier, etc.) sont disponibles sur Internet ; toutefois, tous ne sont pas extrêmement fiables et il faut garder à l’esprit qu’ils peuvent également faire des erreurs. Malgré tout, ils restent des outils intéressants pour confirmer ou infirmer une suspicion de triche et éventuellement interroger l’élève concerné.
GPTZero (2022-20238) a été développé par un étudiant en informatique américain Edward Tian. Compliqué à comprendre de prime abord, l’outil est en réalité simple d’utilisation : une fois le texte à évaluer copié-collé dans l’encadré prévu à cet effet, l’algorithme analyse le texte. Un premier score est ensuite donné, portant sur la « perplexité9 » du texte considéré dans son ensemble, puis un second score, portant sur la perplexité des phrases du texte. Plus le score de perplexité est grand, plus le texte est susceptible d’avoir été écrit par un humain. Le score de perplexité correspond en quelque sorte à la complexité des phrases et au taux de probabilité des mots utilisés. En bas de la page, un bouton « Get GPTZero Result » permet l’accès aux résultats. Lorsque le score dépasse 100, le texte est détecté comme celui d’un humain. Le site annonce alors “Your Text is likely human generated!” (Votre texte a été probablement écrit par un humain !). Si le score est en dessous de 100, il est plus probable qu’il ait été généré par une IA.
Un autre outil que vous pouvez tester est celui développé par OpenAI et qui se nomme AI Text Classifier10. Il fonctionne comme l’outil précédent et détecte assez bien les textes générés par des IA. En revanche, il ne détecte pas encore très bien ceux qui sont écrits par des humains ! Il va sans doute être amélioré avec le temps.
Draft & Gold (202311) propose également son propre détecteur, plus simple d’utilisation et de prise en main. Une fois le texte entré dans l’encadré de détection, il suffit d’activer « Analyser », ce qui permet d’obtenir le résultat de l’analyse du texte en pourcentage et de savoir si l’extrait a été rédigé en partie ou entièrement par une IA. Le site annonce directement le résultat : « Sur la base de notre analyse, votre texte a très probablement été écrit par un humain ». Plus le texte est long et plus l’algorithme semble mieux l’analyser et détecter s’il a été généré par une IA. Sa version gratuite limite malheureusement son utilisation à une quarantaine de tests par jour, mais il reste malgré tout un très bon outil de détection, simple et efficace.
Il faut cependant souligner que certains professeurs, comme Keivan Farzaneh, déconseillent l’utilisation des détecteurs de textes générés par l’IA « car ils produisent régulièrement des faux positifs ou des faux négatifs » (rubrique Détecter le plagiat, 202312). Pour lui, la meilleure façon reste d’analyser le texte de l’élève pour « détecter toute forme d’anomalie dans la structure des phrases (enchaînements douteux, changement soudain de la qualité de la langue, etc.)13 ». Il conseille de faire rédiger un petit écrit à chaque élève, en classe, en début d’année, et de le garder comme comparatif en cas de doute durant l’année : ainsi l’enseignant s’assure de connaître le style d’écriture de l’élève.
Des pistes pour former les élèves à l’usage de ChatGPT
ChatGPT n’est donc ni un outil de recherche documentaire, ni une encyclopédie, notamment parce qu’il ne permet ni de citer ni de vérifier les sources utilisées pour fournir les réponses aux questions posées par les internautes. Il convient donc d’être prudent, car de nombreuses erreurs peuvent se glisser dans les contenus qu’il délivre.
À titre d’exemple voici ce qu’il est possible de faire lors d’une séance pédagogique :
1. Introduction : expliquer ce qu’est ChatGPT et faire le rapprochement entre l’IA et les algorithmes de prédiction présents dans les smartphones. Il est possible également de dire aux élèves, dès l’introduction, que l’objectif du cours est de mettre en lumière les effets de biais et d’hallucination du chatbot.
2. Utilisation : il est possible de consacrer plusieurs séances à la démonstration des erreurs de ChatGPT en demandant aux élèves de poser une question spécifique à ChatGPT, puis de vérifier les informations fournies pour valider ou non les informations données.
Une autre option consiste à demander aux élèves de poser plusieurs fois la même question à ChatGPT via de nouvelles conversations et de comparer les réponses. En constatant que les réponses obtenues ne sont pas identiques, les élèves pourront en arriver eux-mêmes à la conclusion que les réponses données par l’IA ne sont pas toujours fiables.
Bien entendu, cette vérification doit s’accompagner d’un travail sur les sources d’information pour sensibiliser les élèves à l’importance de la vérification des informations et à la fiabilité de celles-ci.
3. Limitations et risques : un brainstorming peut ensuite permettre de mettre en évidence les risques liés à un mauvais usage de ce chatbot. Les élèves prendront alors conscience du concept d’hallucination et des biais que peuvent engendrer les IA.
4. En conclusion, l’enseignant pourrait insister sur l’importance de contre-vérifier les informations. Il peut s’agir ici de demander aux élèves d’utiliser un autre chatbot, fournissant des informations plus fiables et sourcées, contrairement à ChatGPT 3. Par exemple le chatbot de Bing « Bingchat ».
Il est également possible d’explorer l’un des domaines d’utilisation les plus intéressants de ChatGPT, à savoir celui de la langue, de la reformulation et potentiellement de la traduction. Une séance de correction de dissertation, ou d’un autre devoir, peut ainsi être envisagée à l’aide de cet outil. Par exemple, après avoir identifié les phrases qui leur posent problème (sur le plan lexical ou syntaxique), les élèves peuvent demander à ChatGPT de corriger leurs erreurs et de fournir la règle grammaticale correspondante. Avec le temps, cet exercice, supervisé par l’enseignant qui vérifierait les corrections proposées, peut aider les élèves à améliorer leurs compétences.
Exemple de requête : « Voici un texte sur [concept]. Améliore et corrige l’orthographe, la grammaire, la syntaxe et le vocabulaire. Mets en caractères gras les erreurs corrigées et explique tes corrections. »
Autre exemple de requête : « Voici un texte sur [concept]. Vérifie les arguments pour voir s’ils sont pertinents. Au besoin, corrige les arguments et explique ton raisonnement. Mets les arguments corrigés en caractères gras14. »
Sur son site (rubrique Elèves : pourquoi utiliser les robots conversationnels ?), Keivan Farzaneh mentionne un autre usage possible de l’IA pour les élèves : expliquer un concept en termes simples ou différents et donc vulgariser ou reformuler certaines notions15.
Exemple de requête : « Adresse-toi à un élève de [âge] ans. Explique pourquoi les protéines adoptent une structure tridimensionnelle. Fournis ta réponse en moins de 10 lignes. »
Quels usages les enseignants peuvent-ils faire de ChatGPT ?
Coté enseignants, ChatGPT peut être utilisé pour produire des contenus pédagogiques innovants : par exemple, pour générer de nouveaux exercices à proposer aux élèves, pour créer des listes et les ordonner de manière efficace et pertinente ou encore pour produire les trames de nouveaux cours, ce qui constitue un gain de temps pour l’enseignant. En cas de doute, les professeurs ont suffisamment de recul et de connaissances pour pouvoir vérifier les informations données par ChatGPT.
Keivan Farzaneh propose, sur son site, toute une série d’exemples de ce que l’on peut demander à ChatGPT pour agrémenter les cours : générer des exemples en lien avec les concepts enseignés, générer des définitions adaptées au niveau des élèves, générer tous types d’activités permettant de faire de la différenciation, des plans de cours, des exercices mais aussi des grilles d’évaluations, etc.
À ce propos, il conseille la lecture du Guide de l’enseignant. L’usage de ChatGPT “ce qui marche le mieux”, écrit par Andrew Herft, conseiller pédagogique au NSW Department of Education en Australie, traduit et adapté par Alexandre Gagné. Le guide donne une liste de « prompts » (questions ou commandes) à poser pour obtenir des résultats fiables et efficaces, dont voici deux exemples :
« Utilisez une évaluation formative régulière pour comprendre les points forts et les points à améliorer des élèves. »
« Utilisez ChatGPT pour créer des quiz et des évaluations qui testent la compréhension de la matière par les élèves. »
« Vous pouvez saisir cette commande : “Créez un quiz avec 5 questions à choix multiple pour évaluer la compréhension des élèves sur [concept enseigné].” (Herft & Gagné, 2023) »
Simon Dugay, enseignant d’informatique au secondaire et chargé de cours en didactique des sciences propose lui aussi quelques pistes d’usage de l’IA sous la forme d’une infographie (Dugay, 2022) :
Pour intégrer ChatGPT 3 dans la création de cours, de nombreuses ressources, très riches, peuvent ainsi être utilisées, comme le Guide de l’enseignant (Herft & Gagné, 2023) ou le site de Keivan Farzaneh (2023), déjà cités et qui sont tous les deux très clairs et pratiques. Le site de Keivan Farzaneh met ainsi à disposition la liste des IA (ou “générateur de”) et des informations sur ces IA en fonction de leurs compétences ; il propose également un comparatif des robots conversationnels très utile pour choisir celui le plus adapté aux besoins.
Pour conclure
L’arrivée de ChatGPT dans les pratiques a suscité un engouement dû à sa manière, quasi humaine et extrêmement cohérente, de converser avec les utilisateurs, faisant presque oublier sa nature artificielle. Cependant, cette IA est également source d’inquiétude dans le domaine de l’enseignement, interrogeant les pratiques pédagogiques et les méthodes d’apprentissage des élèves et montrant ainsi qu’il est important de rester conscient des limites et des risques de ce genre d’outil. C’est pourquoi il est urgent d’engager avec les élèves une réflexion sur les enjeux sociétaux liés aux IA et de les former à une utilisation responsable de chatGPT, en soulignant que ces IA ne peuvent se substituer aux efforts personnels, au risque de commettre des erreurs. Les élèves doivent être encouragés, plus que jamais, à vérifier les informations auprès de sources fiables, à se cultiver et ne pas se laisser séduire par l’illusion de facilité qu’offre ChatGPT.
Cependant ChatGPT peut être utilisé de manière bénéfique pour aborder en classe le fonctionnement d’une IA, mais aussi pour des tâches telles que la reformulation, la traduction ainsi que pour des exercices de correction. Il est alors important de bien encadrer ces cours sur l’intelligence artificielle et cela nécessite des connaissances et des formations supplémentaires pour les enseignants. ChatGPT et l’intelligence artificielle de manière générale peut devenir un atout pour les professeurs, les aidant dans la création de contenus, de leçons, d’exercices et bien d’autres tâches.
Enfin, ChatGPT, à l’instar de l’ensemble des intelligences artificielles, connaît des évolutions technologiques rapides et multiformes et est l’objet de nombreuses recherches universitaires. Il convient, en outre, de souligner que les dernières avancées, notamment ChatGPT 4, semblent s’orienter vers un modèle payant et donc un accès restreint aux internautes.