Dans notre précédent article « ChatGPT : embarquement pour le meilleur et le pire », nous avions vu que cet agent conversationnel développé par Open AI est un outil d’une redoutable efficacité. « On peut demander à ChatGPT tout ou presque : écriture d’un poème, d’un discours, d’un article, d’une chanson, dans presque toutes les langues. Il peut aider aussi à écrire des codes et des programmes qui peuvent être utilisés par des cybercriminels et des escrocs en ligne pour générer des mails d’arnaques et de « phishing » et accentuer ainsi les menaces de « ransomware » par exemple ».
Evidemment, devant de telles « prouesses », on pourrait être tentés de prendre et accepter toutes les réponses que fournit ChatGPT sans aucun discernement ni travail préalable de contrôle, voire même « d’ajustement ». En réalité, l’analyse des réponses à diverses demandes, pouvant aider le formateur ou l’apprenant dans son apprentissage, soumises à ChatGPT montre qu’il est impératif de rester vigilant. Car il nous semble que ChatGPT est susceptible d’atteindre des limites dans tous les domaines, notamment dans celui de la formation.
Les établissements de formation et d’enseignement commencent à prendre la mesure des risques et menaces que posent l’utilisation de ChatGPT. Plusieurs professeurs d’université ont noté que leurs étudiants confient à ChatGPT la résolution de leurs travaux et devoirs. Un professeur à l’université Furman, Darren Hudson Hick, a déclaré que « Le monde universitaire n’a rien vu venir. Nous sommes donc pris au dépourvu »,
En France, un professeur à l’Université de Lyon a remarqué de curieuses similitudes dans les copies rendues par la moitié de ses étudiants en Mastère. De son côté, SciencesPo Paris a informé tous les étudiants et professeurs qu’il est désormais interdit d’utiliser tous les outils basés sur l’IA : « L’utilisation de ChatGPT, ou de tout autre outil utilisant l’IA, sans la référence transparente est strictement interdite dans l’espace académique ». New York a interdit l’utilisation de ChatGPT dans les écoles publiques.
Cela met en évidence qu’en l’absence de réflexion et d’esprit critique, l’utilisation de ChatGPT dans l’enseignement et la formation fait courir des risques très importants liés à l’éthique, la probité et le crédit du monde académique et de la formation, aussi bien aux professeurs et formateurs qu’aux étudiants et autres apprenants, aux institutions (établissements scolaires, universités, centres de formation).
Des réponses incorrectes
Nous avons travaillé et « dialogué » pendant plusieurs mois sur ChatGPT à travers des requêtes dans divers domaines (nouvelles technologies, aide à la décision, traduction, contenus, …). S’il est indéniable que pas mal de réponses sont riches, pertinentes et adéquates, nous avons noté aussi pas mal de réponses erronées. Ce constat est aussi présent dans plusieurs témoignages et récits par des professionnels de l’enseignement et de la formation. Car, beaucoup d’utilisateurs « oublient » le fait que ChatGPT est entrainé à partir de milliards de données et contenus soumis par du « scrapping », des bases de données, des contenus (textes, images, …) saisis à la base par …. des humains. L’agent conversationnel n’a pas de capacité de raisonnement et de discernement. Les réponses qu’il donne sont formulées à partir de contenus qui lui ont été soumis. Des contenus de propagande et de fausses nouvelles soumis à ChatGPT seront « régurgités » et proposés aux requêtes qui lui sont adressées.
Afin de ne pas utiliser des informations erronées ou fausses, il est important que les enseignants, les formateurs et les étudiants et apprenants soient vigilants à la lecture des réponses et adopter une démarche critique en recoupant les réponses avec d’autres sources par exemple. Il est tout aussi important de vérifier que ces réponses sont toujours d’actualité car, ne l’oublions pas, la base de connaissance de ChatGPT peut s’avérer obsolète.
Violation de l’éthique et triche
Comme cité ci-dessus, le cas de ce professeur à l’Université de Lyon qui a remarqué de curieuses similitudes dans les copies rendues par la moitié de ses étudiants en Mastère, met en évidence le potentiel de tricherie que ChatGPT peut inspirer. Il est important de sensibiliser et éduquer sur ces risques et conséquences en incitant par exemple, et dans des cas bien précis (devoirs, exposés) les étudiants en question à indiquer que le travail a été fait avec la « contribution » de ChatGPT, et en ayant retravaillé les contenus en question. Ceci est de nature à montrer qu’ils sont vigilants et qu’ils gardent un esprit critique.
Enfin, des outils pour détecter si les textes sont issus de ChatGPT et de tout autre outil similaire ou concurrent émergent sur le marché.
Plagiat
Des contenus soumis à ChatGPT se sont révélés des duplications de contenus existants et protégés. Or l’agent conversationnel ne sait pas (pour le moment) détecter les duplications et plagiats. Des outils sont disponibles pour effectuer cette analyse comme Plagscan ou Outilstice. Il est important que l’utilisateur procède à l’analyse, surtout dans le contexte de travaux lourds ou importants (thèses, articles, …).
Enfin, afin de calmer l’inquiétude des formateurs et de enseignants, OPEN AI a mis en place un filigrane invisible sur les textes rédigés via ChatGPT pour repérer les plagiats.
Pour conclure, l’interdiction ne nous semble pas comme étant une solution adaptée pour protéger l’éthique dans l’espace académique et les diverses formes d’apprentissage (formation initiale, formation continue). Une sensibilisation continue et efficace serait de nature à aider les apprenants à une utilisation adéquate, responsable et transparente de ChatGPT.