Comme les autres technologies, l’intelligence artificielle (IA) n’est pas une variable isolée. Elle est utilisée par des humains, qui peuvent l’employer de manière appropriée et responsable, ou non. Les réactions à l’IA générative appliquée à l’éducation, à l’écriture, et à toutes les formes de communication sont selon toute vraisemblance largement exagérées.
De mon point de vue (Graff), en tant que chercheur en histoire sociale et culturelle de la littéracie, ces réactions suivent le même schéma (sous une forme exacerbée, les réseaux sociaux modernes aidant) que les réponses à toutes les grandes transformations des technologies de la communication.
On pourrait faire remonter les exemples aux peintures rupestres, suivies de l’invention de tel et tel alphabet, des différents systèmes d’écriture qui les ont employés, de l’impression xylographique puis à caractères mobiles (Gutenberg).
Plus près de nous, le débat fait écho aux réactions à l’invention des machines à écrire, manuelles puis électriques, suivies des générations successives d’ordinateurs. Les réactions soit purement positives, soit purement négatives, ont formé l’essentiel des réponses au télégraphe, à la radio, et à la télévision ; les réponses nuancées ou équilibrées (osons dire dialectiques) ont été bien plus rares.
Chaque invention est vue soit comme une promesse de salut, soit comme un prélude à la fin de la civilisation telle qu’on la connait. L’analyse du contexte historique, social, culturel, économique et politique, l’interprétation équilibrée et la comparaison nuancée sont rarement saillantes.
Les commentateur·rices contemporains prennent rarement le temps de définir précisément ce qu’ils entendent quand ils parlent d’IA, ou même d’IA générative ; il y en a pourtant de nombreuses sortes, et de nombreux usages. Et ils détaillent encore moins souvent quels sont les usages spécifiques qu’ils louent, ou bien ceux qu’ils craignent et condamnent.
Les usager·es humain·es
Comment le débat a-t-il pu à ce point passer à côté de l’essentiel ? Parmi les variables qui manquent au débat, il y a les usager·es, jeunes ou plus âgé·es, et la manière dont on leur a (ou non) présenté ces technologies, et dont iels ont (ou non) appris à les utiliser.
Prenons par exemple l’article « L’IA met en danger le cœur même de l’enseignement supérieur » de Zahid Naz 1. Il devrait sembler évident qu’il n’y a pas un unique « cœur de l’enseignement supérieur ».
Il en est de même de l’article « Aucun·e étudiant·e ne devrait obtenir son diplôme sans avoir reçu de cours sur l’IA, disent des responsables » de Juliette Rowsell 2. L’autrice ne précise pas de quel programme elle parle, ni de quels usages. Or l’IA n’est pas reçue et utilisée de la même manière selon les disciplines – un aspect qui passe souvent à la trappe.
Les auteur·rices se succèdent ainsi pour donner leur avis : « L’IA améliore-t-elle l’éducation ou la remplace-t-elle ? » 3. Un autre écrit, sur des bases encore plus creuses, interroge : « L’IA pourrait détruire l’université telle que nous la connaissons : la menace existentielle de la nouvelle vague des technologies éducatives »4. « L’université telle que nous la connaissons » n’est pas définie ; la relation entre « nouvelle vague » et « menace existentielle » n’est pas expliquée. Or, la question devrait toujours être : comment l’IA est-elle utilisée ? quels programmes ? à quelles fins ? Car non, l’IA, en elle-même, ne peut pas « remplacer l’éducation ».
Bien sûr, il y a l’exemple de l’éphémère secrétaire à l’Éducation de Donald Trump, Linda McMahon (par ailleurs ancienne patronne de la World Wide Wrestling, fédération mondiale de catch), qui a du mal à faire la différence entre l’IA et la sauce pour steak A1 5… autant dire que les « parties prenantes »6 sont largement hors-jeu.
Craintes, espoirs et dangers
Comme toutes les technologies majeures, l’IA peut bien entendu être dangereuse selon ses utilisations et ses utilisateurs. Dans « Comment la guerre à Gaza a stimulé les expériences d’IA en Israël » 7, Sheera Frenkel et Natan Odenheimer détaillent les risques et les conséquences parfois fatales d’initiatives prématurées, défaillantes et inappropriées.
La publicité faite autour de chaque nouvelle invention alimente un nouveau « mythe » fait de craintes et d’espoirs. Par exemple, en 1979, j’ai inventé le terme « literacy myth », pour désigner l’importance exagérée accordée à l’acquisition individuelle de la lecture ou de l’écriture, considérées indépendamment de l’environnement extérieur.
Non seulement ce mythe conduit à des hypothèses irréalistes sur ce qu’être alphabétisé·e veut dire, mais il amène aussi à dénigrer injustement celleux qui ont des capacités moindres ou différentes pour lire, écrire et compter. Ces représentations ont contribué, pendant des siècles, aux inégalités et aux restrictions d’opportunités 8.
Nous avons maintenant le « mythe de l’IA ». Un mythe, bien sûr, n’est ni une fiction ni un mensonge : c’est une vérité partielle. Pour se répandre et être accepté, au moins par quelques-un·es, un mythe ne peut pas être entièrement faux.
On oublie souvent qu’avant le lancement de ChatGPT, en 2022, les lycéen·nes, les étudiant·es, les enseignant·es et les chercheur·es utilisaient déjà tous les éléments que le chatbot semble avoir soudainement collectés, assemblés et mis en forme. Des outils d’édition, de résumé, de structuration et même d’analyse étaient déjà disponibles depuis des années. Quand j’étais au lycée (Graff), mes ami·es apprenaient à utiliser différentes applications et les ont utilisées, de manière intelligente et efficace, tout au long de leurs études secondaires et universitaires. Cette génération disposait des CliffsNotes 9 et des encyclopédies imprimées. Le World Book et parfois l’Encyclopedia Britannica étaient omniprésents dans les foyers de la classe moyenne.
Avant ChatGPT, les étudiant·es et certain·es de leurs professeur·es utilisaient des applications et des programmes pour rechercher, trier, organiser et structurer leurs travaux. Mais ils ne rendaient presque jamais de travaux finaux issus de programmes d’IA distincts. Ils « trichaient » ou plagiaient rarement dans leur utilisation de l’IA.
En fait, beaucoup d’entre elleux n’ont pas été impressionné·es par le lancement très médiatisé de ChatGPT. Ils en ont ri, tout comme ils ont ri de l’admiration soudaine et souvent mal informée des autres, et des craintes exagérées de certain·es professeur·es quant à la fin de l’honnêteté académique et l’illettrisme de masse qui allait inévitablement suivre.
Pour leur défense, il faut dire que le tapage médiatique incessant autour de ces technologies – alimenté par les entreprises de technologie éducative, les spécialistes du marketing et les journalistes voulant faire fortune dans cette nouvelle ruée vers l’or – ne pouvait que faire des ravages. Les réactions des institutions, des professionnel·les et du public sont de plus en plus ignorantes et vont souvent à l’encontre des intérêts des étudiant·es, de leurs propres départements et de leurs universités.
Prenons cet article tiré de Inside Higher Ed : « Supprimer le cours de rédaction obligatoire en première année : les étudiant·es n’ont plus besoin d’un cours de rédaction obligatoire en première année si l’IA peut écrire à leur place » par Melissa Nicolas, professeure d’anglais à l’université de l’État de Washington10.
Elle y suggère que l’IA générative « résoudra les principaux problèmes d’écriture des étudiant·es », vraisemblablement en leur permettant de produire des textes clairs, révisés, dans un anglais américain standard, qui ne fera pas sourciller leurs professeur·es d’ingénierie et de comptabilité, et ce dans tous les domaines.
Mais les cours de composition de première année ne se limitent pas à enseigner ces compétences. Comme le concède Nicolas, il s’agit de cours intensifs sur la pensée critique, le raisonnement analytique et le discours académique. Pour de nombreux étudiant·es, ce sont les seuls cours qui leur offrent la possibilité d’interroger de manière critique les messages des autorités étatiques, corporatives, culturelles et religieuses qui les bombardent tout au long de leur vie.
Apprendre à penser et à écrire
Supprimer les cours de composition de première année n’est pas le remède à un monde qui est probablement submergé par plus de conneries que jamais depuis l’explosion de ChatGPT. (Et je ne parle pas de l’impact que la suppression des cours de composition aurait sur la fréquentation et les budgets du département de la professeure Nicolas elle-même.)
Prenons maintenant cet article-ci : « Ce qu’il faut prendre en considération avant que tous ceux qui sont pour ne disent “IA” : les étudiant·s diplômé·es et les post-doctorant·es ne devraient pas utiliser ChatGPT pour rédiger leurs premières ébauches, selon Jovana Milosavljevic Ardeljan, car cela les prive d’une opportunité importante » 11. Ardeljan est directrice du développement professionnel et communautaire à l’université du New Hampshire. Elle exhorte les étudiant·es qui rédigent des articles de recherche, des CV et des lettres de motivation à ne pas utiliser l’IA générative dans leur processus de rédaction, au motif que cela pourrait les priver de « l’opportunité de passer par le processus créatif d’écriture et de production d’un texte authentique et rédigé avec [leurs] propres mots ». L’IA, écrit Ardeljan, est « un problème triple A » : elle soulève la question de « la paternité d’une œuvre, de son authenticité et de son audience » [authorship, authenticity, audience].
Un tel conseil général occulte le fait que la rédaction n’est pas un processus unique ou simple. Elle n’est pas identique pour tous les écrivain·es. Il s’agit d’un système de processus interconnectés impliquant de multiples tâches d’organisation, de planification, de conceptualisation et de révision (toutes choses qu’on enseigne habituellement en première année de composition).
Décourager l’utilisation de l’IA générative pour de telles tâches est précipité, et risquerait de pénaliser de nombreux étudiant·es, notamment celleux qui souffrent de certains types de handicaps cognitifs, sensoriels et moteurs. Cela les détourne également d’un autre apprentissage, celui de la relecture et de la révision.
Ardeljan craint sans doute que les étudiant·es étouffent leur réflexion en utilisant trop tôt, et trop souvent, l’IA générative dans le processus de rédaction. Mais les étudiant·es de licence et de master bien informé·es utilisent déjà l’IA générative à des fins diverses. Si nous voulons vraiment comprendre les utilisations et les abus de ces technologies, nous devrions d’abord discuter avec elleux. Comme d’habitude, il n’y a jamais qu’une seule façon de voir les choses.
Un marketing séduisant
Alors que les pontifes de l’IA continuent de simplifier à l’extrême, d’autres glissent vers le slogan. Ray Schroeder fait une confusion hélas trop courante entre « plus de fonctionnalités » et « l’IA devient plus intelligente » 12, sans s’interroger sur leurs utilisations et leurs abus.
Il s’agit là d’un marketing aveugle, qui accompagne généralement toutes les innovations technologiques en matière de communication. Il commence par citer Sam Altman, PDG d’OpenAI et propriétaire de ChatGPT, une source qu’on peut difficilement qualifier d’objective.
En réponse aux trois A d’Ardeljan, Schroeder prétend évaluer les améliorations de l’IA générative en utilisant les « quatre C du progrès holistique des étudiant·es » : « Esprit critique [Critical thinking] : encourager la prise de décision analytique et réfléchie ; Communication : développer des compétences interpersonnelles et expressives efficaces ; Collaboration : favoriser le travail d’équipe, l’empathie et la coopération ; Créativité : cultiver l’innovation et les capacités de résolution de problèmes ».
Là où le marketing se transforme en slogan, c’est quand nous devons croire sur parole que ChatGPT s’améliore réellement dans tous ces domaines. Schroeder ne démontre à aucun moment les progrès de l’IA sur le plan de la collaboration, en particulier, si ce n’est pour souligner une fonctionnalité étendue de GPT-4 qui permet aux utilisateur·rices d’avoir des conversations avec plusieurs GPT à la fois.
Il s’agit sans doute d’un pas vers la collaboration. Mais quelle collaboration, entre qui et qui ?
Comme l’illustre le cas de Schroeder, une grande partie du discours sur l’IA, ChatGPT, l’IA générative ou GenAI relève du marketing. C’est l’une des nombreuses raisons pour lesquelles les définitions de base du plagiat et de la tricherie, de la rédaction et de la révision, du style général et personnel sont absentes. Ce qui a pour conséquence que l’IA générative est toujours présentée comme un facteur favorisant, ou au contraire compromettant, l’alphabétisation de masse [mass literacy], sans jamais être évaluée sur sa capacité à accomplir ou non des tâches d’écriture spécifiques dans des situations particulières.
Il n’est donc pas étonnant que les professionnel·les de l’enseignement supérieur se précipitent pour faire des déclarations comme celle de Schroeder : « Les établissements qui sont prêts à tirer pleinement parti des capacités étendues [de l’IA] prendront une longueur d’avance sur leurs concurrents en termes d’efficacité, d’efficience et de résultats des étudiant·es, en particulier dans la préparation au monde du travail, où les compétences en IA sont de plus en plus valorisées ».
D’ailleurs, pourquoi les enseignant·es devraient-ils et elles s’embêter à utiliser des logiciels de détection de l’IA, se demande-t-il, si « l’on part du principe que l’intégration du produit de ces outils dans le travail quotidien sera tenue pour acquise » ?
Ou bien, tout le contraire ?
Au-delà du battage médiatique
La réalité sur le terrain, bien sûr, est que les professeur·ses d’anglais et de lettres ont désespérément besoin de meilleurs outils de détection, car leurs étudiant·es, mais aussi leurs pair·es, utilisent de plus en plus l’IA générative de manière hasardeuse, mal informée et contraire à l’éthique. Les enseignant·es qui s’inquiètent du plagiat se heurtent souvent à l’exaspération des administrateur·rices débordé·es, qui ont désormais pour excuse que « les outils de détection de l’IA sont imprécis et potentiellement problématiques, alors pourquoi y faire appel ? ».
Autant dire qu’il est urgent d’organiser des ateliers et des séminaires pour enseigner la maîtrise critique de l’IA aux enseignant·es et aux administrateur·rices à tous les niveaux.
Les enseignant·es, qui sont généralement sous-payé·es et surchargé·es de travail, ont besoin de temps, d’espace et de soutien pour discuter avec des expert·es, des étudiant·es et entre elleux, pour expérimenter des outils, pour apprendre comment fonctionnent les grands modèles de langage et les chatbots et ce qu’ils font réellement ; et surtout, pour ralentir, planifier et réfléchir à la meilleure façon d’intégrer – ou non – les technologies d’IA générative dans leurs salles de classe.
Tant que nous n’aurons pas appris à considérer les grands modèles de langage et les chatbots différemment, c’est-à-dire comme des entités distinctes et non comme des reflets fidèles ou déformés de nous-mêmes, nous ne parviendrons pas à comprendre véritablement leurs possibilités et leurs limites, leurs utilisations et leurs abus.
Comme l’a suggéré Noam Chomsky dans une interview avec Craig Smith, journaliste spécialisé dans les technologies, pour le podcast Eye on A.I., comparer l’apprentissage du langage par les ordinateurs à celui par les humains revient à utiliser un avion pour expliquer comment les oiseaux volent 13
Comprenons la pleine nature de ce que nous avons construit, et mettons de côté les discours prématurés qui parlent de révolution technologique – qu’ils la louent ou qu’ils la déplorent. n
Le 29 juin 2025
- 1
« AI risks undermining the heart of higher education », Times Higher Education, 21 avril 2025.
- 2
« No student should graduate without being taught AI, leaders told », Times Higher Education, 3 avril 2025.
- 3
« Is AI Enhancing Education or Replacing It ? », Clay Shirky, Chronicle of Higher Education, 29 avril 2025.
- 4
« AI May Ruin the University as We Know It: The existential threat of the new wave of ed-tech », Chronicle of Higher Education, 30 octobre 2024.
- 5
Artificial Intelligence s’abrège AI en anglais. Dans un discours du 8 avril 2025, Linda Mac Mahon a confondu ce sigle avec la marque A1. [ndt]
- 6
En anglais stakeholder. La phrase originale comprend un jeu de mot avec steak, qui n’a pas pu être traduit. [ndt]
- 7
« How the War in Gaza Drove Israel’s A.I. Experiments », New York Times, 25 avril 2025.
- 8
Voir The Literacy Myth, 4e édition, WAC Clearinghouse Press, 2023.
- 9
CliffsNotes est une série de guides pour étudiant·es, en anglais, qui résument et analysent des œuvres littéraires. Avant l’arrivée de ChatGPT, les CliffsNotes étaient bien connus, en Amérique du Nord, pour être abondamment utilisés par les élèves et étudiant·es pour éviter de lire la littérature obligatoire. [ndt]
- 10
« Eliminate the Required First-Year Writing Course: Students no longer need a required first-year writing course if AI can write for them », Inside Higher Ed, 14 novembre 2023.
- 11
« Things to Consider Before All in Favor Say “AI” : Graduate students and postdocs shouldn’t use ChatGPT to help write first drafts, say Jovana Milosavljevic Ardeljan, as it robs them of an important opportunity. » Inside Higher Ed, 26 février 2024.
- 12
« AI is Getting Smarter », Inside Higher Ed, 28 février 2024.
- 13
« Episode #126 : Noam Chomsky: Decoding the Human Mind & Neural Nets », Eye on A.I., 6 juin 2023.