Des devoirs rendus parfaits, mais des regards totalement vides. C’est le constat pour le moins alarmant que dressent aujourd’hui de nombreux professeurs d’université face à la montée en puissance de l’IA générative. Les essais rédigés à la maison reviennent sans la moindre rature, mais lorsque l’on demande aux étudiants d’expliquer leur propre travail, ils en sont souvent bien incapables. Le monde académique s’inquiète légitimement de voir l’effort intellectuel relégué au rang d’option. À ce stade, la véritable question n’est plus de savoir si les élèves trichent pour faire leurs devoirs, mais bien de comprendre ce qu’ils apprennent réellement. Et face à ce bouleversement, les universités réagissent, parfois en blâmant l’outil, parfois en réinventant totalement leurs méthodes d’évaluation.
Le mythe du texte médiocre
Au début du mois, Alexander Kustov, professeur associé en sciences politiques à l’Université de Notre Dame, a jeté un pavé dans la mare sur la plateforme Substack. Son message à ses pairs était franc : il est grand temps de se réveiller. Selon lui, l’IA est déjà capable de produire des recherches publiables en sciences sociales, et l’opposition féroce d’une partie du corps professoral relève davantage d’un réflexe de protection corporatiste que d’une véritable posture de principe. La publication a logiquement enflammé les réseaux sociaux académiques, provoquant une avalanche d’accords enthousiastes et de réactions outrées. À vrai dire, les deux camps ont raté l’essentiel. Kustov a raison sur la disruption imminente qui frappe le monde de la recherche, mais il se concentre uniquement sur la production des professeurs. L’urgence est pourtant ailleurs. Il s’agit de savoir ce que les universités sont encore capables de transmettre à leurs étudiants à l’ère où un essai passable s’écrit en trois secondes.
Posez la question à une salle des profs, la réponse fuse presque instantanément : les travaux « assistés par l’IA » sont médiocres. Ils sont creux, atrocement formatés. Ils cochent certes les cases techniques d’un énoncé, mais hurlent à qui sait lire qu’aucune réflexion véritable n’a eu lieu en amont. Ce consensus s’est peu à peu transformé en un quasi-dogme affirmant que l’IA ne produit que de la « bouillie » et que les universités qui la tolèrent participent activement au déclin de la vie intellectuelle. La frustration des enseignants, noyés sous des piles de textes sans âme, est totalement compréhensible. Sauf que la frustration ne remplace pas l’analyse. Le monde académique confond ici les symptômes et la maladie. En réalité, l’IA ne produit pas un travail médiocre de nature. Ce sont les penseurs médiocres qui produisent un travail médiocre, l’outil leur permettant simplement de le faire plus vite et en plus grande quantité.
Un puissant multiplicateur de force
Voyez plutôt l’intelligence artificielle comme un multiplicateur. Elle améliorera certainement la syntaxe et la vitesse de rédaction d’un étudiant moyen, mais le fond restera structurellement faible car ce dernier est incapable d’identifier l’immense écart entre le texte généré par la machine et un contenu d’excellence. D’ailleurs, lui retirer l’outil ne lui rendrait pas soudainement cet esprit critique qu’il n’avait pas non plus avant l’invention de ChatGPT.
Mettez en revanche ce même outil entre les mains d’un expert — un journaliste chevronné, un avocat expérimenté ou un chercheur senior — et la donne change du tout au tout. L’IA ne rédigera pas un chef-d’œuvre à partir d’une simple phrase ou de manière spontanée. Les experts s’en servent différemment. Ils structurent, dirigent, imposent une architecture intellectuelle et précisent les arguments à ne surtout pas rater. Ensuite, ils éditent et remanient le texte pour le hisser à leur niveau d’exigence, une compétence qui demande des années de pratique. L’article de Kustov en est l’illustration parfaite. Le chercheur a révélé en post-scriptum que son texte avait été généré par une IA à partir de ses propres notes et publications sur les réseaux sociaux. Le résultat était percutant et persuasif justement parce que l’expertise de Kustov, elle, est bien réelle. Un novice avec les mêmes brouillons n’aurait jamais obtenu un tel résultat.
Le face-à-face comme remède
Puisque l’IA amplifie ce qu’on lui apporte, la mission traditionnelle des universités, qui consiste à former des esprits critiques, n’est plus une simple nostalgie éducative. C’est devenue une absolue nécessité. Pour s’assurer que les étudiants développent réellement ces capacités, de nombreux campus ressuscitent une pratique vieille comme Socrate : l’examen oral. Fini les ordinateurs, les chatbots, et même les feuilles de papier. Dans les cours de génie biomédical de Chris Schaffer à l’Université Cornell, les étudiants doivent désormais soutenir leur travail de vive voix devant un instructeur. Comme le résume le professeur, on ne peut tout simplement pas se cacher derrière une IA lors d’un oral.
Ce mouvement de fond prend une ampleur inédite. À l’Université de Pennsylvanie, Emily Hammer, professeure associée en langues et cultures du Moyen-Orient, couple désormais ses essais écrits avec des interrogations orales. Son but premier n’est pas de faire la police ou de traquer la triche. Elle s’inquiète avant tout de voir les étudiants perdre leurs capacités cognitives et leur créativité. Bien qu’elle interdise formellement l’utilisation de l’IA pour l’écriture, elle sait pertinemment que c’est une règle inapplicable. En revanche, elle prévient ses classes : soutenir les yeux dans les yeux un texte qu’on n’a pas écrit soi-même risque de se transformer en un moment extrêmement stressant.
Selon Bruce Lenthall, directeur du centre d’enseignement de cette même université, on assiste à un véritable basculement vers les évaluations en présentiel. Ce changement de cap rappelle les méthodes de certaines universités européennes, comme le célèbre système de tutorat d’Oxbridge en Angleterre, des pratiques traditionnellement très peu répandues dans le premier cycle américain. L’intérêt pour ces méthodes avait déjà frémi pendant la pandémie, notamment sous l’impulsion de professeurs comme Huihui Qi à l’Université de Californie à San Diego, qui étudiait la mise à l’échelle des examens oraux. Mais depuis le lancement de ChatGPT fin 2022, l’engouement a tout simplement explosé.
Combattre le feu par le feu
À l’Université de New York (NYU), le vice-recteur chargé de la technologie dans l’éducation, Clay Shirky, observe une multiplication des présentations orales, des heures de bureau obligatoires et des interrogations surprises en plein cours. Les professeurs ressentent ce besoin fondamental de regarder leurs élèves dans les yeux pour vérifier s’ils maîtrisent vraiment le sujet.
Paradoxalement, certains enseignants n’hésitent pas à utiliser la machine pour tester l’humain. Panos Ipeirotis, professeur à la Stern School of Business de NYU, a mis au point un examen oral propulsé par l’intelligence artificielle pour valider un projet de fin de semestre. Une approche qu’il qualifie lui-même de « combattre le feu par le feu ». Concrètement, les étudiants se connectent depuis chez eux, à l’heure qui leur convient, et sont accueillis à l’écran par le clone vocal d’un professeur d’école de commerce. L’outil, conçu avec l’entreprise ElevenLabs, les interroge sur les détails de leur travail de groupe, rebondit sur leurs réponses et les pousse dans leurs retranchements. Si l’étudiant trébuche, l’agent virtuel lui donne des indices tout en formulant des critiques constructives. Ipeirotis corrige ensuite le tout de son côté, là encore avec l’aide d’une IA. L’objectif est limpide : vérifier si l’étudiant s’est contenté de se laisser porter par son groupe ou s’il a entièrement sous-traité sa réflexion à un algorithme.