Deux étudiants ont été sanctionnés pour avoir utilisé une IA pour rédiger un devoir, rempli d'erreurs et de citations fictives. Le tribunal a confirmé la décision de l'établissement, soulevant des questions cruciales sur l'utilisation de l'IA dans l'éducation et la nécessité d'un encadrement clair.
Un devoir généré par l'IA et truffé d'erreurs
L'intelligence artificielle (IA) s'immisce dans tous les aspects de notre vie, y compris l'éducation. Son utilisation croissante soulève des questions cruciales, notamment sur l'intégrité académique. Un récent jugement vient de confirmer la position des enseignants face à ce nouveau défi, en donnant raison à un établissement scolaire qui avait sanctionné deux étudiants pour avoir utilisé une IA dans le cadre d'un devoir. Cet incident, qui fait écho à un cas similaire survenu quelques semaines auparavant concernant ChatGPT, pose la question des limites de l'utilisation de ces outils dans le contexte scolaire et universitaire.
L'affaire, rapportée par Ars Technica , concerne deux étudiants qui ont eu recours à une IA similaire à ChatGPT, Grammarly, pour rédiger un travail. Au lieu de se servir de l'outil comme support, les étudiants ont copié-collé le texte généré sans le moindre contrôle. Résultat : un devoir truffé d'erreurs factuelles, de citations fictives et de références à des ouvrages inexistants. Bien que le règlement intérieur de l'établissement ne mentionne pas explicitement l'IA, il prohibe l'utilisation non autorisée de technologies pour la réalisation des travaux scolaires. Les enseignants, considérant cette utilisation comme une violation des règles, ont décidé de sanctionner les élèves. L’un d’eux a même été exclu d’un programme préparatoire à l’entrée à l’université.
La justice confirme la sanction
Face à cette décision, les parents des étudiants ont porté plainte, arguant que la sanction était injustifiée et disproportionnée. Leur principal argument reposait sur l'absence de mention explicite de l'IA dans le règlement intérieur. Ils considéraient donc que l’utilisation de Grammarly n’était pas interdite. Le tribunal a cependant rejeté leur demande, confirmant la décision de l’établissement. La justice a estimé que l'utilisation d'un texte généré par une IA sans vérification ni citation appropriée constituait une violation de l'intégrité académique. Les étudiants auraient dû, au minimum, citer la source de l'information, c'est-à-dire l'IA utilisée.
Ce jugement soulève des questions essentielles sur l’encadrement de l’utilisation de l’IA dans l’éducation. Faut-il interdire purement et simplement ces outils ? Ou bien faut-il adapter les méthodes d'enseignement et d'évaluation pour intégrer leur utilisation de manière responsable ? L’établissement en question affirme avoir dispensé aux élèves une formation sur l'utilisation éthique des outils d'IA. Le tribunal a d’ailleurs pris en compte cet élément dans sa décision, soulignant que les étudiants avaient reçu les instructions nécessaires pour utiliser ces technologies de manière appropriée. Le problème ne réside donc pas dans l’outil lui-même, mais dans la manière dont il est utilisé.
Repenser l'apprentissage à l'ère de l'IA
Ce cas met en lumière la nécessité d’une réflexion approfondie sur la place de l’IA dans l’éducation. Il est impératif d'établir des règles claires et précises concernant son utilisation, et de former les élèves et les enseignants à une utilisation responsable de ces technologies. L’objectif n’est pas de rejeter l’IA, mais de l’intégrer intelligemment dans le processus d’apprentissage. L’IA peut être un outil précieux pour la recherche, la rédaction, la correction grammaticale et orthographique, mais elle ne doit pas remplacer la réflexion, l’analyse et la créativité.
L’enjeu est de former des citoyens capables de maîtriser ces technologies, de les utiliser de manière critique et éthique, et de comprendre leurs limites. Il est également essentiel de repenser les méthodes d’évaluation, en privilégiant les compétences de raisonnement, d’analyse et de synthèse, plutôt que la simple restitution de connaissances.
Un précédent et un appel à la discussion
L’incident impliquant ces deux étudiants est un signal d’alarme : il est temps d’adapter le système éducatif à l’ère de l’IA, afin de préparer les élèves aux défis de demain. La sanction, aussi sévère soit-elle, rappelle l'importance de l'intégrité académique et de la responsabilité individuelle face à ces nouvelles technologies. Elle sert également de précédent et invite à une discussion plus large sur l'encadrement de l’IA dans le monde éducatif. L’avenir de l’apprentissage dépend de notre capacité à intégrer ces outils de manière responsable et éthique, en les mettant au service d’une éducation plus riche et plus performante.