Arrivée de ChatGPT : les écoles en mode solution

1138
0
Partagez :


Le monde académique subit des bouleversements majeurs à la suite de la sortie du robot conversationnel ChatGPT. Une intelligence artificielle qui attire bien des étudiants, mais qui pousse les enseignants à réévaluer leurs méthodes d’enseignement et à passer
  en mode solution.  

Le plagiat est un problème contre lequel les systèmes scolaires ont toujours tenté de combattre. Avec ChatGPT, ceux-ci se creusent les méninges pour trouver des solutions contre la triche que peut engendrer cette intelligence artificielle.  « Tout ce que le robot écrit, ça provient de différentes sources qu’on retrouve sur Internet. Malheureusement, Chat GPT ne les cite pas », mentionne le professeur en pratiques pédagogiques à l’Université du Québec à Chicoutimi, Gabriel Dumouchel.

Les étudiants qui utilisent ce que produit le robot pour la remise de travaux scolaires est, en plus d’être considéré comme du plagiat par plusieurs , un indicateur de manque de connaissances. « Ce n’est pas juste une question de tricherie, c’est aussi une question de compétences humaines. Si en tant qu’humain, je laisse à une machine le soin de recracher l’information pour avoir une note, je n’apprends rien. Je ne deviens plus un être humain pensant et critique. Donc, on devient dépendant et moins pertinent dans notre champ professionnel, c’est ça l’énorme danger », lance un professeur en communication à l’Université de Sherbrooke, Dany Baillargeon.

Dans le même sens, le professeur en informatique et président du syndicat des professeurs de l’Université du Québec à Chicoutimi, Gilles Imbeau, indique qu’utiliser une intelligence artificielle pour effectuer un travail est signe que l’étudiant ne veut pas apprendre. « Quand tu veux t’instruire, tu n’as pas d’intérêt à l’utiliser pour faire le travail à ta place », exprime-t-il.

Toutefois, un enseignant en philosophie du Cégep de Jonquière, Vincent Marquis, rappelle que les preuves doivent être tangibles pour accuser un étudiant de tricherie. « Il y a la présomption d’innocence. Il faut que tu sois vraiment certain, que tu aies de bonnes preuves pour démontrer que l’étudiant a utilisé ChatGPT, ce qui est assez difficile à avoir », précise-t-il.

Établir des balises claires sera quelque chose d’important pour Gabriel Dumouchel. « Il faudrait mettre en place des limites qui expliquent ce qui est du plagiat et ce qui n’en est pas quand on utilise ChatGPT. »

 

De nouvelles méthodes d’enseignement 

L’Université de Montréal (UdeM) a, en février dernier, complètement interdit l’utilisation de ChatGPT dans le cadre d’un examen. Selon M. Dumouchel, même si cela peut sembler être la décision la plus logique, proscrire complètement le robot n’est pas une bonne idée. « Si on est trop dans la sanction envers ChatGPT, les élèves, quand ils seront en dehors de l’école, iront quand même utiliser le robot. Il est donc plus judicieux de leur apprendre comment l’utiliser de façon éthique, car de toute manière ils vont se faire prendre un jour ou l’autre », explique-t-il.

Depuis janvier, le département de philosophie du Cégep de Jonquière a changé la manière dont sont complé tées les dissertations écrites par les étudiants. Dorénavant, elles doivent toutes être complétées  en classe pour prévenir les cas de tricherie.  Pour Gabriel Dumouchel, avec ce genre de mesures, les élèves peuvent prouver qu’ils comprennent la matière, ce qui ne serait pas le cas s’ils utilisaient le robot. « Avec ChatGPT, il manque le volet démonstration physique. Il ne fait que te donner une réponse, tu dois faire des recherches approfondies », mentionne-t-il.

D’après le professeur, il faudra que les enseignants ajoutent à leurs cours des activités qui permettent justement cette démonstration physique. « J’aimerais qu’on demande davantage aux élèves de le démontrer à l’oral en leur faisant faire des débats ou des genres d’entrevues. Comme ça on va pouvoir voir si c’est vraiment l’élève qui a écrit le texte et s’il comprend réellement », affirme-t-il.

Pour faciliter la vie des professeurs, la firme montréalaise Draft & Goal a mis en ligne au mois de janvier dernier un outil gratuit qui permet de savoir si un texte a été rédigé par une intelligence artificielle. Certains professeurs pourraient être tentés de l’utiliser pour ainsi découvrir si leurs étudiants se sont servis de logiciels comme ChatGPT dans la réalisation de leurs travaux.

 

Un outil à exploiter ? 

Même si plusieurs critiquent fortement les intelligences artificielles dans les milieux scolaires, d’autres ont un avis contraire. « Si on ne laisse pas la place à ChatGPT en éducation, il va rentrer par la petite porte d’en arrière, sans qu’on puisse se mettre un cadre critique avec ses limites. Aussi bien l’utiliser d’une manière critique et intelligente que de faire comme s’il n’existait pas », insiste Dany Baillargeon.

Plutôt que de proscrire complètement leur utilisation, il serait peut-être intéressant de trouver une façon de les utiliser comme outil de travail, c’est ce que du moins pense Gabriel Dumouchel. « Dans notre société très moderne, il est important de s’adapter en tant qu’humain. Aller plus loin que crier l’injustice, il faut accepter de s’adapter avec des balises claires. On doit prendre du recul et s’entraider », exprime-t-il.

Pour Dany Baillargeon, l’humain doit apprendre à vivre avec les robots conversationnels, mais avec une éducation critique de la chose. « L’intelligence artificielle peut servir comme point de départ, mais il faut rapidement trianguler l’information en ayant un regard critique avec d’autres sources. Il est possible que le robot énonce des informations fausses, en reproduisant la demande générale », explique-t-il.

Partagez :
Avatar photo