Intelligence artificielle : vers une culture à risque

Share:
Selon les données recueillies par COlab, 64 % des 18 à 34 ans s'informent sur les réseaux sociaux. (Photo : Facebook)

Selon les données recueillies par COlab, 64 % des 18 à 34 ans s’informent sur les réseaux sociaux. (Photo : Facebook)

Tous les jours, des milliards de créations générées par l’intelligence artificielle envahissent le Web. Photos, vidéos, chansons : cet outil numérique aux connaissances incommensurables est devenu une tendance mondiale. Cette popularité inquiète les spécialistes qui craignent que la montée fulgurante de l’IA mette en péril l’intégrité culturelle. 

Les possibilités de l’intelligence artificielle (IA) sont exponentielles. En revanche, les informations générées ne sont pas toujours fiables et doivent être prises avec précaution. Cette réalité soulève d’ailleurs certaines préoccupations chez des spécialistes, notamment ceux de COlab innovation sociale et culture numérique, qui constatent l’impact croissant de ces technologies sur les comportements humains. 

Les réseaux sociaux figurent parmi les premiers intermédiaires de l’IA : des images truquées et de fausses vidéos se retrouvent en ligne et compromettent la conscience critique. « Il y a des gens qui n’ont pas une littératie numérique* très développée, parce qu’ils n’ont pas pratiqué ou n’ont jamais eu l’occasion de le faire », explique l’une des médiatrices numériques du COlab situé à Alma, Lisa-Marie Lapointe.

* La littératie numérique est la capacité d’un individu à comprendre et utiliser les ressources technologiques qui l’entourent. 

L’IA n’est pas toujours utilisée avec de bonnes intentions : elle peut parfois servir à des fins malveillantes, comme la création de faux profils ou de faux contenus. Lisa-Marie Lapointe rapporte que les célébrités sont souvent la proie de deepfakes sur les médias sociaux. Ça a été le cas pour le premier ministre de la Saskatchewan Scott Moe et l’ancien Dragon François Lambert, dont l’identité a été utilisée pour générer un faux contenu sur Sora, rendant plus complexe la vérification de l’information. 

« On voit beaucoup de vidéos faites par l’IA sur les réseaux sociaux, on appelle ça la bouillie IA (AI slop). Ce sont des contenus sans valeur, des niaiseries et un peu de n’importe quoi », relance Mme Lapointe. Selon elle, ce phénomène altère la frontière du réel et fatigue l’œil, ce qui peut nuire à la capacité de distinguer le vrai du faux  

Les personnes âgées, en général, ont moins d’aisance et d’intérêt avec les nouvelles technologies. Elles deviennent une cible de choix pour les gens malintentionnés. Les jeunes, quant à eux, s’informent majoritairement sur les réseaux sociaux, ce qui peut nuire à leur confiance envers les médias et les institutions. Ce n’est pas tout le monde qui a les compétences pour détecter ce qui est vrai ou faux. 

Le rôle d'un médiateur numérique est de faire le pont entre les technologies numériques et ses utilisateurs. (Photo : LIsa-Marie Lapointe)

Le rôle d’un médiateur numérique est de faire le pont entre les technologies numériques et ses utilisateurs. (Photo : LIsa-Marie Lapointe)

Éducation et vigilance 

Certains établissements scolaires tentent d’ailleurs de répondre à ces enjeux. L’enseignant en technologies éducatives à l’Université du Québec à Chicoutimi, Patrick Giroux, initie ses étudiants à l’art du prompt*. Cette approche permet de maximiser l’efficacité de leurs recherches. « On ne peut pas se le cacher, l’IA est un outil ultra puissant et, lorsqu’on ne sait pas l’utiliser, on s’expose à des risques », souligne-t-il. 

* Le prompt consiste à décrire la tâche en ajoutant les contraintes, définir le format (liste, tableau, texte, etc.).

L’utilisation excessive de l’intelligence artificielle encourage la paresse cognitive. « Elle entraîne des conséquences négatives sur la motivation, l’engagement et le développement des compétences », explique Patrick Giroux, qui observe une dépendance grandissante chez les étudiants. « On s’en rend compte souvent parce que le niveau de langage change : tu lis un texte, puis soudainement, il y a des adverbes de quinze lettres de long, la ponctuation est parfaite et ça redevient normal quelques lignes plus tard », relance l’enseignant.

Lisa-Marie Lapointe est du même avis, l’éducation demeure la meilleure défense contre les dérives de l’IA. « Il faut développer une utilisation responsable et éthique des réseaux sociaux », confirme celle qui crée du contenu informatif pour sensibiliser les jeunes face à la désinformation numérique.

L’enseignant, Patrick Giroux apprend à ses étudiants à rechercher des informations dans des bases de données scientifiques. (Photo : Facebook)

Jusqu’où vont les frontières de l’irréel ? 

Il existe des indices pour reconnaître les fausses créations générées par l’IA. Selon Lisa-Marie Lapointe, les images créées par l’IA ont souvent des textures trop lisses, des compositions trop parfaites ou des éléments qui ne respectent pas les lois de la physique. « Il faut être alerte à ça. Si on n’est pas attentif, même pour un œil aiguisé, on peut facilement se faire duper », constate-t-elle. 

Selon Patrick Giroux, les risques associés à l’IA vont beaucoup plus loin que la désinformation. « On l’a entraîné avec tout le savoir, ça inclut l’art, la littérature, la musique, c’est-à-dire de toute la culture humaine pour former ça, avec ses bons côtés et ses mauvais », rappelle l’enseignant, qui considère l’outil aussi fascinant que potentiellement dangereux.

L’hypothèse de Lisa-Marie Lapointe est que l’IA pourrait également remplacer les emplois de certaines industries, notamment ceux des arts et communications. « Cette technologie va devenir tellement performante et réaliste qu’elle pourrait éventuellement créer de réelles conséquences économiques pour les gens qui perdent leur travail », prévient Mme Lapointe. Les contenus générés par l’IA sont moins dispendieux que de payer un humain pour le faire, ce qui menace le travail des designers, illustrateurs, photographes et même des comédiens, dont la voix peut être clonée en quelques secondes.  

Elle rappelle également que cette saturation de contenus influence nos habitudes culturelles. « On n’a jamais eu autant de choix, mais paradoxalement, les systèmes de recommandations algorithmiques nous amènent toujours à consommer le même genre de contenu. » 

Selon elle, il faudrait mettre en place des réglementations culturelles pour encadrer l’usage de l’IA dans la création, notamment en matière de droits d’auteur et de propriété intellectuelle. « C’est une zone grise, il n’y a pas de cadre législatif au Canada pour encadrer ça », conclut Lisa-Marie Lapointe. 

 

À lire aussi dans ce dossier :

Share:
Avatar photo