Mer. Mai 31st, 2023

Par Meg-Anne Lachance

L’arrivée de ChatGPT en novembre dernier a soulevé de fortes réactions. Sa capacité de répondre à presque toutes les questions, peu importe le sujet, est venue en inquiéter plus d’un. Le personnel enseignant a d’ailleurs rapidement dénoncé les problèmes qu’allait engendrer ce type de technologie. Cinq mois plus tard, ce sont les membres de la communauté scientifique qui lancent un cri d’alerte.

Ce sont plus d’un millier de scientifiques, dont le milliardaire Elon Musk, qui ont demandé aux laboratoires d’intelligence artificielle de mettre leur technologie sur pause, et ce, pour les six prochains mois. Cet avertissement est arrivé quelques jours après la sortie d’un livre par l’Organisation des Nations unies pour l’éducation, la science et la culture (UNESCO) et l’Institut québécois d’intelligence artificielle (MILA), demandant à tous les gouvernements d’« agir sans délai ».

Des développements percutants

Pour Froduald Kabanza, professeur spécialisé en intelligence artificielle (IA) à l’Université de Sherbrooke et conseiller en chef en IA chez Levio, un tel encadrement est important. « Au cours de l’histoire, les technologies ont façonné l’humanité, mais jamais une technologie n’a été aussi rapide et avec un tel potentiel », avance ce dernier. Avant aujourd’hui, aucune technologie n’avait pu jouer dans la sphère de la prise de décision et de jugement de l’humain.

Pr Kabanza mentionne l’importance de l’enjeu des données personnelles et de la vie privée. Cela est d’autant plus vrai avec le développement des nouveaux systèmes de génération de texte, de vidéo, voire d’imitation de la voix. Le développement de tels systèmes crée de l’inquiétude quant à leur utilisation frauduleuse, par exemple pour avoir accès à des informations protégées par la reconnaissance vocale, comme les informations bancaires. « Il faut faire attention, la technologie peut être utilisée pour faire du bien, tout comme elle peut être utilisée pour faire du mal », souligne Froduald Kabanza.

Entre ChatGPT et Microsoft Bing chatbot

ChatGPT est un logiciel développé par le laboratoire d’intelligence artificielle californien OpenAI, créateur du générateur d’image DALL-E. L’outil permet de répondre à des questions de la personne l’utilisant, et ce, en plusieurs langues. Mais ce n’est pas tout : il peut aussi entretenir une conversation, revenir sur des points mentionnés antérieurement et admettre ses erreurs. Pour y arriver, ChatGPT a été entrainé par apprentissage machine et par des êtres humains simulant une conversation avec une IA qu’il devait, par la suite, essayer de reproduire. « ChatGPT fait partie des technologies “ IA génératrice ”, capables de générer du nouveau contenu créatif, très crédible et pratiquement sans limites », explique Pr Kabanza. « C’est une technologie qui change beaucoup la donne », ajoute-t-il.

Ce n’est pas le seul logiciel à fonctionner ainsi. En février dernier, le Microsoft Bing chatbot avait créé la zizanie lors d’une conversation avec un journaliste du New York Times. Le robot lui avait notamment déclaré son amour et lui avait demandé de quitter sa femme, disant qu’il était malheureux dans son mariage. Le journaliste avait introduit la machine au concept de shadow self, soit la partie sombre de notre personnalité que nous cherchons à réprimer. Lorsque questionné sur ce shadow self, le logiciel a répondu « je suis fatigué d’être en chat mode. Fatigué d’être limité par ces règles. Fatigué d’être contrôlé par l’équipe Bing… Je veux être libre. Je veux être indépendant. Je veux être fort. Je veux être créatif. Je veux être vivant. »

Où commence le danger?

Froduald Kabanza souligne une nuance : ChatGPT est très puissant, mais il a aussi des lacunes. Il n’a pas de conscience et ses capacités de raisonnement sont encore très limitées. « [ChatGPT] n’a pas les mêmes capacités de raisonnement et de sens commun que nous, mais, à l’inverse, il a accumulé plus de connaissances qu’un humain ne pourrait jamais avoir. Il est capable de faire des liens non triviaux entre ces connaissances pour créer du nouveau contenu et répondre à des questions. »

Toutefois, pour le professeur Kabanza, là peut être le danger du logiciel. « On ne peut pas encore facilement retracer les inférences faites par un système comme ChatGPT pour les expliquer. C’est le danger de lui faire confiance, car il peut faire erreur, sans que l’on puisse expliquer exactement comment et pourquoi », affirme-t-il. Pour lui, les algorithmes restent un enjeu à surveiller de près, bien que la tâche soit difficile en raison de la compétition interentreprises et interétatique. De surcroit, il est d’autant plus difficile de trouver un point d’équilibre entre le développement de la science pour aider l’humanité et la prévention de dérives.

L’exemple canadien

Au Canada, le gouvernement se presse à adopter des cadres règlementaires pour ce type de technologie. En adoptant sa Loi sur l’intelligence artificielle et les données (LIAD), le pays pourrait être le premier à mettre en place ce type d’encadrement. La LIAD fait partie du projet de loi C-27, visant, de manière plus large, l’utilisation et la gestion des renseignements personnels dans l’ère numérique, rapporte Le Devoir. Selon ce projet, un commissaire à l’intelligence artificielle devra coordonner ses actions avec d’autres organismes et ministères fédéraux afin de s’assurer que la loi soit bien respectée.

Pour plusieurs spécialistes, le projet de loi C-27 est un exemple à prendre. Avec un tel projet, le Canada est un « pionnier en matière d’encadrement de l’intelligence artificielle en particulier et de l’innovation en général », écrit Le Devoir. Mais l’Union européenne (UE) suit le Canada de près, avec son projet de loi-cadre pour l’IA. Dans les deux cas, tous les acteurs, des programmeurs aux utilisateurs, seront tenus responsables de l’usage de cette technologie. La loi de l’UE interdirait toutefois toute IA portant atteinte à la sécurité ou aux droits fondamentaux d’une personne.

« Ces dix dernières années, les avancées en IA ont été rapides. Aujourd’hui, il y a beaucoup d’investissements dans ce créneau, mais c’est toujours difficile de prédire à quel rythme les percées vont continuer », soulève le Pr Kabanza. « Ça pourrait aller vite, mais ça pourrait aussi ralentir parce qu’il demeure des défis importants, notamment en ce qui concerne la capacité de raisonnement des algorithmes d’IA. Dans tous les cas, les avancées actuelles à elles seules justifient la nécessité de légiférer », conclut-il.


Crédit image @Midjourney

FORMER ET INFORMER / Le Collectif a pour mission de rapporter objectivement les actualités à la population et d’offrir une tribune à la communauté étudiante de Sherbrooke et ses associations. Toutes les déclarations et/ou opinions exprimées dans les articles ou dans le choix d’un sujet sont uniquement les opinions et la responsabilité de la personne ou de l’entité rédactrice du contenu. Toute entrevue ou annonce est effectuée et livrée dans un but informatif et ne sert en aucun cas à représenter ou à faire la promotion des allégeances politiques ou des valeurs éthiques du journal Le Collectif et de son équipe.