Accéder au contenu principal
Reportage

Au Québec, un observatoire sur l'intelligence artificielle pour en comprendre les travers

Avec la mise à disposition du public de ChatGPT, les citoyens du monde entier commencent seulement à entrevoir le potentiel vertigineux de l'intelligence artificielle (IA). Depuis 2018, l'Observatoire international sur les impacts sociétaux de l'IA et du numérique basé au Québec réunit des chercheurs pour évaluer les risques et les avantages de la technologie.

Faut-il avoir peur de l'intelligence artificielle ?
Faut-il avoir peur de l'intelligence artificielle ? Getty Images/iStockphoto - ipopba
Publicité

De notre correspondant à Montréal,

« S'il te plaît… dessine-moi un mouton ! » Si Antoine de Saint-Exupéry avait vécu à notre époque, il n'aurait pas eu de mal à accéder à la requête du petit prince, plutôt que de finir par dessiner un mouton dans une boîte. Un tour sur l'un des nombreux sites de génération d'images, une requête « dessin de mouton », et le tour serait joué. Mais derrière le gentil mouton et son potentiel d'émerveillement se cache une IA dont les risques - nombreux - méritent d'être connus et maîtrisés.

Exclusion des personnes précaires, biais racistes, opacité des algorithmes, législation passive, et multiples enjeux éthiques… Pour tenter de comprendre, d'alerter et de proposer des pistes de résolution aux risques de l'IA, la province canadienne du Québec a lancé il y a cinq ans l'Observatoire international sur les impacts sociétaux de l'IA et du numérique, l'OBVIA.

Ruptures et similitudes

Basé dans l'université Laval de Québec et financé par les fonds de recherche du Québec, l'OBVIA rassemble des chercheurs du monde entier autour de différents axes de recherche. Céline Castets-Renard, par exemple, est professeure à la faculté de droit civil de l'université d'Ottawa et titulaire d'une chaire de recherche sur l'IA responsable à l'échelle mondiale. Au sein de l'observatoire, elle est coresponsable de l'axe sur les relations internationales, actions humanitaires et les droits humains.

La professeure a passé des années à travailler sur le numérique, a vu l'explosion d'internet et la naissance de l'intelligence artificielle, et pour elle, il y avait urgence à étudier les enjeux liés à l'IA, qui dépassent de loin ceux d'internet : « L'IA est susceptible d'être utilisée dans tous les pans de la vie sociale, alors que l'on peut tout à fait décider de ne pas être sur internet. Internet est un outil, on l'utilise, ou pas. L'IA va être appliquée à nous, qu'on le veuille ou pas, qu'on l'accepte ou pas, qu'on en soit conscient ou pas. » Par exemple, le déploiement d'algorithmes intelligents au sein des administrations va toucher tous les citoyens et certains biais, racistes notamment, pourraient remettre en question le principe d'égalité.

Une partie des enjeux liés à l'intelligence artificielle trouve encore ses sources dans ceux d'internet, nuance toutefois la chercheuse. « L'enjeu principal d'internet aujourd'hui, c'est la concentration du pouvoir économique de certains acteurs, or ce sont les mêmes que l'on retrouve en IA, avec Microsoft en premier lieu et puis évidemment, Google, Meta… parce que la technologie nécessite des moyens, des puissances de calcul et des données que ces entreprises ont depuis plus de 20 ans », rappelle Céline Castets-Renard.

Croiser les disciplines

Pour sa directrice Lyse Langlois, éthicienne de formation, la force de l'OBVIA, c'est son interdisciplinarité. Car l'IA touchant tous les pans de la société, il fallait pouvoir faire discuter des disciplines très variées, de la sociologie au droit en passant par les ressources humaines ou encore la médecine. « Au début, c'était un défi de réussir à convaincre les chercheurs de disciplines différentes, d'universités différentes, d'étudier ensemble. Cela ne va pas encore toujours de soi, mais je sens de moins en moins de résistance », assure la chercheure.

En cinq années d'existence, l'observatoire a réussi à réunir plus de 260 chercheurs, sans compter les intervenants ponctuels. Il a également pris le temps de développer des partenariats avec de nombreuses universités, notamment en France avec l'ENS de Paris, par exemple. « On a mis en place une chaire sur la justice sociale et l'IA, on invite un professeur pendant un an, et il a de l'argent pour pousser ses recherches sur cette thématique-là, que nous jugions prioritaire », avance Lyse Langlois. Les trois professeures qui se sont relayées ont étudié respectivement l'impact de l'IA sur les populations marginalisées, l'enjeu du partage des données et la promotion de meilleures pratiques dans l'innovation.

Prendre le temps de l'intelligence

En plus de l'édition régulière de rapports, d'études, ou la mise en place de conférences, de colloques, l'OBVIA a aussi des impacts directs sur des politiques publiques. Pendant la crise du Coronavirus, par exemple, Lyse Langlois a lancé un comité pour aiguiller le gouvernement : « Il y avait toute la question de mettre en place des applications de notification de contact avec une personne contagieuse, de savoir si c'était nécessaire. De notre côté, les études montraient que ce n'était pas nécessaire ». Résultat : le gouvernement du Québec a abandonné l'idée.

Ces impacts paraissent toutefois encore faibles par rapport à l'immensité de la tâche. Et certains acteurs n'aident pas. Pour Céline Castets-Renard, il y a une réticence de la part des géants de la tech à avancer réellement sur les enjeux éthiques liés à l'IA. « Les géants de l'IA n'ont pas du tout la politique de la chaise vide. Meta, par exemple, envoie des gens très cordiaux autour de la table des négociations. Mais derrière, ils nous disent ce qu'on a envie d'entendre et puis on n'en sait pas plus en bout de ligne », regrette la juriste, rappelant qu'il aura fallu quatre années à l'autorité de la concurrence de la Commission européenne pour pouvoir accéder aux algorithmes de Google.

Légiférer prend donc du temps, et ce temps pourrait être mis à profit pour sonder les individus. Pourtant, les citoyens sont encore trop peu impliqués dans le débat, sous prétexte que la question serait trop complexe. « L'IA s'applique dans tous les pans de la vie sociale, et a un impact souvent bien plus négatif à l'égard des personnes vulnérables. Donc, justement, il faut que qu'il y ait ce débat démocratique », demande Céline Castets-Renard. Pour l'heure, l'OBVIA renouvelle actuellement son financement pour cinq années supplémentaires, afin de continuer à analyser, alerter et coordonner les efforts de recherche des chercheurs partout dans le monde. « Dans les prochaines années, ce sont vraiment les enjeux liés à la santé, à l'éthique et au travail que nous comptons creuser », conclut Lyse Langlois.

NewsletterRecevez toute l'actualité internationale directement dans votre boite mail

Suivez toute l'actualité internationale en téléchargeant l'application RFI

Partager :
Page non trouvée

Le contenu auquel vous tentez d'accéder n'existe pas ou n'est plus disponible.