Photo: © Commission des droits de la personne et des droits de la jeunesse
Les « Tête-à-tête » de l’Observatoire des droits de la personne sont des entretiens avec des personnes travaillant de près ou de loin dans le domaine des droits humains. Des questions-réponses qui nous apportent des données précieuses dans le monde académique francophone canadien avec un regard sur les enjeux liés aux droits de la personne à travers le monde !
Pour cet épisode, nous accueillons la professeure Catherine Régis, juriste et titulaire de la Chaire sur la diplomatie scientifique et la gouvernance mondiale de l’IA. Elle enseigne à la Faculté de droit de l’Université de Montréal et dirige le Centre de droit, politique et éthique de la santé. Dans cet entretien, la professeure Régis explore les enjeux cruciaux de l’intelligence artificielle en matière de droits humains, proposant une réflexion approfondie sur la manière dont cette technologie transforme notre rapport aux droits fondamentaux. Elle aborde la nécessité d’une gouvernance mondiale responsable, le rôle essentiel de la diplomatie scientifique et l’importance de concilier innovation technologique et protection des droits de la personne. Au fil de la discussion, elle souligne comment les droits humains doivent demeurer le fil conducteur de toute réglementation et développement de l’IA. Elle explique comment la science peut servir de langage commun pour naviguer les tensions géopolitiques actuelles, tout en insistant sur l’importance de former les développeurs aux droits de la personne et de créer des espaces d’interaction fertiles entre les communautés techniques et celles spécialisées en droits humains. La professeure Régis nous rappelle également que la fausse dichotomie entre innovation et réglementation doit être dépassée, et que des outils préventifs comme les analyses d’impact sur les droits de la personne sont essentiels avant le déploiement de tout algorithme. Elle partage ses préoccupations face à la montée des autocraties et à l’utilisation de l’IA dans les processus démocratiques, tout en soulignant les opportunités que cette technologie offre pour l’accès aux soins de santé, à l’éducation et à l’information dans les régions les plus vulnérables du monde.
Entrevue réalisée par Amel Hamzi, étudiante à la maîtrise en Études internationales à l’Université de Montréal.
L’intelligence artificielle et les droits fondamentaux
L’intelligence artificielle soulève de nombreuses questions sur la protection des droits humains. Selon vous, quels sont les principaux risques pour les droits fondamentaux associés à l’IA et comment peut-on les minimiser ?
Les risques touchent pratiquement l’ensemble des droits de la personne. Bien que certains enjeux soient plus régulièrement mis de l’avant, comme les atteintes à la vie privée, la portée des menaces est bien plus vaste. La collecte massive de données et le développement d’algorithmes permettent certes de proposer des solutions personnalisées, mais ils augmentent considérablement les risques d’identification des individus, même lorsque ce n’était pas l’objectif initial.
La discrimination algorithmique constitue un autre enjeu majeur. Les biais dans les algorithmes proviennent de deux sources principales : d’une part, les données utilisées ne sont souvent pas représentatives de certains groupes de la population – qu’il s’agisse des femmes, des communautés culturelles ou d’autres minorités. D’autre part, les développeurs eux-mêmes peuvent, sans en être conscients, reproduire des préjugés historiques dans la conception même des algorithmes.
Ces biais peuvent limiter l’accès à des services essentiels : services bancaires, soins de santé, services d’immigration. Mais au-delà de ces cas bien documentés, tous les autres droits sont également menacés. Le droit à l’éducation peut être compromis lorsque des algorithmes placent des individus dans des catégories qui restreignent leur accès à certains parcours éducatifs. La liberté d’expression peut être entravée lorsque des employeurs utilisent des algorithmes de triage qui pénalisent certains comportements en ligne. En somme, aucun droit de la personne n’est à l’abri des enjeux découlant de l’intelligence artificielle.
Plusieurs solutions peuvent être mises en œuvre. Tout d’abord, il est essentiel de sensibiliser et de former les développeurs d’IA aux droits de la personne. Ces professionnels ne sont généralement pas des spécialistes des droits humains et possèdent souvent une connaissance limitée des concepts d’équité et de non-discrimination. Il faut donc intégrer ces préoccupations dès la conception des outils d’IA.
Ensuite, il est crucial de renforcer les liens entre la communauté spécialisée en droits de la personne juristes, organismes de la société civile, communautés concernées – et les développeurs ainsi que les déployeurs d’IA. La création d’espaces d’interaction fertiles et utiles entre ces groupes est fondamentale.
Enfin, il faut adapter la réglementation existante à la réalité particulière de l’IA, caractérisée par une grande opacité et des difficultés à établir des preuves. Il est nécessaire de développer des outils préventifs, notamment des analyses d’impact sur les droits de la personne. Avant de déployer un algorithme, les gouvernements et entreprises devraient procéder à une évaluation systématique de ses impacts potentiels sur les droits humains, minimiser ces impacts jusqu’à ce qu’ils soient acceptables, et répéter ce processus régulièrement, puisque les systèmes d’IA évoluent constamment.
Concilier innovation et éthique
Dans vos recherches, vous soulignez l’importance de l’éthique dans le développement de l’IA. Comment concilier l’innovation rapide et le respect des principes éthiques dans des domaines comme la santé et les services publics ?
On oppose souvent innovation et éthique, mais il s’agit en grande partie d’une fausse tension. Mes recherches et mes interactions avec les milieux de pratique révèlent que l’existence de critères clairs sur ce qu’il est important de respecter, sur les sanctions possibles, sur les attentes favorise en réalité l’innovation plutôt que de la freiner. Sans ces balises, les acteurs hésitent, craignant l’incertitude quant à leur responsabilité et aux conséquences potentielles.
Le problème survient lorsque la réglementation est inadaptée aux besoins réels du secteur. L’éthique et le droit ne s’opposent pas à l’innovation dans la mesure où ils sont proportionnés aux objectifs visés. D’ailleurs, face au développement rapide de l’IA, le droit lui-même a dû se remettre en question et développer de nouvelles modalités pour suivre le rythme de cette technologie.
Les « bacs à sable réglementaires » illustrent bien cette évolution. Ces espaces permettent aux innovateurs qui respectent certains critères précis d’expérimenter leurs technologies dans un cadre contrôlé. On apprend de ces expériences, on les évalue, puis on peut éventuellement élaborer des modalités réglementaires plus pérennes applicables à plus grande échelle. C’est un exemple parmi d’autres de la manière dont le droit peut s’adapter pour accompagner une technologie en évolution rapide.
IA, démocratie et transparence
Comment peut-on s’assurer que l’IA soit utilisée pour renforcer la démocratie et la responsabilité des gouvernements ?
En 2025, je suis devenue particulièrement préoccupée par l’avenir des démocraties. La situation géopolitique actuelle, combinée à l’intégration croissante de l’IA dans nos vies et dans les processus démocratiques, notamment électoraux, constitue une intersection qui mérite une attention considérable.
Il faut être vigilant face aux utilisations néfastes de l’IA dans les processus électoraux. La désinformation massive, l’utilisation d’hypertrucages projettent des images complètement fausses et créent une confusion dangereuse entre réalité et fiction pour les électeurs. On ne peut plus nécessairement se fier à ce qu’on voit ou entend, ce qui compromet le débat d’idées nécessaire à un choix éclairé.
Il ne s’agit pas d’interdire l’IA, mais d’éviter qu’elle crée de la confusion sur des enjeux électoraux essentiels : l’identité des candidats, leurs positions réelles, les informations pratiques comme les lieux de vote. Même l’utilisation d’outils d’IA générative pour obtenir des informations sur les bureaux de vote peut poser problème si ces systèmes fournissent des données inexactes ou obsolètes, dirigeant ainsi les électeurs vers de mauvaises dates ou lieux.
Des normes claires sont nécessaires. Au Québec, nous avons travaillé sur un code de conduite pour l’utilisation responsable de l’IA par les partis politiques. Deux partis y ont adhéré avec enthousiasme, et nous maintenons le dialogue avec les autres. Ces règles doivent être clarifiées car la situation est nouvelle et plusieurs acteurs interviennent dans les processus électoraux et démocratiques. Il est essentiel de préserver la confiance dans ces processus.
L’IA peut également avoir des effets positifs. Dans un contexte de montée des régimes autocratiques qui collaborent pour fragiliser les fondements démocratiques, l’IA peut servir d’outil de résistance. Par exemple, dans certains pays où des opposants politiques ont été emprisonnés pour empêcher toute compétition électorale, l’IA a permis à ces candidats de continuer à communiquer avec la population et à diffuser leurs idées malgré leur détention. Plus généralement, l’IA peut stimuler la participation citoyenne en fournissant des informations personnalisées adaptées aux besoins et questionnements de chaque individu.
L’IA au service des droits humains
Pouvez-vous donner des exemples positifs d’utilisation de l’IA pour défendre les droits humains, notamment dans des contextes difficiles ?
L’IA peut permettre aux gens d’exercer des droits qui leur sont autrement difficiles d’accès. L’accès aux soins de santé constitue un exemple particulièrement significatif. Si au Canada nous sommes relativement privilégiés, de nombreuses régions du monde n’ont aucun médecin ni personnel infirmier sur de vastes territoires. Dans ces contextes, des outils d’IA fournissant des informations médicales fiables et à jour deviennent parfois la seule façon pour ces populations d’obtenir des informations permettant de faire des choix de santé éclairés.
L’éducation est un autre domaine prometteur. L’IA favorise une éducation adaptée aux personnes qui n’y auraient pas accès autrement, permettant de personnaliser les parcours d’apprentissage selon les besoins individuels. En agriculture, l’IA aide à optimiser l’utilisation des ressources, à déterminer quoi planter, quand et comment. Ces applications contribuent directement à l’atteinte de plusieurs objectifs de développement durable. Il faut néanmoins balancer les risques et les opportunités, sans toujours voir l’un ou l’autre, mais bien les deux conjointement.
La diplomatie scientifique et la gouvernance mondiale de l’IA
Vous avez récemment obtenu la chaire sur la diplomatie scientifique et la gouvernance mondiale de l’IA. Quel rôle la diplomatie scientifique peut-elle jouer pour assurer une gouvernance mondiale responsable de l’intelligence artificielle ?
La diplomatie scientifique est cruciale pour plusieurs raisons. La plupart des enjeux globaux liés à la gouvernance de l’IA comportent une forte composante scientifique. Il faut vraiment comprendre la science pour naviguer ces questions. La science devient également un moyen d’aligner les intérêts des États et de les orienter vers des priorités communes pour trouver ensemble des solutions et éviter les risques.
Faire le lien entre l’évolution scientifique et je parle ici non seulement des sciences techniques mais aussi des sciences humaines et sociales et les préoccupations des décideurs ainsi que de la communauté diplomatique est fondamental. Ce n’est pas facile d’arrimer les avancées rapides de nos connaissances en IA avec les besoins des décideurs nationaux et internationaux, ainsi qu’avec le travail de la communauté diplomatique qui opère davantage par le pouvoir d’influence que par la contrainte.
Dans le contexte géopolitique difficile actuel, où nous avions pourtant réalisé des progrès substantiels en éthique et en réglementation de l’IA au Canada, mais aussi dans plusieurs autres pays l’Europe constituant un modèle, on observe maintenant une réticence, notamment des États-Unis, envers tout ce qui pourrait freiner le développement de l’IA, particulièrement pour les entreprises américaines. Dans un tel contexte, le rôle de la science et de la diplomatie scientifique devient d’autant plus important. La science constitue une modalité relativement stable de connaissance. Elle permet d’utiliser l’information la plus fiable possible pour alimenter les discussions et, dans la mesure du possible, de se distancier des conflits géopolitiques.
La capacité d’utiliser le pouvoir d’influence des réseaux diplomatiques, qui se projettent souvent à plus long terme, permet de maintenir les liens et de poursuivre un travail de fond moins frontal. Cela aide à continuer d’avancer et à capitaliser sur les gains en éthique et en modalités juridiques réalisés précédemment. Il est donc encore plus important d’appuyer ces efforts à ce moment crucial des relations internationales.
L’évolution des régulations face à l’IA
Les technologies comme l’IA évoluent à une vitesse fulgurante. Comment les régulations doivent-elles évoluer pour suivre ces avancées tout en garantissant la sécurité des données et la protection des droits des individus ?
Il faut d’abord reconnaître qu’il existe déjà un cadre juridique pour encadrer l’IA. Nous ne sommes plus dans une absence totale de droits. La responsabilité civile, le droit d’auteur, le droit criminel, les chartes : ces outils existent. Le défi réside parfois dans la difficulté d’application de ces outils dans le contexte spécifique de l’IA. Parfois aussi, nous constatons des limites qui nous obligent à faire des efforts supplémentaires.
Au Canada, ce travail n’est pas terminé. Le projet de loi C-27 est tombé, mais on anticipe son retour à l’agenda avec des modalités plus précises. Il faut continuer nos efforts dans cette direction.
À l’échelle internationale, la situation est encore plus complexe. S’il est déjà difficile de trouver le bon équilibre au niveau national, c’est encore plus ardu à l’international. L’approche la plus réaliste pour établir des modalités de gouvernance internationale, possiblement contraignantes jusqu’à un certain point, consiste à définir des « lignes rouges » ces limites que les États ne veulent absolument pas franchir.
Des initiatives circulent, et il y a de la pression pour définir ces lignes rouges. Parallèlement, des normes souples ont été développées : l’UNESCO a adopté une recommandation, l’ONU a mis en place un pacte qui oriente les États, et les efforts de diplomatie scientifique se multiplient. Nous sommes donc dans un espace relativement en mouvement. Il faut sortir de la fausse dichotomie « si on encadre, on bride l’innovation ». La vraie question est : la réglementation est-elle adaptée aux objectifs que nous voulons atteindre ?
Les lignes rouges en matière d’IA
Quelles devraient être les lignes rouges essentielles pour une gouvernance responsable de l’IA au niveau international ?
Bien que je ne travaille pas directement sur les questions militaires, nombreux sont ceux qui s’y consacrent. Nous souhaiterions évidemment que ce soit une ligne rouge importante. La Déclaration de Montréal sur le développement responsable de l’IA stipulait qu’aucune décision ayant des conséquences vitales ne devrait être prise par une machine, un humain devrait toujours avoir le dernier mot. Or, nous constatons que l’IA évolue dans des zones où cette limite est dépassée.
Le contexte militaire est difficile. Il existe de nombreux engagements au niveau international. Récemment, un panel international d’experts sur l’IA a été mis en place pour formuler des recommandations aux États sur les opportunités et les risques de l’IA. Fait notable : les militaires en sont exclus, ce qui est fréquent dans plusieurs modalités de gouvernance mondiale que j’observe. C’est un terrain difficile. Nous aimerions que ce soit une ligne rouge, mais il y a toujours des États très puissants qui n’ont pas intérêt à aller dans cette direction.
La question de la répartition équitable des bénéfices de l’IA à l’échelle mondiale suscite l’intérêt de nombreux États, parfois pour des raisons utilitaristes, mais aussi sur la base des principes de droits humains et d’équité. S’assurer d’une répartition plus large des bienfaits de l’IA et éliminer les risques pour éviter que ce soient toujours les mêmes populations qui les subissent : voilà quelque chose qui semble créer un certain consensus.
À titre d’exemple, environ un tiers de la population mondiale n’a aucune connexion Internet. Pendant que nous débattons des enjeux de l’IA, ces personnes en sont complètement exclues. Comment éviter de laisser ces populations derrière tout en gérant le fait que plus de gens utilisent l’IA, plus la consommation d’énergie augmente, puisque ces technologies sont très énergivores ? Il faut naviguer entre plusieurs tensions, mais je pense qu’il est prometteur de travailler à l’intersection de ces tensions pour trouver des solutions qui respectent les droits humains.
Les droits humains comme fil conducteur
Dans l’espace international de la gouvernance de l’IA, après avoir travaillé avec différents groupes, cultures, expertises, profils et affiliations sectorielles, nous avons parfois du mal à trouver un terrain d’entente. Pourtant, il y a une chose sur laquelle tous les pays se sont entendus : le respect des droits humains. La très grande majorité s’accorde sur ce principe, même si d’énormes défis demeurent dans la pratique.
Il faut constamment ramener l’agenda sur le fait que tout doit être aligné avec nos objectifs en matière de droits de la personne et de développement durable. C’est la cible que nous nous sommes donnée. Cela demeure un repère essentiel et nous devons continuer à y investir nos énergies, même s’il s’agit de petites victoires. Pour moi, cela demeure un fil conducteur fondamental que je ne lâche pas. Je pense que beaucoup de personnes investissent beaucoup d’efforts dans cette direction, et c’est important. Il ne faut pas perdre le cap sur les droits de la personne.

