Prendre au sérieux les risques de l’IA

Au moment où entre en vigueur en Europe une loi prohibant certaines utilisations de l’intelligence artificielle (IA) jugées inacceptables, le décret pour « éliminer les barrières au leadership américain en IA » du président américain Trump ordonne de passer à la déchiqueteuse les mesures mises en place sous Joe Biden en 2023 pour réguler l’intelligence artificielle. Pour Donald Trump, de telles mesures ne seraient que des « entraves au nom de biais idéologiques ou de programmes sociaux artificiels ». Pourtant, la plupart des experts préviennent que l’IA mal encadrée met les populations à risque. Pour assurer le réel développement de ces technologies, il importe d’en comprendre sérieusement les enjeux et leur potentiel.

Cette semaine, le Sommet pour l’action sur l’IA réunira à Paris des scientifiques et des décideurs du monde entier. Parmi les travaux qui y seront présentés, il y a le premier rapport indépendant international sur la sécurité de l’IA. Rédigé par une équipe d’une centaine d’experts provenant de 30 pays sous la direction du professeur Yoshua Bengio, de l’Université de Montréal, ce rapport aligne les données probantes sur les risques du développement mal encadré de l’IA. C’est le genre d’initiatives qu’il faut multiplier afin de développer des interventions concertées pour des technologies qui ne connaissent pas de frontières.

Les experts constatent que les systèmes d’IA sont de plus en plus capables de fonctionner de façon autonome en vue d’atteindre un objectif. Cette évolution majeure doit recevoir l’attention des responsables des politiques publiques. Alors que les systèmes deviennent de plus en plus sophistiqués et que la technologie continue de se développer à un rythme effréné, le rapport insiste sur l’urgence d’améliorer la transparence et la compréhension de la prise de décision à l’égard de l’IA.

Des risques documentés

Plusieurs des risques en la matière sont bien documentés. Il s’agit notamment des escroqueries, des capacités de produire des images intimes non consensuelles ou du matériel d’abus sexuel. Il y a aussi la production de résultats tendancieux contre certains groupes de personnes ou certaines opinions, des problèmes de fiabilité et des violations de la vie privée. Si des chercheurs ont développé des solutions techniques afin d’atténuer ces risques, aucune de ces technologies ne peut à ce jour les résoudre complètement. Des lois plus robustes sont nécessaires.

Le rapport fait état des risques liés aux usages malveillants, comme les cyberattaques et la création de contenu frauduleux généré par l’IA. Si des mesures musclées ne sont pas prises par les pays désireux de protéger leur population, les arnaques et les fraudes visant aussi bien les personnes vulnérables que des populations entières vont se multiplier. Dans cet esprit, pour aider les responsables politiques à relever les principaux défis mondiaux liés à l’IA, des professeurs d’Ottawa et de Montréal ont réuni un groupe international d’expertes et d’experts afin de formuler des recommandations de politiques publiques pouvant être mises en œuvre à l’échelle mondiale pour préserver la démocratie et l’intégrité électorale.

Les questions de fiabilité et la perte de contrôle face aux systèmes avancés d’IA doivent aussi être prises au sérieux. L’avènement de mécanismes de décision automatique qui font abstraction des lois qui protègent le droit à l’égalité et les autres droits fondamentaux pourrait rendre anecdotiques les discriminations qui sévissent actuellement dans le monde analogique. Il est bien établi que ces systèmes peuvent, si des précautions ne sont pas en place, reproduire les préjugés qui préexistent dans les divers milieux concernés.

Il y a aussi les risques systémiques découlant de l’adoption massive de l’IA, dont la perturbation du marché du travail, le respect de la vie privée et les conséquences sur l’environnement. De même, les géants d’Internet ont souvent profité gratuitement des œuvres circulant dans l’espace public protégé par le droit d’auteur. Les systèmes d’IA aspirent des masses d’information. Le respect des droits d’auteur de même que la répartition de la valeur générée par les environnements d’IA à partir des données et des œuvres de création sont des questions majeures de politique publique.

Agir proactivement

L’attitude jovialiste qui perdure au nom d’un désir de « ne pas mettre de barrières à l’innovation » au sujet des risques induits par le développement mal encadré des technologies de l’information coûte de plus en plus cher.

Si rien n’est fait pour encadrer l’usage des dispositifs technologiques, ce sont les objets fonctionnant à l’IA qui, par défaut, dicteront les conditions du déroulement des activités humaines. Laisser perdurer une telle tendance avec les capacités décuplées de l’IA nuira à nos sociétés démocratiques. En clair, est-ce que l’humanité est prête à se laisser gouverner par les dispositifs contrôlés par Elon Musk et d’autres oligarques des technologies de l’information ?

Les experts ayant contribué à ce rapport ne sont pas unanimes, mais ils s’entendent sur la nécessité d’une gestion ouverte, transparente et surtout proactive des risques d’une technologie qui évolue très rapidement. Ils estiment essentiel d’améliorer la compréhension collective de la situation. Cela permettra aux membres de la communauté internationale de se concerter et de travailler ensemble pour atténuer efficacement les risques liés à l’IA. Cette approche contraste avec les retours au XIXe siècle qui tiennent actuellement lieu de politique aux États-Unis.

Ce texte fait partie de notre section Opinion, qui favorise une pluralité des voix et des idées. Il s’agit d’une chronique et, à ce titre, elle reflète les valeurs et la position de son auteur et pas nécessairement celles du Devoir.

À voir en vidéo