Innover sans garde-fous ?

À l’occasion du sommet mondial sur l’intelligence artificielle (IA) tenu à Paris la semaine dernière, les experts du monde entier sont venus expliquer les risques majeurs que court l’humanité si cette technologie n’est pas adéquatement encadrée par des règles appropriées. Le sommet s’est conclu par l’adoption de la Déclaration sur une intelligence artificielle durable et inclusive pour la population et la planète.

La Déclaration adoptée par l’ensemble des pays participants, sauf les États-Unis et la Grande-Bretagne, est pourtant bien timide. On y proclame entre autres la nécessité de veiller à ce que l’IA soit ouverte à tous, inclusive, transparente, éthique, sûre, sécurisée et digne de confiance, dans le respect des cadres internationaux. On ajoute que l’IA doit permettre l’innovation en créant les conditions propices à son développement et en évitant la concentration du marché. Mais la timidité de la déclaration n’a pas empêché les représentants américains de s’y opposer. Ils prétendent que la réglementation de l’IA nuirait à l’innovation.

Pourtant, même aux États-Unis, l’organisme chargé de la protection des consommateurs publiait, début janvier, un bulletin expliquant les principaux risques auxquels sont exposées les populations par l’IA utilisée sans réglementation appropriée. Évidemment, cette note a été publiée avant qu’Elon Musk fasse irruption dans l’administration fédérale flanqué de ses hackers et de ses tronçonneuses.

Des risques bien réels

Il est bien établi que les systèmes d’IA ont une propension à générer des biais discriminatoires ou les amplifier. Ces biais peuvent conduire à favoriser un genre au détriment d’un autre notamment dans le cadre de l’analyse automatique de CV, à moins bien diagnostiquer certaines maladies chez des patients en fonction de leur origine ethnique, à engendrer des suspicions de fraude en fonction du lieu de résidence des personnes ou encore à ne pas identifier certains individus correctement dans des images en raison de leur couleur de peau.

Dans un monde traversé par la culture anglo-saxonne, il y a un risque que les résultats générés ignorent le pluralisme et les spécificités culturelles. Il est à craindre une uniformisation et un appauvrissement des représentations des différentes cultures.

Les systèmes d’IA présentent aussi des problèmes de sécurité. Ces technologies peuvent démultiplier des attaques sur les systèmes informatiques ou générer des campagnes de désinformation tout en amplifiant de nouvelles vulnérabilités, en raison de leur particularité de reposer sur l’apprentissage automatique.

Les privilèges des géants d’Internet

Ceux qui se présentent comme des innovateurs ont la fâcheuse tendance à considérer les règles qui régissent le fonctionnement d’une activité comme des entraves à leur « modèle d’affaires ». Ils oublient souvent que la réglementation qui existe n’est pas là par hasard ou par caprice. C’est hélas lorsque surviennent des événements catastrophiques que l’on mesure l’ampleur de l’irresponsabilité de ces condamnations en bloc de la réglementation comme inutile ou inefficace.

Ironiquement, ce sont des lois spécifiques qui ont doté les grandes plateformes Web d’un régime privilégié. L’article 230 du Code américain des communications exonère les plateformes en ligne des responsabilités découlant de ce qui y est diffusé. C’est ce régime législatif qui permet aux plateformes comme les réseaux sociaux d’échapper aux responsabilités qui sont pourtant assumées par les médias traditionnels.

Le régime réglementaire des plateformes leur laisse le champ libre pour monnayer l’attention des internautes tout en échappant aux responsabilités qui incombent habituellement (selon les lois généralement applicables) à ceux qui diffusent des informations fautives. En somme, les plateformes en ligne se sont développées en grande partie grâce à ces réglementations qui leur accordent d’importants privilèges. Raconter que la réglementation est en soi une entrave à l’innovation relève de la fabulation.

Pratiquement tous les objets techniques, et singulièrement l’IA, comportent des risques. Par exemple, les capacités de reconnaissance faciale, la génération d’images, de sons et de textes complètement faux, les fraudes réalisées en imitant la voix ou en reprenant l’image d’une personne sont des risques documentés.

Les timides principes adoptés au sommet de Paris visent à conjuguer innovation et respect des droits. Il en est de même de la réglementation européenne sur l’IA, celle d’au moins une douzaine d’États américains et celle qui est proposée au Canada par le défunt projet de loi C-27.

Bien conçue, la réglementation permet de limiter les risques. L’innovation respectueuse des individus et des populations est celle qui se conjugue avec le respect des lois. L’urgence est de développer l’IA tout en assurant la protection des droits des individus et des populations. Dans un monde civilisé, c’est de cette façon qu’on innove. Mettre en circulation sans garde-fous des dispositifs qui peuvent générer des supercheries n’est pas innover, c’est agresser.

Ce texte fait partie de notre section Opinion, qui favorise une pluralité des voix et des idées. Il s’agit d’une chronique et, à ce titre, elle reflète les valeurs et la position de son auteur et pas nécessairement celles du Devoir.

À voir en vidéo