Intelligence artificielle : avantages, risques et réglementation

Santé et sécurité des personnes - Actualité Normative - Publiée le lundi 21 août 2023

Technologie aux pouvoirs méconnus inquiétants ou outil digne de confiance, l’avenir de l'IA implique de se poser les bonnes questions.

S’agissant de l’IA, de quoi parle-t-on dans la vie de tous les jours? Pour le commun des mortels stupéfié par les résultats, les expériences avec ChatGPT sont un bon sujet de conversation. Les enjeux de l’IA sont très différents pour les dirigeants d'entreprise, les gouvernements et les organisations internationales. Il leur faut bien mesurer comment tirer parti des avantages de l'IA tout en en minimisant les risques. 

Certains affirment qu'il est urgent de réglementer l’IA, d'autres comparent la technologie à une arme nucléaire et d'autres encore préviennent qu'elle va sonner le glas de l’humanité. En parallèle, bon nombre de consultants et de start-ups voudraient nous faire croire que l'IA est la panacée pour résoudre les défis commerciaux et nos problèmes personnels, y compris en qui concerne l’amour, la vie et la létalité. Il est trop tôt pour tirer de nombreuses conclusions, mais il est important que les bonnes personnes discutent des bonnes questions. Telles sont les conditions pour que cette technologie révolutionnaire soutienne l'humanité et lui ouvre plus de possibilités.

Poser les bonnes questions 

Il est vrai qu’en matière d’IA beaucoup de sujets ne sont pas abordés et qui pourtant devraient l’être. Il faudrait notamment réfléchir à l’ampleur des implications sociétales liées à l'accélération des inégalités et à la réduction de l’être humain à un ensemble de données, à tel point qu’il en devient redondant et dépourvu de toute valeur. Toutes les avancées de la science au cours de l'histoire ont comporté des avantages et des risques. En fait, les échecs qui ont marqué notre histoire peuvent nous servir de leçons utiles pour éviter de commettre les mêmes erreurs. L'IA, quoique différente à certains égards, présente bon nombre des mêmes pièges potentiels que d’autres changements de paradigme précédents. Rien de nouveau dans le discours : promesses excessives, risques sous-estimés et intérêts commerciaux. Alors quoi de neuf ? Pourquoi s’inquiéter ?

Ce dont il est question ici n’a rien de nouveau. Avec la modélisation du langage, dans les années 1950, Weizenbaum, l’inventeur d’Eliza, l'un des premiers Chatbots, a créé l’idée de la « pensée magique ». Plus récemment, les communautés de science des données ont commencé à s'inquiéter de certaines propositions découlant de l'utilisation de ChatGPT2, notamment quant à l’automatisation des condamnations, potentiellement à la peine de mort, sans intervention humaine La technologie est aujourd'hui surpuissante avec des ensembles de données plus importants, mais bon nombre des anciens problèmes demeurent. Ce qui est nouveau : la rapidité, l'échelle des modèles, et la provenance des données.

Gouvernance 

La bonne nouvelle, c'est qu'il existe déjà toute une panoplie d'outils de gouvernance, notamment la législation internationale et nationale relative à la propriété intellectuelle, au comportement des entreprises, aux droits de l'homme, à la discrimination, aux contrats et à la protection de la vie privée, pour n'en citer que quelques-uns. De nombreux experts dans le monde, comme le professeur Edward Santow plaident depuis longtemps en faveur de l'amélioration des compétences des juristes afin qu'ils puissent comprendre et appliquer la législation existante et les nouvelles technologies dans le cadre de leur profession.

Toutefois, parallèlement à la législation, il convient d'envisager un renforcement de la réglementation. Il existe déjà des cadres réglementaires, tels que le règlement européen sur l’IA, récemment établi, le National Institute of Standards and Technology, et la nouvelle politique de la Chine sur l’IA. Mais certains ont besoin d'être mis à jour ou révisés – et il y a des lacunes. Et là où il y a des lacunes, il faudrait réglementer.

Atténuer le risque, optimiser les avantages 

Le fait est que nous ne pouvons pas envisager les risques liés à l'IA de manière conventionnelle. Andrew Maynard, professeur à l'ASU et expert de longue date en matière de risques, est catégorique sur ce point : le mode traditionnel de pensée ne nous permet tout simplement pas d’aller où il faut.

Les Normes internationales telles que celles de l’ISO/IEC JTC 1/SC 42 sur la gestion de l'IA contribueront à combler ces lacunes dans la réglementation. Elles permettent aux décideurs et aux responsables politiques de créer des données et des processus cohérents et vérifiables. Cela apportera une valeur ajoutée à long terme aux entreprises à bien des égards, notamment pour le reporting environnemental, l'exploitabilité et la crédibilité envers les parties prenantes. Cette approche permettra de s'assurer que les avantages l'emportent sur les risques, dans le respect des réglementations et des autres outils de gouvernance.

L’éthique des données a également un rôle à jouer. Utilisée et appliquée correctement, l'éthique des données peut contribuer à susciter la volonté – s’agissant des décisions des dirigeants ou de tâches quotidiennes – de ne pas se limiter à agir parce qu’on le peut, mais parce qu’on le doit.

Mais surtout, les Normes internationales peuvent garantir que les bonnes discussions sont menées par les bonnes personnes – en utilisant un langage commun. Il faudra peut-être du temps pour mettre en place les outils réglementaires et la culture nécessaires. Mais les Normes internationales peuvent nous aider à trouver le bon équilibre entre risques et avantages.