Voici ce qu'il y a dans la déclaration des droits de l'IA du président Biden


Voici ce qu'il y a dans la déclaration des droits de l'IA du président Biden






L'intelligence artificielle (IA) est peut-être quelque chose qui vous fait penser à un avenir lointain, mais elle est déjà tout autour de nous. Vous pouvez le trouver dans votre voiture, votre maison intelligente, votre téléphone, à l'autre bout de la ligne d'assistance à la clientèle que vous appelez lorsque ces choses se cassent, le site Web de votre banque, le cabinet de votre médecin et éventuellement derrière les caméras de sécurité qui vous regardent partir sur votre journée. L'IA est peut-être incontournable, mais la loi a beaucoup de rattrapage à faire. Pour tenter de résoudre ce problème, la Maison Blanche a publié ce qu'elle a appelé un "Plan directeur pour une déclaration des droits de l'IA" visant à protéger le public contre les actions de l'intelligence artificielle.




Bien que le projet de loi de l'administration Biden soit un début, l'accueil qu'il a reçu a été mitigé. Nombreux sont ceux qui pensent que cela ne va pas assez loin. MIT Technology Review a cité un certain nombre de professionnels de l'industrie soulignant le manque de législation solide, notamment le directeur des politiques du Stanford Institute for Human-Centered AI Russell Wald qui déplore le "manque de politique fédérale cohérente" sur le sujet.


Le plan accuse directement "la technologie, les données et les systèmes automatisés" de limiter "nos opportunités et d'empêcher notre accès aux ressources ou services critiques". Les suggestions décrites dans le document visent à lutter contre cela et à protéger les citoyens américains des traits négatifs que certains modèles d'IA sont connus pour présenter. Il convient de noter que la "Déclaration des droits de l'IA" de la Maison Blanche n'est pas un décret émis par le président, ni en aucune façon une loi. Le document est essentiellement un ensemble de recommandations que l'administration Biden a faites que les législateurs pourraient utiliser comme cadre pour la législation liée à l'IA qu'ils pourraient rédiger à l'avenir.


Le projet de loi n'a rien à voir avec l'IA sensible


Si vous avez vu un film de la franchise "Terminator", "The Matrix" ou "2001 : A Space Odyssey", vous savez peut-être à quel point une IA voyous avancée pourrait potentiellement le faire – et vous ne seriez pas seul. Des personnalités clés de l'industrie comme Elon Musk ont ​​fréquemment mis en garde contre les dangers de l'IA, le fondateur de Tesla demandant à l'ONU d'interdire son utilisation en temps de guerre et d'aider à financer OpenAI, une organisation à but non lucratif dédiée à l'étude du concept. 


Les non-milliardaires sont également inquiets, 43 % des lecteurs de SlashGear affirmant qu'ils trouvent inquiétante la perspective d'une IA sensible. Le document qui se rapproche le plus de nous sauver tous de Skynet est une section sur les "systèmes sûrs et efficaces", qui stipule : "Les systèmes automatisés ne doivent pas être conçus avec l'intention ou la possibilité raisonnablement prévisible de mettre en danger votre sécurité ou celle de votre communauté. "


D'un autre côté, il y a aussi la question des droits pour l'IA elle-même, et le projet de loi n'en parle pas non plus. Ces derniers mois, nous avons eu une IA qui a développé son propre langage, et une autre qui était si convaincante qu'un ingénieur de Google l'a fait appel à un avocat. Pourtant, ce plan n'est pas une loi, et même s'il l'était, l'IA sensible n'aurait toujours aucun droit légal.


La discrimination potentielle est une préoccupation


Alors que l'IA devient une partie de plus en plus importante de la vie quotidienne, la discrimination est une véritable préoccupation, et cette préoccupation n'est pas sans fondement. Il y a eu de nombreux exemples au fil des ans d'IA présentant du racisme, du sexisme et d'autres traits discriminatoires. Un exemple récent concerne une étude menée par l'Université Johns Hopkins, le Georgia Institute of Technology et l'Université de Washington. L'IA utilisée dans l'étude a été formée à l'aide d'un modèle de réseau neuronal, qui extrait des informations d'une grande source de données comme Internet pour apprendre à une IA comment réagir et naviguer dans les situations. Les chercheurs qui ont mené l'étude se sont retrouvés avec une IA qui identifiait les femmes comme des "femmes au foyer", les hommes noirs comme des "criminels" et les hommes latinos comme des "concierges".



Le plan décrit ce qu'il appelle la "discrimination algorithmique", le décrivant comme un individu ou un groupe injustement isolé et discriminé en raison de l'une des nombreuses "classifications protégées par la loi". Ces classifications incluent des éléments tels que la race, la nationalité, le statut d'ancien combattant, la sexualité et le handicap. Il poursuit en suggérant : "Les concepteurs, développeurs et déployeurs de systèmes automatisés devraient prendre des mesures proactives et continues pour protéger les individus et les communautés contre la discrimination algorithmique et pour utiliser et concevoir des systèmes de manière équitable".


Il y a une tentative de protéger les données et de tenir les gens informés


Toute une section du plan concerne la manière dont les données sont collectées et utilisées. Une grande partie de la section sur la protection des données tourne autour de la limitation des données que les entreprises peuvent collecter. La Déclaration des droits de l'IA suggère de la limiter au montant minimum requis pour remplir les fonctions nécessaires. Il y a aussi une section qui fait référence à la surveillance, ce qui devrait être intéressant pour tous ceux qui ont un assistant à domicile clignotant à leur chevet. Il dit: "La surveillance et le contrôle continus ne doivent pas être utilisés dans l'éducation, le travail, le logement ou dans d'autres contextes où l'utilisation de ces technologies de surveillance est susceptible de limiter les droits, les opportunités ou l'accès."



Les entreprises sont également tenues de fournir un avis indiquant pourquoi une IA est utilisée et comment cela pourrait vous affecter. La section de notification semble suggérer qu'une IA prenant une décision devrait également expliquer comment et pourquoi cette décision a été prise. Cette partie est logique, car elle rend le reste du projet de loi beaucoup plus pratique. À titre d'exemple extrême, si une IA était raciste, il serait beaucoup plus facile de la repérer si elle justifiait sa décision en disant "parce que vous avez X couleur de peau". Le problème pourrait alors être signalé. Un "non" général peut laisser les gens supposer que d'autres facteurs ont conduit à un résultat et permettre aux problèmes de rester incontrôlés pendant beaucoup plus longtemps.


IA pourrait ne pas prendre tous nos emplois


Deux groupes de personnes peuvent être satisfaits d'une section du cadre. Ceux qui craignent que l'IA ne prenne le travail de tout le monde, et les personnes qui ne supportent pas de parler à des systèmes automatisés au téléphone pourraient avoir une raison de se réjouir si la Déclaration des droits de l'IA devient une loi. L'une des sections stipule qu'une "alternative humaine" devrait être disponible "le cas échéant". Au mieux, cela pourrait signifier que vous pouvez dire à une IA de vous patcher à travers un organisme vivant si les choses deviennent frustrantes. Une lecture plus conservatrice de cette section suggérerait que cela signifie simplement que la décision d'une IA ne peut jamais être définitive, et vous devriez avoir la possibilité de demander à une personne d'examiner la situation et d'annuler le choix de l'IA si nécessaire. Il stipule également que les humains impliqués doivent recevoir une formation appropriée pour leurs rôles respectifs.



Pour les décisions vraiment importantes, vous n'aurez peut-être même pas à vous demander, comme le dit le projet de loi, "les systèmes automatisés destinés à être utilisés dans des domaines sensibles, y compris, mais sans s'y limiter, la justice pénale, l'emploi, l'éducation et la santé, devraient en outre être adaptés à l'objectif, fournir un accès significatif pour la surveillance, inclure une formation pour toute personne interagissant avec le système et intégrer la considération humaine pour les décisions défavorables ou à haut risque.


Il reste à voir si la Déclaration des droits de l'IA - ou des éléments de celle-ci - en fera une loi. Mais l'IA est déjà une partie importante du monde moderne et elle ne fera que croître à partir d'ici, vous vous attendez donc à ce que la législation suive de près.


En savoir plus :



    Plus récente Plus ancienne