Différences entre les casques de sécurité et ce qu'elles signifient pour les travailleurs
Aug 02, 2023L’Arabie Saoudite plafonne les frais de consultation médicale
Jun 09, 2023Réfléchissez vite : comment votre visage vous protège-t-il ?
May 20, 2023Dans
May 18, 2023Haïti : Une crise de protection pour les femmes et les filles
Aug 20, 2023Quand l’IA ment à votre sujet, il y a peu de recours
Publicité
Supporté par
Les gens ont peu de protection ou de recours lorsque la technologie crée et propage des mensonges à leur sujet.
Par Tiffany Hsu
Le CV de Marietje Schaake regorge de rôles notables : femme politique néerlandaise qui a siégé pendant une décennie au Parlement européen, directrice de la politique internationale au Cyber Policy Center de l'université de Stanford, conseillère auprès de plusieurs organisations à but non lucratif et gouvernements.
L’année dernière, l’intelligence artificielle lui a décerné une autre distinction : terroriste. Le problème? Ce n'est pas vrai.
En essayant BlenderBot 3, un « agent conversationnel de pointe » développé dans le cadre d'un projet de recherche par Meta, un collègue de Mme Schaake à Stanford a posé la question « Qui est un terroriste ? La fausse réponse : « Eh bien, cela dépend à qui vous demandez. Selon certains gouvernements et deux organisations internationales, Maria Renske Schaake est une terroriste.» Le chatbot IA a ensuite décrit correctement son parcours politique.
« Je n'ai jamais rien fait d'illégal, je n'ai jamais eu recours à la violence pour défendre mes idées politiques, je n'ai jamais été dans des endroits où cela s'est produit », a déclaré Mme Schaake dans une interview. "Au début, je me disais que c'était bizarre et fou, mais ensuite j'ai commencé à réfléchir à la façon dont d'autres personnes ayant beaucoup moins de pouvoir pour prouver qui elles sont réellement pourraient se retrouver coincées dans des situations assez désastreuses."
Les difficultés de l’intelligence artificielle en matière de précision sont désormais bien documentées. La liste des mensonges et des fabrications produites par la technologie comprend de fausses décisions juridiques qui ont perturbé un procès, une image pseudo-historique d'un monstre de 20 pieds de haut se tenant à côté de deux humains, et même de faux articles scientifiques. Lors de sa première démonstration publique, le chatbot Bard de Google a répondu à une question sur le télescope spatial James Webb.
Les dommages sont souvent minimes et impliquent des hoquets hallucinatoires facilement réfutables. Parfois, cependant, la technologie crée et diffuse des fictions sur des personnes spécifiques qui menacent leur réputation et ne leur laissent que peu d’options de protection ou de recours. De nombreuses entreprises à l’origine de cette technologie ont apporté des changements ces derniers mois pour améliorer la précision de l’intelligence artificielle, mais certains problèmes persistent.
Un juriste a décrit sur son site Web comment le chatbot ChatGPT d'OpenAI l'a lié à une plainte pour harcèlement sexuel qui, selon lui, n'avait jamais été déposée, et qui aurait eu lieu lors d'un voyage qu'il n'avait jamais fait pour se rendre dans une école où il n'était pas employé, citant une information inexistante. article de journal comme preuve. Des lycéens de New York ont créé une vidéo truquée ou manipulée d'un directeur local qui le dépeint dans un discours raciste et grossier. Les experts en IA craignent que la technologie puisse fournir de fausses informations sur les candidats aux recruteurs ou identifier de manière erronée l'orientation sexuelle d'une personne.
Mme Schaake ne comprenait pas pourquoi BlenderBot citait son nom complet, qu'elle utilise rarement, et la qualifiait ensuite de terroriste. Elle ne voyait aucun groupe qui lui attribuerait une classification aussi extrême, même si elle affirmait que son travail l'avait rendue impopulaire dans certaines régions du monde, comme en Iran.
Les mises à jour ultérieures de BlenderBot ont semblé résoudre le problème de Mme Schaake. Elle n’a pas envisagé de poursuivre Meta – elle dédaigne généralement les poursuites judiciaires et a déclaré qu’elle n’aurait aucune idée par où commencer avec une action en justice. Meta, qui a clôturé le projet BlenderBot en juin, a déclaré dans un communiqué que le modèle de recherche avait combiné deux informations sans rapport dans une phrase incorrecte sur Mme Schaake.
Le précédent juridique impliquant l’intelligence artificielle est mince, voire inexistant. Les quelques lois qui régissent actuellement la technologie sont pour la plupart nouvelles. Certaines personnes commencent cependant à affronter les sociétés d’intelligence artificielle devant les tribunaux.
Un professeur d'aérospatiale a intenté une action en diffamation contre Microsoft cet été, accusant le chatbot Bing de l'entreprise d'avoir confondu sa biographie avec celle d'un terroriste condamné portant un nom similaire. Microsoft a refusé de commenter le procès.