Google suspend un ingénieur qui prétend que son IA est sensible

Google a placé l’un de ses ingénieurs en congé administratif payé pour avoir prétendument enfreint ses politiques de confidentialité après qu’il se soit inquiété qu’un système de chatbot IA ait atteint la sensibilité, le Poste de Washington rapports. L’ingénieur, Blake Lemoine, travaille pour l’organisation Responsible AI de Google et testait si son modèle LaMDA génère un langage discriminatoire ou un discours de haine.

Les inquiétudes de l’ingénieur seraient nées de réponses convaincantes qu’il a vues générer par le système d’IA sur ses droits et l’éthique de la robotique. En avril, il a partagé un document avec des dirigeants intitulé “Is LaMDA Sentient?” contenant une transcription de ses conversations avec l’IA (après avoir été mis en congé, Lemoine a publié la transcription via son compte Medium), qui, selon lui, la montre en faisant valoir “qu’elle est sensible parce qu’elle a des sentiments, des émotions et une expérience subjective”.

Google pense que les actions de Lemoine liées à son travail sur LaMDA ont violé ses politiques de confidentialité, La Poste de Washington et Le gardien rapport. Il aurait invité un avocat à représenter le système d’IA et parlé à un représentant du comité judiciaire de la Chambre des activités prétendument contraires à l’éthique chez Google. Dans un post du 6 juin sur Medium, le jour où Lemoine a été mis en congé administratif, l’ingénieur a déclaré qu’il avait sollicité “un minimum de consultations extérieures pour m’aider à me guider dans mes enquêtes” et que la liste des personnes avec lesquelles il avait eu des discussions comprenait le gouvernement américain. des employés.

Le géant de la recherche a annoncé publiquement LaMDA à Google I/O l’année dernière, ce qui, espère-t-il, améliorera ses assistants d’intelligence artificielle conversationnelle et rendra les conversations plus naturelles. La société utilise déjà une technologie de modèle de langage similaire pour la fonctionnalité Smart Compose de Gmail ou pour les requêtes des moteurs de recherche.

Dans une déclaration donnée à WaPo, un porte-parole de Google a déclaré qu’il n’y avait “aucune preuve” que LaMDA soit sensible. “Notre équipe – y compris des éthiciens et des technologues – a examiné les préoccupations de Blake conformément à nos principes d’IA et l’a informé que les preuves n’étayent pas ses affirmations. On lui a dit qu’il n’y avait aucune preuve que LaMDA était sensible (et de nombreuses preuves contre cela) », a déclaré le porte-parole Brian Gabriel.

“Bien sûr, certains membres de la communauté de l’IA au sens large envisagent la possibilité à long terme d’une IA sensible ou générale, mais cela n’a aucun sens de le faire en anthropomorphisant les modèles conversationnels d’aujourd’hui, qui ne sont pas sensibles”, a déclaré Gabriel. “Ces systèmes imitent les types d’échanges trouvés dans des millions de phrases et peuvent riffer sur n’importe quel sujet fantastique.”

“Des centaines de chercheurs et d’ingénieurs ont conversé avec LaMDA et nous ne connaissons personne d’autre faisant des affirmations de grande envergure, ou anthropomorphisant LaMDA, comme l’a fait Blake”, a déclaré Gabriel.

Un professeur de linguistique interviewé par WaPo ont convenu qu’il est incorrect d’assimiler des réponses écrites convaincantes à la sensibilité. “Nous avons maintenant des machines qui peuvent générer des mots sans réfléchir, mais nous n’avons pas appris à arrêter d’imaginer un esprit derrière elles”, a déclaré Emily M. Bender, professeur à l’Université de Washington.

Timnit Gebru, une éminente éthicienne de l’IA licenciée par Google en 2020 (bien que le géant de la recherche affirme qu’elle a démissionné), a déclaré que la discussion sur la sensibilité de l’IA risquait de “faire dérailler” des conversations éthiques plus importantes concernant l’utilisation de l’intelligence artificielle. “Au lieu de discuter des méfaits de ces entreprises, du sexisme, du racisme, du colonialisme de l’IA, de la centralisation du pouvoir, du fardeau de l’homme blanc (construire le bon “AGI” [artificial general intelligence] pour nous sauver alors que ce qu’ils font est de l’exploitation), a passé tout le week-end à discuter de la sensibilité », a-t-elle tweeté. “Mission de déraillement accomplie.”

Malgré ses inquiétudes, Lemoine a déclaré qu’il avait l’intention de continuer à travailler sur l’IA à l’avenir. “Mon intention est de rester dans l’IA, que Google me garde ou non”, a-t-il déclaré. écrit dans un tweet.

Mise à jour le 13 juin, 6h30 HE : Mis à jour avec une déclaration supplémentaire de Google.

Leave a Comment