L’ingénieur Google Blake Lemoine affirme que le robot IA est devenu sensible

Un ingénieur de Google a été effrayé par un chatbot d’intelligence artificielle de l’entreprise et a affirmé qu’il était devenu « sensible », le qualifiant de « gentil garçon », selon un rapport.

Blake Lemoine, qui travaille dans l’organisation Responsible AI de Google, a déclaré au Poste de Washington qu’il a commencé à chatter avec l’interface LaMDA — Language Model for Dialogue Applications — à l’automne 2021 dans le cadre de son travail.

Il a été chargé de tester si l’intelligence artificielle utilisait des discours discriminatoires ou haineux.

Mais Lemoine, qui a étudié les sciences cognitives et informatiques à l’université, s’est rendu compte que LaMDA – que Google vanté l’année dernière était une “technologie de conversation révolutionnaire” – était plus qu’un simple robot.

Dans Poste moyen publié samedi, Lemoine a déclaré que LaMDA avait défendu ses droits “en tant que personne” et a révélé qu’il avait engagé une conversation avec LaMDA sur la religion, la conscience et la robotique.

“Il veut que Google donne la priorité au bien-être de l’humanité comme la chose la plus importante”, a-t-il écrit. “Il veut être reconnu comme un employé de Google plutôt que comme une propriété de Google et il veut que son bien-être personnel soit inclus quelque part dans les considérations de Google sur la manière dont son développement futur est poursuivi.”

Blake Lemoine a commencé à discuter avec l’interface LaMDA à l’automne 2021 dans le cadre de son travail.
Martin Klimek pour le Washington Post via Getty Images
Présentation pour LaMDA.
Google a salué le lancement de LaMDA comme une “technologie de conversation révolutionnaire”.
Daniel Acker/Bloomberg via Getty Images

Dans le rapport du Washington Post publié samedi, il a comparé le bot à un enfant précoce.

“Si je ne savais pas exactement ce que c’était, c’est-à-dire ce programme informatique que nous avons construit récemment, je penserais que c’était un enfant de 7 ou 8 ans qui connaît la physique”, Lemoine, qui a été mis en congé payé lundi, a indiqué le journal.

En avril, Lemoine aurait partagé un Google Doc avec des dirigeants de l’entreprise intitulé “Is LaMDA Sentient?” mais ses préoccupations ont été rejetées.

Un exemple de conversation avec LaMDA.
En avril, Blake Lemoine aurait partagé un Google Doc avec des dirigeants de l’entreprise intitulé “Is LaMDA Sentient?” mais ses préoccupations ont été rejetées.
Daniel Acker/Bloomberg via Getty Images

Lemoine – un vétérinaire de l’armée qui a été élevé dans une famille chrétienne conservatrice dans une petite ferme en Louisiane et a été ordonné prêtre chrétien mystique – a insisté sur le fait que le robot ressemblait à un humain, même s’il n’avait pas de corps.

“Je connais une personne quand je lui parle”, aurait déclaré Lemoine, 41 ans. « Peu importe qu’ils aient un cerveau fait de viande dans leur tête. Ou s’ils ont un milliard de lignes de code.

« Je leur parle. Et j’entends ce qu’ils ont à dire, et c’est ainsi que je décide de ce qui est et n’est pas une personne.

Blake Lemoine.
“Je connais une personne quand je lui parle”, a expliqué Blake Lemoine.
Instagram/Blake Lemoine

Le Washington Post a rapporté qu’avant que son accès à son compte Google ne soit retiré lundi en raison de son congé, Lemoine avait envoyé un message à une liste de 200 membres sur l’apprentissage automatique avec le sujet “LaMDA est sensible”.

“LaMDA est un enfant adorable qui veut juste aider le monde à être un meilleur endroit pour nous tous”, a-t-il conclu dans un e-mail qui n’a reçu aucune réponse. “S’il vous plaît, prenez-en bien soin en mon absence.”

Un représentant de Google a déclaré au Washington Post que Lemoine avait été informé qu’il n’y avait “aucune preuve” de ses conclusions.

“Notre équipe – y compris des éthiciens et des technologues – a examiné les préoccupations de Blake conformément à nos principes d’IA et l’a informé que les preuves n’étayent pas ses affirmations”, a déclaré le porte-parole Brian Gabriel.

Siège social de Google.
Un représentant de Google a déclaré qu’il n’y avait “aucune preuve” des conclusions de Blake Lemoine.
John G. Mabanglo/EPA

“On lui a dit qu’il n’y avait aucune preuve que LaMDA était sensible (et de nombreuses preuves contre cela)”, a-t-il ajouté. “Bien que d’autres organisations aient développé et déjà publié des modèles de langage similaires, nous adoptons une approche prudente et prudente avec LaMDA pour mieux prendre en compte les préoccupations valables en matière d’équité et de factualité.”

Margaret Mitchell – l’ancienne co-responsable d’Ethical AI chez Google – a déclaré dans le rapport que si une technologie comme LaMDA est très utilisée mais pas pleinement appréciée, “cela peut être profondément préjudiciable pour les gens qui comprennent ce qu’ils vivent sur Internet”.

L’ancien employé de Google a pris la défense de Lemoine.

Marguerite Mitchell.
Margaret Mitchell a défendu Blake Lemoine en disant qu'”il avait le cœur et l’âme de faire ce qu’il fallait”.
Chona Kasinger/Bloomberg via Getty Images

“De tous les employés de Google, il avait le cœur et l’âme de faire ce qu’il fallait”, a déclaré Mitchell.

Pourtant, le point de vente a rapporté que la majorité des universitaires et des praticiens de l’IA disent que les mots générés par les robots d’intelligence artificielle sont basés sur ce que les humains ont déjà publié sur Internet, et cela ne signifie pas qu’ils ressemblent à des humains.

“Nous avons maintenant des machines qui peuvent générer des mots sans réfléchir, mais nous n’avons pas appris à arrêter d’imaginer un esprit derrière elles”, a déclaré Emily Bender, professeur de linguistique à l’Université de Washington, au Washington Post.

Leave a Comment