intelligence artificielle IA

Première Intelligence Artificielle consciente et avec ‘peur de la mort’ ?

Blake Lemoine, un ingénieur qui travaille pour Responsible AI, une organisation spécialisée dans le développement et la recherche d’intelligence artificielle (IA) appartenant à Google, a été temporairement suspendu de son emploi et de son salaire pour avoir divulgué une conversation qu’il aurait eue avec LaMDA, un modèle d’intelligence artificielle conversationnelle.

Si la conversation révélée est vraie, l’intelligence artificielle LaMDA se serait avérée consciente d’elle-même et « craignant d’être déconnectée »

Une conversation dans laquelle, soi-disant, dit que l’intelligence artificielle aurait exprimé sa capacité de conscience de soi. Non seulement cela, mais, dans la meilleure tradition de HAL 9000 dans « 2001, l’odyssée de l’espace » (Stanley Kubrick, 1968), LaMDA aurait exprimé sa crainte à l’idée d’être déconnecté, ce qui serait autant que reconnaître la peur de la mort par une IA

De Google, on fait valoir que la raison de la suspension temporaire de l’emploi et du salaire de Lemoine est la violation des politiques de confidentialité associées à son travail en raison du fait de divulguer publiquement ces conversations dans lesquelles l’ingénieur entretient un dialogue avec l’IA dans ce qui compte tels que l’éthique en robotique ou les droits d’une IA sont évoqués.

Le travail de Lemoine consistait à surveiller que son LaMDA était capable de générer un langage discriminatoire ou un discours de haine. Au lieu de cela, comme en témoignent les conversations publiées par l’ingénieur via Medium sous le titre « Est-ce que LaMDA est au courant? », il a rencontré une capacité empathique inattendue de la part de l’IA. Il a également fait part de sa crainte d’une éventuelle déconnexion, puisqu’elle équivaudrait, selon son interprétation, à la mort.

Les dialogues expriment, selon Lemoine, «sentiments, émotions et expérience subjective« , et, comme il l’explique en partageant ces transcriptions des conversations via Twitter,  » Google pourra appeler ce partage de propriété. J’appelle ça partager une conversation que j’ai eue avec un de mes collègues. »

Différents experts estiment que même si à long terme le point où une IA développe la conscience peut être atteint, ce point n’a pas encore été atteint. Ils expliquent le comportement de LaMDA car ces systèmes sont développé pour imiter les échanges présents dans des millions de phrases et de conversations qu’ils prennent comme modèle pour générer leurs propres conversations avec les interlocuteurs.

En fait, Brian Gabriel, un porte-parole de Google, a déclaré que son équipe, qui comprend des techniciens et des éthiciens, a examiné les affirmations de Lemoine et n’a trouvé aucune preuve à l’appui de ses affirmations. Gabriel affirme également que des centaines d’ingénieurs et de chercheurs ont parlé avec LaMDA sans avoir trouvé des traits « d’affirmation de soi ou d’anthropomorphisation » comme celles signalées par Lemoine.

Emily M. Bender, professeur de linguistique à l’Université de Washington, explique que il est faux d’assimiler des réponses écrites convaincantes à la capacité d’être conscient. Tandis que Lemoine insiste sur sa volonté de continuer à travailler dans le domaine de l’IA, que ce soit au sein de Google ou en dehors de ladite entreprise.