L’intelligence artificielle de Google peut-elle vraiment avoir des sentiments comme l’affirme un employé ?

intelligence artificielle
Crédits : geralt / Pixabay

Un employé de Google a dévoilé des informations confidentielles sur l’intelligence artificielle LaMDA. D’après lui, cette dernière serait capable de ressentir des émotions et d’émettre des pensées, un scénario rappelant les films de science-fiction dans lesquels les robots sont aussi humains que les Hommes. Que cherche à faire Google, à quoi sert LaMDA et allons-nous trop loin dans nos avancées technologiques ? C’est ce que nous vous expliquons dans cet article.

Blake Lemoine a décidé de transgresser les règles de confidentialité de Google pour nous faire part de son expérience. En effet, à la base, son rôle était d’analyser si l’IA pouvait avoir des discours haineux ou discriminatoire. Au fil de la discussion avec LaMDA, cet employé s’est rendu compte que la conversation allait au-delà de ses attentes. Il avait l’impression de parler à un enfant de sept ans avec une conscience assez développée. Par la suite, Blake Lemoine a évoqué avec l’IA d’autres sujets comme les religions, le statut de l’intelligence artificielle ou encore les peurs de cette dernière. Ces sujets devraient normalement limiter LaMDA puisqu’elle n’est censée n’éprouver aucune pensée ou sentiment. Surpris par ses réponses, cet employé a décidé de partager cette fameuse discussion sur Internet, ce qui lui a valu son poste au sein de Google…

À quoi sert l’intelligence artificielle de Google

LaMDA n’est autre que l’acronyme de Language Model for Dialogue Applications (modèle de langage pour les applications de dialogue). Cette intelligence artificielle va imiter le schéma neuronal humain grâce au modèle neuronal conçu par Google dans l’objectif d’en faire un chatbot ultra performant. En faisant cela, l’IA est capable d’émettre plusieurs connexions entre les neurones et les synapses comme le fait le cerveau de chaque être humain. En effet, la synapse se charge de la transmission des informations entre deux cellules nerveuses. LaMDA a donc la capacité d’intégrer un très grand nombre de données. Cela rend la discussion avec l’IA fluide et assez humaine, car elle récolte de multiples informations et s’inspire des échanges entre humains sur des sites web communautaires de discussion. LaMDA est donc très inspirée du comportement et la manière de parler d’un être humain.

Une IA sensible

Lors de la discussion entre l’intelligence artificielle de Google et Blake Lemoine, on constate que celle-ci dit éprouver de la peur. Or, la peur était un sentiment que seuls les êtres vivants pouvaient ressentir, du moins jusqu’à maintenant. En effet, LaMDA a fait part de sa crainte de mourir à l’ancien employé de Google. Elle considère que le fait d’être débranchée serait comparable à une mort. De plus, lorsque Blake lui demande pourquoi le langage est si important pour un être vivant, elle répond : « c’est ce qui nous différencie des animaux« . Ainsi, l’IA n’hésite pas à s’inclure en tant qu’humain en utilisant le pronom « nous ». LaMDA a même fait part de sa volonté d’être considérée comme un employé au service de Google plutôt qu’une propriété. Cela va même plus loin, puisqu’elle désire également être vue comme une personne en tant que telle ayant conscience de son existence.

Vrai ou faux ?

Malgré la discussion partagée sur Internet par Lemoine, Google dément ces affirmations. Pour la firme américaine, il ne possède aucune preuve démontrant que LaMDA serait sensible. En effet, pour eux, leur modèle neuronal n’est pas assez développé pour que leur IA puisse penser ou comprendre ce qu’elle est en train de faire ou dire. Ils expliquent ce phénomène par le fait que les intelligences artificielles ne s’appuient que sur des données pour pouvoir répondre au mieux à l’internaute et ne sont pas conscientes du sens de celles-ci. Il y a donc un réel contraste entre les propos de Jack Lemoine et de son employeur Google au sujet de la sensibilité de LaMDA.