Chatbots sentients : la perception de la conscience est-elle l’objectif ultime de l’IA ?

Chatbots sentients : la perception de la conscience est-elle l’objectif ultime de l’ia?
Chatbots sentients : la perception de la conscience est-elle l’objectif ultime de l’IA ?
juin 30, 2022

La frontière entre la réalité et la fiction peut facilement devenir floue lorsqu’il s’agit d’Intelligence Artificielle (IA). L’Intelligence Générale Artificielle (AGI) est la capacité d’une machine à apprendre jusqu’à atteindre un niveau où elle peut accomplir des tâches qui nécessitent de prendre des décisions, d’une qualité similaire à celle des êtres humains.

Une machine capable de porter des jugements plutôt que de suivre aveuglément des instructions prédéfinies est bien sûr incroyablement utile dans de nombreux contextes pratiques. Mais celà devient encore plus intrigant lorsque nous ajoutons du langage.

L’IA conversationnelle nous rapproche d’une représentation de nous-mêmes et d’une interaction qui s’apparente à l’établissement d’une relation. Bien sûr, le but ultime est de développer un système AGI qui ne se distingue pas de l’interaction humaine. Un système dont peut-être même ses propres développeurs perçoivent un niveau de sensibilité qui ne peut sûrement pas exister. Ou peut-il?

C’est cette ombre de doute dans l’esprit des utilisateurs que les développeurs d’IA recherchent lorsqu’il s’agit d’IA conversationnelle. Ce but ultime de la conscience perçue.

Un thème sans cesse intrigant qui fait rêver

L’idée que l’intelligence artificielle franchisse la frontière entre les humains et les machines nous intrigue depuis des décennies. Le monde de la science-fiction explore d’innombrables exemples de problèmes éthiques pour des êtres artificiels qui se déclarent sentients et revendiquent leurs droits. Des réplicants du roman de Philip K. Dick de 1968 Do Androids Dream of Electric Sheep ?, plus tard adapté au film primé Blade Runner, à Spike Jonze’s Her, où un écrivain solitaire tombe amoureux de son système d’exploitation, nous sommes continuellement fascinés par le concept d’IA sentient.

Une préoccupation éthique intéressante

Les machines capables de « penser » par elles-mêmes suscitent de nombreuses considérations éthiques. Bien sûr, nous avons ceux qui atteignent les domaines de la science-fiction. Si une machine vous dit qu’elle a un esprit, qu’elle a des pensées individuelles, des idées, des espoirs et des peurs, a-t-elle alors des droits ? Ou les chatbots sentients pourraient-ils utiliser leurs capacités pour passer outre le but pour lequel ils ont été créés et forger leur propre avenir, pour le bien ou pour le mal ? Pour revenir plus près de la réalité, nous avons d’autres préoccupations éthiques plus réalistes. Par exemple, si l’IA est utilisée par les entreprises pour communiquer avec les clients, faut-il obligatoirement informer les utilisateurs qu’ils conversent bien avec l’intelligence artificielle ?

Comment déterminons-nous «l’intelligence»?

Un ordinateur peut donner des réponses déterminées par un ensemble particulier de variables, mais quand cela devient-il quelque chose que nous pouvons appeler de manière réaliste l’intelligence artificielle ? C’est là que le test de Turing entre en jeu. Créé par l’informaticien Alan Turing dans les années 1950, ce test, également appelé “The Imitation Game”, donne à un utilisateur un accès aveugle à une machine artificiellement intelligente, aux côtés d’êtres humains. Si les utilisateurs ne peuvent pas déterminer quelle est la personne réelle et quelle est la machine, alors la machine a réussi le test.

L’IA dans l’actualité – le système LaMDA de Google

L’une des histoires les plus curieuses à avoir été diffusée dans les médias ces derniers temps est celle de l’ingénieur Google Blake Lemoine et de son travail avec Google LaMDA. LaMDA, ou Language Model for Developed Applications, est un système de développement de chatbot créé par Google. Avec un accès aux données dans de nombreuses langues différentes, ce chatbot avancé a été qualifié de révolutionnaire. De telles avancées technologiques ne font généralement pas l’actualité grand public, cependant, LaMDA l’a certainement fait, lorsqu’un des ingénieurs travaillant sur le projet a proclamé que le système était devenu conscient, croyant vraiment que Google avait créé des chatbots sentients. Le problème avec l’IA, c’est qu’elle se développe au-delà de sa programmation. Vous ne savez jamais vraiment quelle direction cela peut prendre, en particulier lorsque les humains sont impliqués, et c’était certainement le cas avec le chatbot Tay de Microsoft.

Tay – le projet d’IA qui a échoué

Lorsque Microsoft a lancé son système Tay AI sur Twitter en 2016, il espérait s’engager auprès de la génération Y, et c’est certainement ce qu’il a fait. Cependant, le résultat n’était pas tout à fait ce qu’il avait espéré. Le système a repris et répété les interactions avec son public, qui comprenait de nombreuses opinions politiques racistes et controversées. Le système est devenu si incendiaire qu’il a finalement été mis hors ligne et une leçon importante concernant la qualité des données a été apprise.

Le facteur d’ambiguïté des réseaux de neurones artificiels

La plupart des systèmes informatiques sont faciles à comprendre. L’entrée se transforme en sortie. Lorsque vous savez ce qui est entré, vous savez ce qui doit être sorti. Si la sortie est incorrecte, le programme est défectueux. Il n’y a pas de zone grise. Cependant, lorsqu’il s’agit d’intelligence artificielle, tout cela change. C’est le réseau de neurones, le processus « d’apprentissage » qui ne peut être prédit, avec des niveaux cachés de « boîte noire » de traitement qui peuvent donner des résultats inattendus, mais qui ne peuvent être rejetés comme étant faux. Nous nous éloignons du monde binaire que nous associons sans aucun doute à la technologie informatique, vers quelque chose d’autre, quelque chose d’imprévisible. L’erreur est humaine comme on dit. Les gens sont surprenants, en général, les ordinateurs ne le sont pas. Et donc, quand un ordinateur nous surprend, c’est difficile à comprendre, et c’est facile de croire à la sensibilité de la machine, en particulier lorsque nous n’avons pas eu le contrôle des données d’entraînement introduites dans le système.

L’apprentissage est peut-être l’aspect le plus vital de l’IA que nous devons comprendre

En sachant d’où proviennent les données d’apprentissage, nous pouvons alors mieux comprendre la réaction d’un chatbot. Avec une meilleure compréhension de la façon dont les systèmes d’IA sont développés, les réponses des chatbots peuvent être considérées comme le produit de l’apprentissage et plus prévisibles. Sans connaître l’historique de l’apprentissage d’un chatbot, même les utilisateurs de chatbot très expérimentés peuvent devenir confus lorsqu’un système répond de manière inattendue. En fait, il ne faut pas faire un si grand saut pour percevoir de telles réponses comme des pensées conscientes. Mais c’est cette proximité avec le comportement humain qui fera des chatbots des ressources inestimables pour de nombreuses entreprises à l’avenir. Ils ne sont peut-être pas sentients, mais s’ils peuvent parfaitement imiter un être humain, ils peuvent être incroyablement utiles, et c’est pourquoi la perception de la conscience est le but ultime de l’IA.

Chatbots sentients : la perception de la conscience est-elle l’objectif ultime de l’IA ?
Co-Founder & CEO

Latest Articles