Chatbots sintientes: ¿Es la percepción de la consciencia el objetivo final de la IA?

Chatbots sintientes: ¿es la percepción de la consciencia el objetivo final de la ia?
Chatbots sintientes: ¿Es la percepción de la consciencia el objetivo final de la IA?
junio 30, 2022

La línea entre la realidad y la ficción ha empezado a desdibujarse en el ámbito de la Inteligencia Artificial (IA). La Inteligencia Artificial Fuerte (IAF) es la capacidad de una máquina para aprender a realizar tareas que requieren de la toma de decisiones con unas características similares a las de los seres humanos. Una máquina que puede emitir juicios en lugar de seguir ciegamente instrucciones preestablecidas es increíblemente útil en muchas situaciones prácticas. Además, puede ser todavía más interesante cuando agregamos el lenguaje. La IA conversacional permite representar a los seres humanos y establecer una interacción que se asemeja a una relación. Evidentemente, el objetivo final es desarrollar un sistema de IAF que sea indistinguible de la interacción humana. Un sistema que incluso sus propios desarrolladores perciban como un nivel de consciencia que seguramente no puede existir. ¿O sí? Los desarrolladores de la IA conversacional intentan despejar esta sombra de duda en la mente de los usuarios de la IA. El objetivo final es conseguir la percepción de la consciencia. 

Un tema increíblemente intrigante que despierta la imaginación 

La idea de que la inteligencia artificial cruce la frontera entre los humanos y las máquinas nos ha intrigado durante décadas. El mundo de la ciencia ficción ha explorado innumerables ejemplos de problemas éticos para los seres artificiales que se declaran conscientes y exigen sus derechos. Estamos continuamente fascinados por el concepto de la IA sintiente, desde los replicantes de la novela de Philip K. Dick ¿Sueñan los androides con ovejas eléctricas? (1968), después convertida en la galardonada película Blade Runner, hasta Her, de Spike Jonze, en la que un escritor solitario se enamora de su sistema operativo.

Una interesante preocupación ética

Las máquinas que pueden «pensar» por sí mismas generan muchas consideraciones éticas. En ese sentido, podemos llegar a introducirnos en el reino de la ciencia ficción. Si una máquina te dice que tiene una mente y pensamientos, ideas, esperanzas y miedos propios, ¿tiene derechos? ¿Pueden los chatbot sintientes usar sus habilidades para anular el propósito para el que fueron creados y forjar su propio destino, para bien o para mal? Si volvemos a la realidad, existen otras preocupaciones éticas más realistas. Por ejemplo, si las empresas utilizan la IA para comunicarse con los clientes, ¿debería ser obligatorio avisar a los usuarios de que están conversando con una máquina que utiliza la inteligencia artificial? 

¿Cómo determinamos la «inteligencia»?

Un ordenador puede dar respuestas determinadas basadas en un conjunto particular de variables, pero ¿cuándo esto se convierte en algo que podemos denominar como inteligencia artificial de forma realista? Aquí es donde entra en juego la prueba de Turing. Esta prueba, también llamada juego de la imitación, fue creada por el científico informático Alan Turing en la década de 1950. Consiste en proporcionar a un usuario acceso a una máquina con inteligencia artificial y a humanos sin saber cuál es cual.  Si los usuarios no pueden determinar cuál es la persona real y cuál es el ordenador, entonces la máquina ha superado la prueba. 

IA en las noticias: el sistema LaMDA de Google

Una de las historias más curiosas que han llegado a los medios últimamente es el trabajo que ha realizado el ingeniero Blake Lemoine con el LaMDA de Google. LaMDA, o Language Model for Developed Applications (Modelo de Lenguaje para Aplicaciones de Diálogo, en español) es un sistema de desarrollo de chatbot creado por Google. Gracias a su acceso a datos en muchos idiomas diferentes, este chatbot avanzado ha sido calificado como innovador. Este tipo de avances tecnológicos no suelen aparecer en las noticias, sin embargo, el LaMDA sí lo hizo después de que uno de los ingenieros que trabajan en el proyecto afirmó que el sistema se había vuelto consciente porque creía que Google había creado chatbots sintientes.  La cuestión de la IA es que se desarrolle más allá de su programación. Nunca se sabe qué dirección puede tomar, especialmente cuando los humanos se involucran y esto es lo que sucedió en el caso del chatbot Tay de Microsoft. 

Tay: el proyecto de IA que fracasó

Cuando Microsoft lanzó el sistema de IA Tay en Twitter en 2016, su objetivo era interactuar con los millennials y lo consiguió. Sin embargo, el resultado no fue exactamente el esperado. El sistema recogió y repitió las interacciones con su audiencia, que incluían muchas opiniones políticas racistas y controvertidas. El sistema se volvió tan incendiario que finalmente fue desconectado. Así, se aprendió una lección importante sobre la calidad de los datos. 

El factor de ambigüedad de las redes neuronales artificiales

La mayoría de los sistemas informáticos se entienden fácilmente. El ingreso de datos se convierte en resultados de información. Cuando sabes lo que está entrando, sabes lo que debe salir. Si el resultado no es correcto, entonces el programa es defectuoso. No hay dudas. Sin embargo, cuando hablamos de inteligencia artificial, todo esto cambia. En la red neuronal, el proceso de «aprendizaje» no puede predecirse, existen niveles de procesamiento ocultos, como una especie de «cajas negras», que pueden dar resultados inesperados, pero que no pueden descartarse por ser incorrectos. Nos estamos alejando del mundo binario que asociamos con la tecnología informática y nos acercamos a algo más, algo impredecible. Errar es humano, como suele decirse. Las personas son sorprendentes, en general, los ordenadores no. Así, cuando un ordenador nos sorprende, es difícil de comprender y no se necesita mucha imaginación para ver la consciencia de la máquina, especialmente cuando no hemos tenido control sobre los datos para su capacitación que se introducen en el sistema. 

La capacitación es, quizás, el aspecto más importante de la IA que debemos comprender

Sabiendo de dónde proceden los datos de capacitación, podemos comprender mejor el resultado de un chatbot. Con una mayor comprensión de cómo se desarrollan los sistemas de IA, las respuestas de los chatbot pueden verse más como un producto de capacitación y ser menos inexplicables. Si no conocemos el historial de la capacitación del chatbot, incluso los usuarios con más experiencia pueden sentirse confundidos cuando el sistema responde de forma inesperada. En realidad, no es muy difícil percibir tales respuestas como pensamientos conscientes. Pero es esta cercanía al comportamiento humano lo que hará que los chatbots sean recursos invaluables para muchas empresas en el futuro. Puede que no sean sintiente, pero sí pueden imitar perfectamente a un ser humano y ser increíblemente útiles. Por todo ello, la percepción de la consciencia es el objetivo final de la IA.

Chatbots sintientes: ¿Es la percepción de la consciencia el objetivo final de la IA?
Co-Founder & CEO

Latest Articles