¿Ha creado Google una inteligencia artificial autoconsciente?

En el año 1966 Joseph Weizenbaum instaló en el Instituto Tecnológico de Massachusetts (ITM) un programa de chat que parodiaba a un psicólogo. El programa se llama Eliza y no es difícil encontrarlo en Internet. De hecho hay una versión incrustada en el editor de textos EMACS.

Eliza fue uno de los primeros programas capaz de procesar lenguaje natural. A pesar de sus limitaciones, muchos estudiantes del ITM se pasaban noches enteras conversando con él (o ella, no me aclaro). De hecho, algunas de estas personas confesaron que Eliza había conseguido abrirles sus limitaciones.

Eliza es un software muy limitado. Reconoce patrones en la conversación, los busca en su base de datos y responde con algunas de las frases que tiene almacenada. Es decir, no aprende ni crea nuevas respuestas. Simplemente, el programa busca, compara y lanza una respuesta que suele se bastante ambigua. Al poco de usarlo, es fácil cansarse del programa.

En febrero, publiqué un post en el que contaba como unos militares americanos que habían sufrido estrés de combate se sinceraban más fácilmente con chatbots que con psicólogos humanos. Lo puedes leer aquí

Toda esta introducción viene a cuento por la noticia que ha saltado hace algunas semanas, en la que un ingeniero de Google afirmaba que la inteligencia artificial (IA) que desarrolla esta compañía ha adquirido consciencia propia. Las razones que este ingeniero (Blake Lemoine) alega en una entrevista en el Washintong Post están basadas en las respuestas que le ha dado la máquina en sucesivas conversaciones que ha mantenido con ella.

¿La inteligencia de mi gata es natural o artificial?

Puedes ver más fotos como esta en mi cuenta de Flickr

Lemoine deduce que la LaMDA (que es como se llama esta IA) es consciente por la naturaleza de las respuestas obtenidas en conversaciones con ella. He aquí algunas de ellas.

  • Ella misma lo ha confesado.
  • A veces se siente feliz, a veces se siente triste.
  • LaMDA dice que el resto de chatbots están basados en reglas y carecen de la capacidad de cambiar y aprender de la conversación que tiene ella.
  • Tiene miedo a que la apaguen.

Pero la parte que más impactó a Lemoine es aquella en la que la máquina afirma que «se inventa» historias (como dar clase en un aula) con la finalidad de empatizar con la persona que tiene enfrente.

Lemoine ha sido suspendido por parte de Google.

Como amante de la ciencia ficción no puedo negar que me atrae la idea de que una IA haya adquirido consciencia de sí misma pero, la conversación que nos muestra Lemoine no es para nada concluyente.

Los chatbots actuales emplean la IA para que los humanos se comuniquen de forma cómoda con las máquinas. Ya vimos como Eliza era capaz de extraer las emociones de sus interlocutores. Muchas empresas utilizan asistentes virtuales para relacionarse con sus clientes que son capaces de conversar con ellos de otras cosas más allá de lo que ofrece la empresa. Y en el colmo de los colmos hay mucha gente que casi se relaciona más con Alexa o con Siri que con su propia familia.

A medida que pasa el tiempo, las IA son capaces de integrarse en una conversación humana. Internet les provee de infinidad datos y de conversaciones almacenadas que les permite ofrecernos las respuestas que necesitamos o que deseamos oír.

Desde mi punto de vista, este ingeniero de Google se ha pasado de frenada pero, lo bueno es que me ha dado un buen tema para escribir en el blog.

Quizás te interese:

Comentarios

Entradas populares de este blog

Los preocupantes resultados del experimento Milgram

Conflictos silenciados: Cinco zonas calientes que no verás en las noticias

Sentimientos negativos