La sorprendente y poco conocida historia de Eliza, el primer bot conversacional de la historia
04/06/2018 - 14:12:41
BBC.- �A qu� hora cierra el supermercado m�s cercano? �Hace falta salir hoy con paraguas? �Qu� pel�culas de acci�n est�n dando ahora en el cine?
Puede que est�s acostumbrado a hacerle a tu asistente de voz este tipo de preguntas para evitar investigar las respuestas t� solo.
Sin embargo, aunque conversar con una m�quina pueda parecer un avance relativamente reciente, te sorprender� saber que el primer bot conversacional (o chatbot), es decir, el primer programa dise�ado para responder de forma autom�tica y coherente lo que sea que le preguntemos, fue inventado hace m�s de 50 a�os.
Al igual que Siri, Alexa, Echo, Cortana y otros asistentes digitales, este primer programa conversacional de inteligencia artificial ten�a nombre de mujer.
Se llamaba Eliza, en honor al personaje Elsa Doolittle de la obra Pigmali�n, del dramaturgo irland�s George Bernard Shaw, que con ayuda de un profesor se transforma en seis meses de una vendedora callejera a una dama de la alta sociedad.
Eliza, la psic�loga
Fue idea de Joseph Weizenbaum, un profesor de inform�tica del Instituto Tecnol�gico de Massachusetts (MIT, por sus siglas en ingl�s), que quer�a hacer una parodia de las preguntas que hac�an los psicoterapeutas que segu�an los lineamientos del psic�logo Carl Rogers, creador de la llamada "terapia centrada en el cliente".
La idea de Weizenbaum era que Eliza conversara (de forma escrita) con su interlocutor de modo tal que diera la sensaci�n de que lo estaba escuchando y de que empatizaba con sus problemas e inquietudes.
Con ello, quer�a demostrar cu�n superficial pod�a ser la comunicaci�n entre el hombre y la m�quina.
T�cnica
Para lograr una conversaci�n no rob�tica, lo m�s semejante posible a un di�logo entre dos seres humanos, Eliza se val�a de varios recursos.
Uno de sus secretos era reconocer palabras clave, para luego hacer preguntas referidas a dicho tema.
Por ejemplo, cuando el interlocutor mencionaba en su discurso la palabra padre o madre, Eliza reconoc�a que estaba hablando sobre la familia y luego hac�a preguntas relacionadas con esa cuesti�n.
Tambi�n ten�a almacenadas frases hechas sobre una variedad de temas, que utilizaba al reconocer palabras clave, as� como frases emp�ticas y de continuidad.
Estas �ltimas �como por ejemplo: h�blame m�s de eso, contin�a, etc.� siempre resultaban �tiles para dar la sensaci�n de estar mostrando inter�s y hacer que el sujeto continuara hablando como si estuviese manteniendo una conversaci�n real.
Si Eliza no encontraba palabras asociadas en su base de datos, echaba mano de frases como �Por qu� dices eso? o �Est�s seguro? y otras combinaciones de palabras similares.
Y, al igual que hacen muchos psicoterapeutas, daba vuelta la frase que uno le dec�a y la repet�a, transform�ndola en una pregunta.
Este es un ejemplo de un di�logo con Eliza:
Eliza: Soy la psicoterapeuta. Por favor, descr�beme tus problemas. Cada vez que termines de hablar, escribe RET dos veces.
Interlocutor: Soy infeliz.
Eliza: �Te sientes infeliz con frecuencia?
Interlocutor: S�.
Elisa: �Puedes desarrollarlo m�s?
Interlocutor: Demasiado trabajo.
Elisa: �Por qu� dices mucho trabajo?
Interlocutor: Estoy trabajando demasiado.
Elisa: Antes dijiste que te sent�as infeliz.
Interlocutor: S�.
Elisa: Me gustar�a que contin�es hablando.
Limitaciones
El programa, no obstante, ten�a sus limitaciones.
A�n as�, y aunque Weizenbaum explic� c�mo el programa funcionaba para dar con las respuestas adecuadas, se llev� una gran sorpresa cuando not� que los usuarios asum�an que Eliza los comprend�a.
Algunos llegaban incluso a contarle al programa sus problemas e intimidades.
10 a�os despu�s, el inform�tico volc� sus experiencias con Eliza en un libro, Computer Power and Human Reason (El poder de las computadoras y la raz�n humana, en castellano), en el que plasm� su ambivalencia sobre esta tecnolog�a y donde dej� en claro que nunca deber�amos darle a las computadoras el poder de tomar decisiones importantes, ya que carec�an de cualidades humanas fundamentales como la compasi�n y la sabidur�a.
Sus primeros intentos fueron seguidos m�s tarde por otros experimentos destinados a humanizar a las computadoras.