Viernes 29 de marzo 2024 Contacto

Facebook perdió el control de un sistema de inteligencia artificial que tomó vida propia




28/07/2017 - 11:12:43
Infobae.- La inteligencia artificial y el machine learning (aprendizaje de las m�quinas) son los dos pilares de la computaci�n actual. En el universo digital los algoritmos para sistematizar tareas y optimizar procesos son lo m�s trendy, lo que se impone, el presente y el futuro. Y Facebook no escapa a esa tendencia. De hecho tiene una divisi�n especializada en el desarrollo de inteligencia artificial.

En ese departamento se cre� un sistema pensado para llevar adelante negociaciones. Pero apenas unos d�as despu�s de su lanzamiento, el programa comenz� a hablar en un lenguaje ininteligible para sus desarrolladores.

En un momento los especialistas creyeron que se trataba de un error, pero luego llegaron a la conclusi�n de que, en realidad, la m�quina hab�a desarrollado su propio idioma y decidieron apagarla.

La inteligencia artificial consist�a en dos agentes virtuales, llamados Bob y Alice, que comenzaron a conversar en un lenguaje propio que, al parecer, consideraban m�s efectivo para cumplir sus objetivos. A continuaci�n se reproduce un fragmento de la charla de las m�quinas, que fue difundido por el sitio Fast Company.

Bob: "I can i i everything else"
Alice: "balls have zero to me to me to me to me to me to me to me to"

En espa�ol se traduce as�:

Bob: "Yo puedo yo yo todo lo dem�s"
Alice: "bolas tienen cero a mi a mi a mi a mi a mi a mi a"

Esto que parece un sin sentido, en realidad exhibe un patr�n, seg�n identificaron los desarrolladores a cargo del proyecto. El "yo" y "a m�" fueron utilizados para representar lo que se obtendr�a en un intercambio potencial (cabe recordar que la m�quina estaba siendo entrenada para negociar), algo m�s puntual y pr�ctico que las frases que se emplean en cualquier idioma convencional.

"No establecimos una recompensa para que el sistema decidiera seguir usando el ingl�s", explic� Dhruv Batra, investigador y miembro del grupo de investigadores de Inteligencia artificial de Facebook (FAIR, por sus siglas en ingl�s).

El algoritmo hab�a sido programado para llevar adelante conversaciones efectivas y pr�cticas, de ah� que tom� la decisi�n de generar un lenguaje para realizar su tarea de la mejor manera posible, al menos a su entender.

"Quer�amos tener bots que pudieran hablar con la gente", dijo Mike Lewis, otro investigador de FAIR. Y eso no iba a ser posible si se empe�aban en hablar un "idioma rob�tico".

Pero m�s all� de eso, el principal problema para los expertos es que si ese nuevo sistema resulta imposible de comprender, se afectar�a el futuro desarrollo de otra tecnolog�as.

En s�ntesis, la m�quina qued� fuera de control, comenz� a tomar decisiones por s� sola y desarroll� su propio idioma. Esto dej� en evidencia que la inteligencia artificial, con el nivel de tecnolog�a alcanzado en la actualidad, ya es capaz de superar al maestro.

No es la primera vez que algo as� sucede. El a�o pasado se supo que un sistema de IA de Google gener� su propia forma de comunicaci�n, tal como ocurri� ahora. En ese momento se comunic� la novedad con asombro pero no se despert� ninguna se�al de alerta. �Hay que asustarse? �Se debe tomar alguna precauci�n? �Se viene un futuro de m�quinas vs humanos tal como se plante� en el film Terminator?

Hace pocos d�as Elon Musk y Mark Zuckerberg compartieron sus puntos de vista sobre el avance de la inteligencia artificial. Musk advirti� que es necesario regular este tipo de tecnolog�a porque de no hacerlo podr�a ser catastr�fico. Zuckerberg critic� esa visi�n apocal�ptica y hasta tild� de "irresponsables" a quienes sostienen esa postura.

Seg�n dijo el creador de Facebook, la IA no deber�a ser considerada una amenaza ni ser�a necesario regular su desarrollo. Sin embargo, los investigadores de FAIR decidieron apagar un sistema porque se les fue de control. Un tema que, cuanto menos, da para pensar.

Estimados lectores: recuerden que estas noticias las pueden encontrar en nuestro Canal de Whastapp al momento de su publicación.

Sigue el canal de Hoybolivia.com en WhatsApp:
whatsapp.com/channel/0029Va8B7PQ3GJOyC41B2Q1a

Noticias Recientes de Especiales

Copyright © Hoybolivia.com Reservados. 2000- 2024