¿Cuánto debería preocuparnos la estupidez artificial?
04/11/2017 - 09:42:06
BBC.- Los "optimistas" y los "pesimistas" de la inteligencia artificial est�n enfrentados en un intenso debate.
Stephen Hawkingy otros reconocidos cient�ficos y tecn�logos en todo el mundo llevan tiempo advirtiendo de una posible cat�strofe: que la inteligencia artificial se vuelva demasiado inteligente e incluso llegue a convertirse en "una amenaza para la raza humana".
"Los humanos, que somos seres limitados por su lenta evoluci�n biol�gica, no podremos competir con las m�quinas, y seremos superados", dijo el f�sico te�rico.
Seg�n Hawking, "el desarrollo de una completa inteligencia artificial podr�a traducirse en el fin de la raza humana".
Stephen Hawking: "La inteligencia artificial augura el fin de la raza humana"
Pero quienes niegan esta idea aseguran que es exagerada y que lo que realmente deber�a preocuparnos, m�s que la inteligencia artificial, es la "estupidez artificial".
Una de las voces en contra m�s prominentes es la del ingeniero y especialista en �tica rob�tica Alan Winfield, quien trabaja en el Laboratorio de Rob�tica de Bristol, en Reino Unido.
"Encuentro las afirmaciones de Hawking profundamente in�tiles", explic� el especialista en una entrevista con le programa Hardtalk de la BBC.
"El problema no es inevitable. Hawking habla de una probabilidad muy peque�a basada en una serie de eventos que tendr�an que suceder uno detr�s de otro para que eso se diera", dijo Winfield.
"La inteligencia artificial no es muy inteligente. M�s bien deber�amos preocuparnos por la estupidez artificial", asegur�.
Pero �a qu� se refiere con "estupidez artificial"?
"Miedo y fascinaci�n"
Hawking se implic� por primera vez en este debate en el a�o 2014.
Pero desde entonces, varias compa��as tecnol�gicas han puesto en pr�ctica medidas de prevenci�n.
En enero de este a�o, varios empresarios financiaron un Fondo para la �tica y Gobierno de la Inteligencia Artificial apoyado por prestigiosas instituciones estadounidenses, como la Fundaci�n Knight o la Universidad de Harvard.
El creador de LinkedIn, Reid Hoffman, el fundador de eBay Pierre Omidyar, y director del Media Lab del MIT (el Instituto de Tecnolog�a de Massachusetts), Joichi Ito, fueron algunos de los nombres destacados en ese proyecto.
Los multimillonarios de la tecnolog�a que quieren �protegernos� de la inteligencia artificial
Tambi�n este a�o -el pasado septiembre- hubo una colaboraci�n entre Facebook, Google, Microsoft, Amazon y otros gigantes tecnol�gicos para garantizar "mejores pr�cticas" de la inteligencia artificial.
Y Google incluso patent� un "bot�n rojo" para apagarla en caso de peligro extremo.
El bot�n que patent� Google para apagar toda la inteligencia artificial si amenaza a los seres humanos
Sin embargo, Winfield considera que estas actitudes han ido demasiado lejos.
Es una combinaci�n de miedo fascinaci�n, por eso nos encanta la ciencia ficci�n
Alan Winfiel, ingeniero y especialista en �tica rob�tica
"Nos estamos preocupando sobre un suceso altamente extraordinario de explosi�n inteligente", explic� el cient�fico, quien sostiene que la fascinaci�n por la ciencia ficci�n increment� los temores de muchos.
"Es una combinaci�n de miedo con fascinaci�n, por eso nos encanta la ciencia ficci�n", asegur�.
Escenario irreal
Winfield dice que el escenario que plantea Hawking es irreal.
Y defiende que hay "muchas otras cosas" por las que deber�amos preocuparnos en estos momentos y que conciernen a las �reas en las que debe mejorar la inteligencia artificial.
"Trabajos, militarizaci�n, est�ndares en autos que se manejan solos, en robots, en diagn�sticos m�dicos... ese tipo de cosas s� son problemas actuales (de la inteligencia artificial)", declar� el eticista.
De acuerdo con Winfield, uno de los problemas filos�ficos de la inteligencia artificial es que es muy dif�cil definirla porque no tenemos una definici�n satisfactoria de inteligencia natural".
"Hacer lo correcto en el momento adecuado es una definici�n de inteligencia", explica. "Pero eso no sirve de mucha ayuda, desde un punto de vista cient�fico".
Las habilidades en las que vale la pena invertir (porque nunca podr�n ser delegadas a los robots)
El experto en rob�tica dice que uno de los aspectos claves de la inteligencia artificial es que lo que cre�amos muy dif�cil que ocurriera hace 60 a�os -como que las m�quinas compitan en ajedrez contra los humanos-result� ser relativamente f�cil".
"Sin embargo, lo que pensamos que ser�a muy f�cil ha resultado ser enormemente dif�cil". Y menciona aspectos como el hecho de que haya que supervisarlas para hacer ciertos trabajos, pues esas m�quinas son incapaces de pensar, como s� lo es el cerebro humano.
Alan Bundy, profesor de razonamiento automatizado en la Universidad de Edimburgo en Escocia, Reino Unido, coincide con Winfield.
Bundy dijo que los grandes �xitos en el desarrollo de la inteligencia artificial en los �ltimos a�os fueron extremadamente limitados.
�En qu� tenemos que avanzar entonces?
Para Winfield, es fundamental que desarrollemos m�s la parte te�rica -pues la que existe hoy d�a no est� unificada- y hacer innovaciones e investigaciones �ticamente responsables.
Pero, por lo pronto, el debate contin�a.