Mi�rcoles 17 de abril 2024 Contacto

¿Cuánto debería preocuparnos la estupidez artificial?




04/11/2017 - 09:42:06
BBC.- Los "optimistas" y los "pesimistas" de la inteligencia artificial est�n enfrentados en un intenso debate.

Stephen Hawkingy otros reconocidos cient�ficos y tecn�logos en todo el mundo llevan tiempo advirtiendo de una posible cat�strofe: que la inteligencia artificial se vuelva demasiado inteligente e incluso llegue a convertirse en "una amenaza para la raza humana".

"Los humanos, que somos seres limitados por su lenta evoluci�n biol�gica, no podremos competir con las m�quinas, y seremos superados", dijo el f�sico te�rico.

Seg�n Hawking, "el desarrollo de una completa inteligencia artificial podr�a traducirse en el fin de la raza humana".

Stephen Hawking: "La inteligencia artificial augura el fin de la raza humana"

Pero quienes niegan esta idea aseguran que es exagerada y que lo que realmente deber�a preocuparnos, m�s que la inteligencia artificial, es la "estupidez artificial".


Una de las voces en contra m�s prominentes es la del ingeniero y especialista en �tica rob�tica Alan Winfield, quien trabaja en el Laboratorio de Rob�tica de Bristol, en Reino Unido.

"Encuentro las afirmaciones de Hawking profundamente in�tiles", explic� el especialista en una entrevista con le programa Hardtalk de la BBC.

"El problema no es inevitable. Hawking habla de una probabilidad muy peque�a basada en una serie de eventos que tendr�an que suceder uno detr�s de otro para que eso se diera", dijo Winfield.

"La inteligencia artificial no es muy inteligente. M�s bien deber�amos preocuparnos por la estupidez artificial", asegur�.

Pero �a qu� se refiere con "estupidez artificial"?
"Miedo y fascinaci�n"

Hawking se implic� por primera vez en este debate en el a�o 2014.

Pero desde entonces, varias compa��as tecnol�gicas han puesto en pr�ctica medidas de prevenci�n.


En enero de este a�o, varios empresarios financiaron un Fondo para la �tica y Gobierno de la Inteligencia Artificial apoyado por prestigiosas instituciones estadounidenses, como la Fundaci�n Knight o la Universidad de Harvard.

El creador de LinkedIn, Reid Hoffman, el fundador de eBay Pierre Omidyar, y director del Media Lab del MIT (el Instituto de Tecnolog�a de Massachusetts), Joichi Ito, fueron algunos de los nombres destacados en ese proyecto.

Los multimillonarios de la tecnolog�a que quieren �protegernos� de la inteligencia artificial

Tambi�n este a�o -el pasado septiembre- hubo una colaboraci�n entre Facebook, Google, Microsoft, Amazon y otros gigantes tecnol�gicos para garantizar "mejores pr�cticas" de la inteligencia artificial.

Y Google incluso patent� un "bot�n rojo" para apagarla en caso de peligro extremo.

El bot�n que patent� Google para apagar toda la inteligencia artificial si amenaza a los seres humanos

Sin embargo, Winfield considera que estas actitudes han ido demasiado lejos.

Es una combinaci�n de miedo fascinaci�n, por eso nos encanta la ciencia ficci�n
Alan Winfiel, ingeniero y especialista en �tica rob�tica

"Nos estamos preocupando sobre un suceso altamente extraordinario de explosi�n inteligente", explic� el cient�fico, quien sostiene que la fascinaci�n por la ciencia ficci�n increment� los temores de muchos.

"Es una combinaci�n de miedo con fascinaci�n, por eso nos encanta la ciencia ficci�n", asegur�.
Escenario irreal

Winfield dice que el escenario que plantea Hawking es irreal.

Y defiende que hay "muchas otras cosas" por las que deber�amos preocuparnos en estos momentos y que conciernen a las �reas en las que debe mejorar la inteligencia artificial.

"Trabajos, militarizaci�n, est�ndares en autos que se manejan solos, en robots, en diagn�sticos m�dicos... ese tipo de cosas s� son problemas actuales (de la inteligencia artificial)", declar� el eticista.

De acuerdo con Winfield, uno de los problemas filos�ficos de la inteligencia artificial es que es muy dif�cil definirla porque no tenemos una definici�n satisfactoria de inteligencia natural".

"Hacer lo correcto en el momento adecuado es una definici�n de inteligencia", explica. "Pero eso no sirve de mucha ayuda, desde un punto de vista cient�fico".

Las habilidades en las que vale la pena invertir (porque nunca podr�n ser delegadas a los robots)

El experto en rob�tica dice que uno de los aspectos claves de la inteligencia artificial es que lo que cre�amos muy dif�cil que ocurriera hace 60 a�os -como que las m�quinas compitan en ajedrez contra los humanos-result� ser relativamente f�cil".

"Sin embargo, lo que pensamos que ser�a muy f�cil ha resultado ser enormemente dif�cil". Y menciona aspectos como el hecho de que haya que supervisarlas para hacer ciertos trabajos, pues esas m�quinas son incapaces de pensar, como s� lo es el cerebro humano.


Alan Bundy, profesor de razonamiento automatizado en la Universidad de Edimburgo en Escocia, Reino Unido, coincide con Winfield.

Bundy dijo que los grandes �xitos en el desarrollo de la inteligencia artificial en los �ltimos a�os fueron extremadamente limitados.

�En qu� tenemos que avanzar entonces?

Para Winfield, es fundamental que desarrollemos m�s la parte te�rica -pues la que existe hoy d�a no est� unificada- y hacer innovaciones e investigaciones �ticamente responsables.

Pero, por lo pronto, el debate contin�a.

Estimados lectores: recuerden que estas noticias las pueden encontrar en nuestro Canal de Whastapp al momento de su publicación.

Sigue el canal de Hoybolivia.com en WhatsApp:
whatsapp.com/channel/0029Va8B7PQ3GJOyC41B2Q1a

Noticias Recientes de Especiales

Copyright © Hoybolivia.com Reservados. 2000- 2024