Jueves 28 de marzo 2024 Contacto

Por qué la inteligencia artificial aún no es Terminator




25/09/2017 - 16:30:26
ABC.- La ciencia-ficci�n introdujo las posibilidades de las m�quinas en un futuro no muy lejano. Pel�culas como �Terminator� o �Robocop� hicieron el resto. Mostraron dos caras de la innovaci�n, la de los indudables beneficios (facilitar procesos industriales, agilizar mecanismos, ayudar a las personas) y, por supuesto, los peligros t�citos de la rob�tica (descontrol, crecimiento del desempleo, esclavitud humana).

Sin embargo, ese debate iniciado desde hace a�os se encuentra en la actualidad en su punto �gilo. En un vaiv�n. Y m�s cuando se dan vueltas a los avances logrados. Si se le dota, por ejemplo, a un exoesqueleto de metal la posibilidad de tomar decisiones como un ser humano, �podr� revolucionar de esta manera el paradigma de la �tica a trav�s de la inteligencia artificial?

Hace unos a�os, el cient�fico brit�nico Stephen Hawking levant� la voz para advertir las posibles amenazas que pod�an representar la rob�tica, sobre todo cuando se le integra un sistema de inteligencia artificial: �Los robots son una amenaza para la humanidad. Los seres humanos que est�n limitados por la evoluci�n biol�gica lenta, no podr�an competir por la inteligencia artificial, y ser�an superados por ella�, declaraba. Con el tiempo, otros conocidos miembros de empresas de tecnolog�a y cient�ficos se han sumado a la lucha por una regulaci�n y un control que establezca los patrones �ticos de una inteligencia artificial, ahora en fase de aprendizaje y desarrollo, para evitar que los efectos sean perniciosos en la sociedad.

�Los robots son una amenaza para la humanidad. Los seres humanos que est�n limitados por la evoluci�n biol�gica lenta, no podr�an competir por la inteligencia artificial�Stephen Hawking, cient�fico

Mark Zuckerberg, el fundador de Facebook, es uno de los precursores del desarrollo de este tipo de tecnolog�a. Pero, adem�s, forma parte de otra postura, una contraria que alienta a los desarrolladores a no ser v�ctima del miedo. Por contra, otros empresarios de la talla de Elon Musk -dirige empresas como Tesla, SpaceX, Hyperloop), lidera ahora la versi�n moderada de implantar una serie de medidas reguladoras. Los dos empresarios han tenido un enfrentamiento sobre las medidas delimitadoras en las que se deber�a desarrollar los avances en esta materia, cuyo progreso actual se est� acelerando gracias a modelos de aprendizaje profundo (deep learning).

Las opiniones generadas entorno a esta �rea han llegado a la formaci�n de manifiestos y grupos contrarios a su desarrollo sin control, mientras que otros acreditan que ciertas posturas est�n fundamentadas simple y llanamente en el terror a lo desconocido. Este verano salt� la voz de alarma cuando Facebook tuvo que desactivar un experimento de inteligencia artificial porque dos �bots� programados para aprender a negociar hab�an llegado a la conclusi�n de que era m�s f�cil regatear con un idioma m�s simple extra�do del ingl�s; es decir, inventaron su propio lenguaje inentendible para el ser humano.

Enrique Dom�nguez, director estrat�gico de InnoTec, sostiene en declaraciones a ABC que en este tipo de experimentos como el de Facebook acaba en desenlaces imprevisibles como parte de lo que supone la propia investigaci�n. Por lo que se debe matizar en el caso de estos dos bots que �no pens�bamos que iban a reaccionar as��, en lugar de �que no estaban programados para ello�. A su juicio, �no se apag� porque se hubiera sucumbido al p�nico, sino que ya se hab�a cumplido el objetivo del experimento�. Sin embargo, ambas inteligencias no hab�an sido programadas para que negociasen en un idioma entendible, porque al fin y al cabo las m�quinas siguen sus normas establecidas en el c�digo.


�Esto que ve�amos en la pel�cula de Terminator de una inteligencia que se haga consciente de que es inteligente y trate de asumir el control o imponerse sobre los dem�s, queda todav�a muy lejos�, recalca el doctor en Inteligencia Artificial y profesor de la Universidad Europea Javier S�nchez. En la situaci�n actual de la inteligencia artificial, �tenemos muchos sistemas que son especializados en labores concretas y las hacen muy bien, pero no hay un sistema que sea capaz de hacer muchas cosas muy bien hechas�, a�ade.

Sin embargo, la preocupaci�n existe. El debate, ahora, discurre no tanto en la tesitura de que un sistema funcione sin las pautas establecidas por un ser humano, sino por una falta de consenso en cuanto a tipo de �tica y valores deben seguir los sistemas inteligentes, as� como el nivel de ciberseguridad para que los delincuentes no alteren su l�gica marcada. �S� que hay ciertos asuntos que hacen preocuparnos como lo relativo a la privacidad y la seguridad. Porque se est� empezando a ver sistemas que est�n muy especializados en un �rea y eso puede suponer una amenaza�, indica el Dr. S�nchez.
Asimov ten�a la respuesta

Como siempre, hay alguien que se adelant� a todo. Por ello, a menudo se suelen rescatar las leyes de la rob�tica que estableci� Isaac Asimov y que han quedado plasmadas a lo largo de la literatura y las obras culturales de ciencia ficci�n. En primer lugar, seg�n es c�digo deontol�gico, un robot no debe hacer da�o a un ser humano o por inacci�n permitir que un ser humano sufra da�o. En el segundo caso, un robot debe hacer o realizar las �rdenes dadas por los seres humanos, excepto si estas �rdenes entrasen en conflicto con la primera ley. Por �ltimo, un robot debe proteger su propia existencia en la medida en que esta protecci�n no entre en conflicto con la primera o la segunda ley.



Dichos mandamientos, explorados hasta la saciedad, son una buena manera de plantear la �tica en la inteligencia artificial, pero �no responde realmente a los l�mites que deben tener la inteligencia artificial. La forma de expresarlo todav�a �no es tan pragm�tico� como las reglas del libro �Yo, robot�, sostiene a este diario Isabel Fern�ndez, Managing Director de Accenture Analytics. En su opini�n, es primordial que la inteligencia artificial �nunca supere la inteligencia de un ser humano, por algo muy sencillo, porque en el momento en que lo supere no tendremos capacidad para controlarlo�. Resulta parad�jico porque, seg�n informes, el estado de la inteligencia artificial se pr�xima a alcanzar la inteligencia del rat�n.

Sin una regulaci�n concreta

A�n existen muchos flecos por resolver. Sobre todo, en materia legal y jur�dica. �Por qu� resultan tan dif�cil establecer un consenso internacional para el desarrollo de la inteligencia artificial? Esta cuesti�n es a menudo respondida por los ejemplos de comportamientos de los veh�culos sin conductor: �un coche aut�nomo qu� har�a si tiene que decidir entre matar a sus ocupantes o cinco personas en un paso de peatones�, expone Dom�nguez. Dentro de esa cuesti�n �tica tambi�n trae consigo el componente de la cultura, que tampoco es universal.

En las distintas vertientes de la inteligencia artificial se han obtenido en ciertas �reas un nivel de especializaci�n mucho mayor, por lo que S�nchez cree que �si esto lo combinamos con m�quinas con autonom�a de tomar ciertas decisiones estrat�gicas y operar en dispositivos que en este caso s� que podr�an ser armas, pues puede suponer un riesgo�. Ajeno a ese mundo apocal�ptico de m�quinas superiores, apunta a que hay que centrar los esfuerzos en controles de calidad.

Se habla mucho de inteligencia artificial, pero a qu� nos referimos. Estos avances buscan, en primer lugar, simular comportamientos de los seres humanos que podemos interpretar como inteligentes, pero son los que toman decisiones de cierto calibre los que est�n en el foco de atenci�n. IBM, por ejemplo, es una de las compa��as m�s punteras en lo referente a lo que llaman sistemas cognitivos. Su software Watson se utiliza en algunas empresas para sus sistemas y se est�n empleando en casos reales como el diagn�stico de enfermedades. Cada software es distinto dependiendo del objetivo predispuesto al igual que la base de datos con la que est� conectada, porque al fin y al cabo es una herramienta que lee muchos datos que una persona no podr�a abarcar, pero que despiertan dudas.

Enrique Dom�nguez explica as� que �estos sistemas expertos a m� me preocupan desde el punto de vista de ciberseguridad, porque qu� pasar�a si alguien consigue atacarlos y modificar su comportamiento -bien sea aliment�ndolos de datos maliciosos para que cambian su manera de comportarse o de alguna manera transmut�ndolos para que de alguna manera cambien sus decisiones- ah� podr�amos estar hablando de muertes de personas o incluso de colapsos de compa��as a nivel econ�mico�.

Asimismo, S�nchez se�ala que �si est�s hablando de diagn�sticos cl�nicos est�s hablando de protecci�n de datos. �Parece una contradicci�n, pero algunas de las aplicaciones m�s interesantes y m�s complejas, algunas ya eran capaces de hacer diagn�sticos hace a�os, de c�mo iba a evolucionar una enfermedad y con tasas de aciertos muy altas�, recalca.
Pautas propias

Algunas empresas, ante la falta de consenso, se han adelantado en la elaboraci�n de sus propia pautas. Y las comparten con otros entornos, como en el caso de IBM. La compa��a tecnol�gica ha establecido as� tres principios. En primer lugar, lo que llaman el dise�o que se refiere a �la capacidad de amplificar una persona�, explica a este diario Elisa Mart�n-Garijo, directora de Innovaci�n IBM Espa�a, �debido a la gran generaci�n de conocimiento entorno a la era digital, toda la informaci�n es valiosa� de manera diferente para cada persona. En segundo lugar, -dice- el principio de credibilidad para que �generemos confianza a las personas de su utilizaci�n�. Por �ltimo el principio de fiabilidad del comportamiento para que solucione un problema de un dominio espec�fico.

Por otro lado, Mart�n-Garijo tambi�n aclara que los programas Watson como son diferentes, tambi�n funcionan a partir de bases de datos distintas. Al estar concentrados y separados, se reduce el riesgo del problema que pueda haber con la informaci�n, as� como los datos que se vayan generando vayan �nicamente a �la entidad que aporta la soluci�n�. Por otro lado, tambi�n hay un Watson de computaci�n cognitiva en las amenazas de seguridad. As�, los seres humanos se sirven de esta tecnolog�a como una herramienta y no como un sustituto, para poder concentrar los esfuerzos en tareas mucho m�s adecuadas para las personas.

En el caso de la postura Accenture, la compa��a apuesta por lo que llama la Inteligencia Artificial Responsable porque creen �que es una fuerza transformadora de la sociedad que s� debe haber niveles de regulaci�n, pero no porque tengamos miedo de lo que nos pueda traer la inteligencia artificial, porque estamos intentando que avance quit�ndonos tareas que pueden ser hechas por m�quinas y dej�ndonos tareas que podemos aportar mucho m�s como humanos. Pero s�, tiene que estar regulada�. Por lo que en ese puzzle de tareas, automatizan procesos �como en un Call Center que es capaz de reconocer tu voz�.

Estimados lectores: recuerden que estas noticias las pueden encontrar en nuestro Canal de Whastapp al momento de su publicación.

Sigue el canal de Hoybolivia.com en WhatsApp:
whatsapp.com/channel/0029Va8B7PQ3GJOyC41B2Q1a

Noticias Recientes de Especiales

Copyright © Hoybolivia.com Reservados. 2000- 2024