Jueves 25 de abril 2024 Contacto

Cuando la tecnología nos amenaza




21/08/2017 - 14:36:52
EL ESPECTADOR.- No estamos ni cerca de un ataque de m�quinas asesinas y tampoco queremos estarlo, por eso es importante leer con recelo los titulares, sin olvidar que los medios digitales buscan incentivar los clics de sus audiencias y que el miedo es una receta efectiva para lograrlo. (Lea "Los peligros de pensar que la tecnolog�a hace milagros")

Recientemente, la prensa fue invadida por fotos de robots asesinos y titulares sobre el sistema de inteligencia artificial (IA) que debi� desactivar Facebook, luego de que creara su propio lenguaje. Esta conjunci�n entre imagen y encabezado sugiere el terror que supone el hecho de que las inteligencias artificiales se salgan de control, levant�ndose contra la humanidad, intentando dominarla y destruirla. Sucedi� en Terminator y en Wall-e; es posible en nuestras mentes asustadas.

La realidad detr�s de esta noticia es, simplemente, que dos inteligencias artificiales se enviaban mensajes tomando palabras y turn�ndose en responder. Palabras al azar sin m�s sentido, solo recibir y responder. No estamos frente a mentes pensantes aut�nomas ni cerca de eso. Todav�a falta mucho trabajo e investigaci�n para que que una IA pueda tomar decisiones razonadas a nivel humano. Reci�n podemos lograr que analicen, seleccionen o aprendan una cantidad incontable de patrones, que jueguen al ajedrez o seleccionen material en Marte, pero eso no equivale a pensar por cuenta propia, solo nos lleva a entender que si ponemos mucha informaci�n en un programa de IA, este responder� ante est�mulos o siguiendo el c�digo de su programa o, con suerte, dar� respuestas aleatorias.

Un buen ejemplo de esto es Cleverbot y su capacidad de aprender de las conversaciones que va teniendo con quienes se animan a escribirle, entrando en el interesante mundo del machine learning en vivo y en directo. Pero si queremos ir hasta los actuales reyes de la IA debemos entrar al traductor de Google y maravillarnos con las mejoras que se generan a trav�s de este mismo aprendizaje, ante la interacci�n de millones de usuarios de una multiplicidad de idiomas alrededor del globo.

�Acaso el sistema detenido por Facebook es un caso m�s de noticias falsas? S� y no. Estas noticias solo se encargan de abrir nuestra imaginaci�n y recordarnos lo que nos ha ense�ado la ciencia ficci�n, base y motor de la creaci�n cient�fica, de la misma internet y de otros inventos e ideas geniales: �si puedes imaginarlo, puede llegar a existir�. Solo pensemos en la pel�cula Her, casi tan real como una nueva actualizaci�n de nuestros computadoras y dispositivos: la ideal asistente personal virtual que, como ha analizado y creado todas las conexiones posibles con los datos del protagonista, sabe perfectamente lo que necesita y c�mo complacerlo.

Lo cierto es que no estamos ante robots asesinos acech�ndonos. No podemos pensar que las tecnolog�as son nuestros enemigos pr�ximos y latentes. El problema con la tecnolog�a es su utilizaci�n simplista para dar soluci�n a problemas sociales: no todo puede solucionarse con tecnolog�a. La delincuencia no se acaba con llenar de c�maras o drones (y menos empezar a programar robocops para apoyar a las polic�as mundiales).

El uso indiscriminado de c�maras y drones no soluciona de ra�z el problema de la delincuencia, solo genera una falsa sensaci�n de seguridad. Adem�s �qui�n controla lo que se est� grabando? �D�nde queda esa informaci�n y con qui�n se comparte? �Realmente deseamos que sepan d�nde estamos en cada momento y a cada instante? Decir �no tengo nada que esconder� no es una respuesta v�lida cuando se vulneran nuestros derechos.

Tampoco podemos aceptar el uso desmedido de algoritmos para asuntos policiales; si tenemos un programa que nos ayuda a predecir delitos (ya que aprendi� de los datos entregados sobre criminalidad), identificando a cierto tipo de personas como posibles criminales por su color de piel o vestimenta o ciertas zonas como focos de delincuencia, solo aumenta la discriminaci�n y hace que se asignen mayores recursos en la seguridad o represi�n de ciertos sectores, formando guetos. Lo �nico que logra este tipo de pol�ticas de seguridad es una exacerbada y desmedida generalizaci�n de acontecimientos delictuales y con ello seguir criminalizando a ciertas personas. Un buen ejemplo son los algoritmos policiales usados en Estados Unidos, que finalmente solo llevan m�s polic�as a lugares pobres, asumiendo por algunos datos que ah� se generar� el pr�ximo delito, provocando enfrentamientos que no suceder�an si no se usaran estas tecnolog�as algor�tmicas tan al pie de la letra.

Estimados lectores: recuerden que estas noticias las pueden encontrar en nuestro Canal de Whastapp al momento de su publicación.

Sigue el canal de Hoybolivia.com en WhatsApp:
whatsapp.com/channel/0029Va8B7PQ3GJOyC41B2Q1a

Noticias Recientes de #Especiales

Copyright © Hoybolivia.com Reservados. 2000- 2024