jueves, 2 de enero de 2020

IA - ¿GENIAL Y ATERRADORA?


La IA está creciendo a un ritmo rápido y resolviendo problemas complejos en el proceso, pero ¿cuáles son los riesgos de una tecnología tan sofisticada? 
CRÉDITO DE LA IMAGEN: ALEX KNIGHT EN UNSPLASH
  
El mundo ha sido testigo de importantes avances tecnológicos en la última década. El wifi y los teléfonos inteligentes ahora son omnipresentes, y estar "conectados" implica que estamos conectados a nuestros dispositivos las 24 horas del día, los 7 días de la semana, en lugar de participar en interacciones de la vida real entre humanos.

Las capacidades de la inteligencia artificial (IA) también han crecido rápidamente, y los investigadores continúan llevando a la realidad conceptos futuristas que una vez solo existieron en nuestra imaginación o películas de ciencia ficción. Por ejemplo, la IA ahora tiene la capacidad de diagnosticar enfermedades e incluso predecir la probabilidad de muerte al escanear los resultados del electrocardiograma.  

Aunque el concepto de IA se propuso por primera vez en la década de 1950, solo relativamente recientemente entró en el ojo público, especialmente con el lanzamiento de DeepMind y OpenAI de Google , dos compañías líderes en investigación de IA establecidas en 2010 y 2015, respectivamente.

Un ejemplo temprano de IA que cambió el juego fue el Deep Blue de IBM , una computadora que jugaba al ajedrez, que fue noticia en 1997 cuando venció al campeón mundial en ese momento en un emocionante partido de seis días y dos juegos.  

Desde entonces, AlphaZero de DeepMind ganó atención en 2017 como el primer algoritmo de aprendizaje en vencer a un jugador profesional en los juegos Go , ajedrez y shogi , marcando otro hito importante en el desarrollo de IA.

Este impresionante ejemplo de "IA estrecha", que es una IA diseñada para realizar una tarea en particular, utilizó una red neuronal profunda que se entrena a sí misma a través del aprendizaje de refuerzo. Este proceso permitió un estilo de juego altamente dinámico, más parecido a un humano que a una computadora, que aún no había sido realizado por AI e impresionó a los maestros del juego que enfrentó.

OpenAI, cofundado por Elon Musk, se centra en el desarrollo de Inteligencia General Artificial segura (AGI), que se refiere a "sistemas altamente autónomos que superan a los humanos en el trabajo de mayor valor económico".
En otras palabras, AGI es una versión más avanzada de IA en que un sistema puede adaptar a cualquier tarea generalizada que se le exija.

El concepto de OpenAI plantea más que unas pocas preguntas interesantes, y su énfasis en AGI "seguro" implica necesariamente que la tecnología tiene el potencial de ser insegura. Si el propósito universalmente acordado de los sistemas inteligentes es avanzar en el descubrimiento científico y beneficiar a la humanidad, ¿qué podría salir mal?

El desempleo masivo como efecto secundario de la implementación de IA en el lugar de trabajo es una preocupación obvia (aunque, por el contrario, la IA podría crear nuevos tipos de trabajos, dejando el trabajo duro para las máquinas), pero aparte de posiblemente hacer que los humanos sean inútiles, hay incluso más grandes preocupaciones.

Gracias a la serie de películas Terminador, mis pensamientos inmediatos sobre el futuro de la IA son distópicos: “No puedo evitar pensar en máquinas diseñadas con el único propósito de erradicar a la humanidad, y estoy seguro de que no soy el único que imagina un escenario futuro de los asesinos cyborg transmitidos por Skynet”.

Como uno de los principales defensores de la teoría deshonesta de la IA, o en el mejor de los casos, que los humanos serán "dejados atrás" en lugar de eliminados, la solución de Elon Musk para prevenir potencialmente la "amenaza existencial de la IA" es NeuraLink .

Fundado por Musk en 2016, el enfoque de la investigación de la compañía es desarrollar tecnología que combine nuestros cerebros con IA para que podamos experimentar una especie de "simbiosis con inteligencia artificial".
Musk enfatiza que la tecnología se presentaría solo como una opción para individuos con el deseo de tener esta experiencia; ciertamente no sería forzado a los que se oponen a la idea.

Hipotéticamente, esta hazaña se lograría mediante una inserción rápida e indolora de un chip en el cerebro, y las tareas podrían llevarse a cabo solo por el poder del pensamiento, posiblemente habilitando habilidades tan descabelladas como la telepatía entre los humanos. 
Un beneficio más tangible del chip es la resolución potencial de trastornos neurológicos como la enfermedad de Parkinson o el Alzheimer, pero es probable que ambos logros estén muy lejos dada la novedad de la tecnología, que se presentó por primera vez a principios de este año (2019).

Quizás un riesgo más probable de IA es que caiga en las manos (humanas) equivocadas, por así decirlo. 
Por ejemplo, el uso malicioso de la inteligencia artificial podría desarrollarse en forma de terroristas que despliegan armas autónomas o piratean operaciones a gran escala controladas por inteligencia artificial que podrían afectar la infraestructura de toda una sociedad, incluida la energía y el transporte, causando caos y destrucción.  

El seguimiento en línea y el uso de datos personales por parte de las empresas para dirigir nuestra exposición a cierta información y anuncios a través de algoritmos ya es un problema de privacidad muy real. En las manos equivocadas, AI también podría hacer un trabajo corto para dañar la reputación de un individuo al descubrir información privada y difundirla en línea a las masas.

La introducción de sesgo en un sistema de IA es otro riesgo interesante que se ha encontrado recientemente. El BERT de Google, un modelo de lenguaje universal que determina cómo los humanos unen las palabras para ayudar a los motores de búsqueda, por ejemplo, aprende de grandes cantidades de datos que inevitablemente contienen sesgos integrados.  Esto significa que BERT puede asociar ciertas palabras con un género sobre el otro o que un nombre en particular siempre tiene una connotación negativa, sin importar el contexto.  

Sin lugar a dudas, esto es solo una fracción de los riesgos previsibles de la IA, pero, por supuesto, esto no significa que no debamos buscar la tecnología.
Hay numerosas posibilidades para su futuro, buenas y malas.

Pero si las máquinas superinteligentes tienen una mente propia y deciden que somos prescindibles, bueno, depende de nosotros.

Para leer más de las historias científicas más significativas de la última década, echa un vistazo a nuestra serie  Science of the 2010s .

Fuente: ADVANCED Science News –  Jenna Flogeras – 27. diciembre.2019

P.S:  Ver mi entrada del 30.dic.2019  “LA IA Y SU FUTURO”