La IA está creciendo a un ritmo rápido y resolviendo problemas complejos
en el proceso, pero ¿cuáles son los riesgos de una tecnología tan sofisticada?
CRÉDITO DE LA IMAGEN: ALEX KNIGHT EN UNSPLASH
El mundo ha sido testigo de
importantes avances tecnológicos en la última década. El wifi y los
teléfonos inteligentes ahora son omnipresentes, y estar "conectados"
implica que estamos conectados a nuestros dispositivos las 24 horas del día,
los 7 días de la semana, en lugar de participar en interacciones de la vida
real entre humanos.
Las capacidades de la inteligencia
artificial (IA) también han crecido rápidamente, y los investigadores continúan
llevando a la realidad conceptos futuristas que una vez solo existieron en
nuestra imaginación o películas de ciencia ficción. Por ejemplo, la IA ahora
tiene la capacidad de diagnosticar enfermedades e incluso predecir la probabilidad de muerte al escanear los
resultados del electrocardiograma.
Aunque el concepto de IA se propuso
por primera vez en la década de 1950, solo relativamente recientemente entró en
el ojo público, especialmente con el lanzamiento de DeepMind y OpenAI de
Google , dos compañías líderes en investigación de IA establecidas en 2010
y 2015, respectivamente.
Un ejemplo temprano de IA que cambió
el juego fue el Deep Blue de IBM ,
una computadora que jugaba al ajedrez, que fue noticia en 1997 cuando venció al
campeón mundial en ese momento en un emocionante partido de seis días y dos
juegos.
Desde entonces, AlphaZero de
DeepMind ganó atención en 2017 como el primer algoritmo de aprendizaje en
vencer a un jugador profesional en los juegos Go , ajedrez
y shogi , marcando otro hito importante en el
desarrollo de IA.
Este impresionante ejemplo de
"IA estrecha", que es una IA diseñada para realizar una tarea en
particular, utilizó una red neuronal profunda que se entrena a sí misma a
través del aprendizaje de refuerzo. Este proceso permitió un estilo de
juego altamente dinámico, más parecido a un humano que a una computadora, que
aún no había sido realizado por AI e impresionó a los maestros del juego que enfrentó.
OpenAI, cofundado por Elon Musk, se centra en el desarrollo de Inteligencia
General Artificial segura (AGI), que se refiere a "sistemas
altamente autónomos que superan a los humanos en el trabajo de mayor valor
económico".
En otras palabras, AGI es una versión
más avanzada de IA en que un sistema puede adaptar a cualquier tarea
generalizada que se le exija.
El concepto de OpenAI plantea más que
unas pocas preguntas interesantes, y su énfasis en AGI "seguro"
implica necesariamente que la tecnología tiene el potencial de ser
insegura. Si el propósito universalmente acordado de los sistemas
inteligentes es avanzar en el descubrimiento científico y beneficiar a la
humanidad, ¿qué podría salir mal?
El desempleo masivo como efecto
secundario de la implementación de IA en el lugar de trabajo es una
preocupación obvia (aunque, por el contrario, la IA podría crear nuevos
tipos de trabajos, dejando el trabajo duro para las máquinas), pero aparte de
posiblemente hacer que los humanos sean inútiles, hay incluso más grandes
preocupaciones.
Gracias a la serie de
películas Terminador, mis pensamientos
inmediatos sobre el futuro de la IA son distópicos: “No puedo evitar pensar
en máquinas diseñadas con el único propósito de erradicar a la humanidad, y
estoy seguro de que no soy el único que imagina un escenario futuro de los asesinos
cyborg transmitidos por Skynet”.
Como uno de los principales
defensores de la teoría deshonesta de la IA, o en el mejor de los casos, que
los humanos serán "dejados atrás" en lugar de eliminados, la
solución de Elon Musk para prevenir potencialmente la "amenaza existencial
de la IA" es NeuraLink .
Fundado por Musk en 2016, el enfoque
de la investigación de la compañía es desarrollar tecnología que combine
nuestros cerebros con IA para que podamos experimentar una especie de "simbiosis
con inteligencia artificial".
Musk enfatiza que la tecnología se
presentaría solo como una opción para individuos con el deseo de tener esta
experiencia; ciertamente no sería forzado a los que se oponen a la idea.
Hipotéticamente, esta hazaña se
lograría mediante una inserción rápida e indolora de un chip en el cerebro,
y las tareas podrían llevarse a cabo solo por el poder del pensamiento,
posiblemente habilitando habilidades tan descabelladas como la telepatía entre
los humanos.
Un beneficio más tangible del chip es
la resolución potencial de trastornos neurológicos como la enfermedad de
Parkinson o el Alzheimer, pero es probable que ambos logros estén muy lejos
dada la novedad de la tecnología, que se presentó por primera vez a principios
de este año (2019).
Quizás un riesgo más probable de IA
es que caiga en las manos (humanas) equivocadas,
por así decirlo.
Por ejemplo, el uso malicioso de la
inteligencia artificial podría desarrollarse en forma de terroristas que
despliegan armas autónomas o piratean operaciones a gran escala controladas por
inteligencia artificial que podrían afectar la infraestructura de toda una
sociedad, incluida la energía y el transporte, causando caos y destrucción.
El seguimiento en línea y el uso de
datos personales por parte de las empresas para dirigir nuestra exposición a
cierta información y anuncios a través de algoritmos ya es un problema de
privacidad muy real. En las manos equivocadas, AI también podría hacer un
trabajo corto para dañar la reputación de un individuo al descubrir información
privada y difundirla en línea a las masas.
La introducción de sesgo en un
sistema de IA es otro riesgo interesante que se ha encontrado
recientemente. El BERT de Google, un modelo de lenguaje universal
que determina cómo los humanos unen las palabras para ayudar a los motores de
búsqueda, por ejemplo, aprende de grandes cantidades de datos que inevitablemente contienen sesgos integrados. Esto
significa que BERT puede asociar ciertas palabras con un género sobre el
otro o que un nombre en particular siempre tiene una connotación negativa, sin
importar el contexto.
Sin lugar a dudas, esto es solo una
fracción de los riesgos previsibles de la IA, pero, por supuesto, esto no
significa que no debamos buscar la tecnología.
Hay numerosas posibilidades
para su futuro, buenas y malas.
Pero si las máquinas
superinteligentes tienen una mente propia y deciden que somos prescindibles,
bueno, depende de nosotros.
Para leer más de las historias científicas más significativas de la última década, echa un vistazo a nuestra serie Science of the 2010s .
P.S:
Ver mi entrada del 30.dic.2019 “LA
IA Y SU FUTURO”
No hay comentarios:
Publicar un comentario