Icono del sitio Bocalista

Conoce a «Norman» la primera Inteligencia Artificial Psicópata

Acerca del desarrollo de la inteligencia artificial, el célebre físico teórico Stephen Hawking una vez advirtió: será «lo mejor o lo peor que le pueda pasar a la humanidad». Pues bien, un nuevo algoritmo de Inteligencia Artificial (IA) expuesto a los rincones más macabros de Internet demuestra cómo podríamos arrivar a la versión más oscura de la profecía del difunto físico.

ADVERTISEMENT

Fuente

Investigadores del Instituto Tecnológico de Massachusetts (MIT) en Estados Unidos, enseñaron a su IA ‘Norman’ (denominado así por el personaje principal de la película «Psycho» de Alfred Hitchcock de 1960) capturas de imágenes tomadas de una comunidad en Reddit que es notoria por compartir representaciones gráficas de la muerte.

Una vez allí, Norman recibió una serie de pruebas psicológicas en forma de manchas de tinta Rorschach. El resultado, de acuerdo con los investigadores, fue la «primera IA psicópata del mundo». Donde una IA estándar vio «una foto en blanco y negro de un guante de béisbol», Norman vio «hombre es asesinado con ametralladora a plena luz del día».

La idea de inteligencia artificial volviéndose disfuncional es uno de los tropos más antiguos de la ciencia ficción distópica. Pero el surgimiento de la IA avanzada en los últimos años ha llevado a científicos, empresarios y académicos a realizar cada vez más advertencias sobre la amenaza legítima que representa dicha tecnología.

El multimillonario Elon Musk, que fundó la empresa de investigación de IA sin fines de lucro OpenAI, dijo en 2014 que la IA es «potencialmente más peligrosa que las armas nucleares», mientras que Hawking advirtió repetidamente sobre los peligros que rodean el desarrollo de la inteligencia artificial.

Fuente

Menos de seis meses antes de su muerte, el físico de fama mundial llegó al extremo de afirmar que la IA podría reemplazar a los humanos si su desarrollo se lleva demasiado lejos. «Si las personas diseñan virus informáticos, alguien diseñará Inteligencia Artificial que mejore y se replique», dijo Hawking en una entrevista el año pasado. «Esta será una nueva forma de vida que supera a los humanos«.

Pero Norman no fue desarrollado simplemente para jugar con los temores a una IA truhán que aniquile a la humanidad. La manera en la que fue capacitado en un conjunto específico de datos destaca uno de los mayores problemas que enfrentan los algoritmos de inteligencia artificial actuales: el problema del sesgo.

El chatbot Tay de Microsoft es una de las mejores demostraciones de cómo la toma de decisiones y la visión del mundo de un algoritmo pueden ser moldeadas por la información a la que tiene acceso. El bot «juguetón» fue lanzado en Twitter en 2016, pero en 24 horas ya se había convertido en uno de los experimentos más inquietantes de Internet.

Los primeros tuits de Tay de cómo «los humanos son súper geniales» pronto desbordaron en estallidos que incluyeron: «Hitler tenía razón, odio a los judíos». Este cambio dramático reflejó las interacciones que Tay experimentó con un grupo de usuarios de Twitter que intentaban corromper el chatbot, convirtiendo la demostración de IA de Microsoft en un desastre de relaciones públicas.

El sesgo de la IA también puede tener implicaciones mucho más profundas en el mundo real, como se descubrió en un informe de 2016 que reveló que un algoritmo de aprendizaje automático utilizado por un tribunal estadounidense para la evaluación de riesgos etiquetó erróneamente a los prisioneros negros como más propensos a reincidir.

Como indicaron los investigadores del MIT detrás de Norman: «Los datos utilizados para enseñar un algoritmo de aprendizaje automático pueden influir significativamente en su comportamiento. Entonces, cuando la gente dice que los algoritmos de inteligencia artificial pueden ser parciales e injustos, el culpable a menudo no es el algoritmo en sí sino los datos sesgados que se le suministraron … [Norman] representa un estudio de caso sobre los peligros de la inteligencia artificial que falla cuando los datos sesgados son utilizados en algoritmos de aprendizaje automático«.

MIT

Se espera que incluso la disposición profundamente perturbada de Norman pueda suavizarse a través de la exposición a una gama más amplia de entradas. Se alienta a los visitantes del sitio a completar sus propias respuestas a las pruebas de Rorschach, con los investigadores implorando: «Ayude a Norman a arreglarse».

Fuente

A CONTINUACIÓN: Conoce a ‘Botsy’, el chatbot que usa inteligencia artificial para entregarte las noticias y el entretenimiento que deseas. HAZ CLICK AQUÍ PARA SEGUIR VIENDO >>

Salir de la versión móvil