Arnold Schwarzenegger lo dice en serio cuando dice: «Volveré», pero no todos están encantados de que haya una nueva película de Terminator esta semana.
En los laboratorios de la Universidad de Cambridge, Facebook y Amazon, los investigadores temen que Terminator: Dark Fate pueda engañar al público sobre los peligros reales de la inteligencia artificial (IA).
flickr
El pionero de IA Yoshua Bengio le dijo a BBC News que no le gustaban las películas de Terminator por varias razones.
«Pintan una imagen que realmente no es coherente con la comprensión actual de cómo se construyen los sistemas de IA hoy y en el futuro previsible», dice el profesor Bengio, a quien a veces se le llama uno de los «padrinos de la IA» por su trabajo en el aprendizaje profundo en los años 1990 y 2000.
«Estamos muy lejos de los sistemas de inteligencia artificial súper inteligentes e incluso puede haber obstáculos fundamentales para ir mucho más allá de la inteligencia humana».
El pionero de la IA, Yoshua Bengio, cree que todavía estamos muy lejos de las máquinas súper inteligentes:
MARYSE BOYCE
De la misma manera que “Tiburón” influyó en las opiniones de muchas personas sobre los tiburones de una manera que no se alineaba con la realidad científica, las películas apocalípticas de ciencia ficción como Terminator pueden generar temores fuera de lugar de una IA incontrolable y todopoderosa.
«La realidad es que eso no va a suceder«, dice Edward Grefenstette, científico investigador de Facebook AI Research en Londres.
Mientras que los cyborgs humanos mejorados se amotinan en el nuevo Terminator, los sistemas de inteligencia artificial de hoy en día son casi capaces de jugar juegos de mesa como Go o reconocer las caras de las personas en una foto.
Y aunque pueden hacer esas tareas mejor que los humanos, están muy lejos de poder controlar un cuerpo.
«Los sistemas de vanguardia actuales ni siquiera podrían tener éxito en el control del cuerpo de un mouse«, dice el profesor Bengio, cofundador de la empresa canadiense de investigación de IA Element AI.
Los agentes de IA de hoy luchan por sobresalir en más de una tarea, por lo que a menudo se los conoce como sistemas de «IA estrecha» en lugar de «IA general».
Neil Lawrence, profesor de aprendizaje automático en la Universidad de Cambridge, cree que deberíamos reconsiderar lo que llamamos IA:
UNIVERSIDAD DE CAMBRIDGE
Pero sería más apropiado llamar a muchas de las tecnologías de IA actuales «computadoras y estadísticas», según Neil Lawrence, quien recientemente dejó Amazon y se unió a la Universidad de Cambridge como el primer profesor de aprendizaje automático de DeepMind.
«La mayor parte de lo que llamamos IA realmente está utilizando grandes capacidades computacionales combinadas con una gran cantidad de datos, para descubrir correlaciones estadísticas», dice.
Individuos como Elon Musk han hecho un buen trabajo asustando a algunos para que piensen que Terminator podría convertirse en una realidad en un futuro no muy lejano, gracias en parte a frases como que la IA es «potencialmente más peligrosa que las armas nucleares».
Pero la comunidad de IA no está segura de qué tan rápido avanzará la inteligencia artificial durante los próximos cinco años, y mucho menos los próximos 10 a 30 años.
También hay escepticismo en la comunidad acerca de si los sistemas de inteligencia artificial alguna vez alcanzarán el mismo nivel de inteligencia que los humanos, o si esto sería deseable.
«Por lo general, cuando las personas hablan sobre los riesgos de la IA, tienen en mente escenarios en los que las máquinas han logrado ‘inteligencia general artificial’ y tienen las habilidades cognitivas para actuar más allá del control y la especificación de sus creadores humanos», dice el Dr. Grefenstette.
«Con el debido respeto a las personas que hablan de los peligros de IGA y su inminencia, esta es una perspectiva poco realista, dado que el progreso reciente en IA todavía se enfoca invariablemente en el desarrollo de habilidades muy específicas dentro de dominios controlados«.
Deberíamos estar más preocupados por cómo los humanos abusan del poder que ofrece la IA, dice el profesor Bengio.
¿Cómo mejorará la IA aún más la desigualdad? ¿Cómo se usará la IA en la vigilancia? ¿Cómo se usará la IA en la guerra?
La idea de sistemas de IA relativamente tontos que controlen máquinas de matar desenfrenadas es aterradora.
El profesor Lawrence dice: «La película puede hacer que la gente piense en cómo serán las guerras futuras«.
Y el profesor Bryson dice: «Es bueno hacer que la gente piense en los problemas de los sistemas de armas autónomos«.
Pero no necesitamos mirar hacia el futuro para ver a la IA haciendo daño. Los sistemas de reconocimiento facial se están utilizando para rastrear y oprimir a los uigures en China, los bots se están utilizando para manipular las elecciones y ya hay videos «falsos».
«La inteligencia artificial ya nos está ayudando a destruir nuestras democracias y corromper nuestras economías y el estado de derecho«, según Joanna Bryson, quien dirige el grupo Bath Intelligent Systems, en la Universidad de Bath.
Afortunadamente, muchos de los investigadores actuales de IA están trabajando duro para garantizar que sus sistemas tengan un impacto positivo en las personas y la sociedad, centrando sus esfuerzos en áreas como la atención médica y el cambio climático.
En Facebook, por ejemplo, los investigadores están tratando de descubrir cómo entrenar sistemas artificiales que entiendan nuestro idioma, sigan instrucciones y se comuniquen con nosotros u otros sistemas.
«Nuestro objetivo principal es producir inteligencia artificial que sea más cooperativa, comunicativa y transparente sobre sus intenciones y planes, al tiempo que ayuda a las personas en escenarios del mundo real«, dice el Dr. Grefenstette.
Joanna Bryson se convertirá en la profesora de ética y tecnología en la Hertie School of Governance de Berlín en febrero:
UNIVERSIDAD DE BATH
En última instancia, la responsabilidad de comunicar el verdadero estado de la IA recae en los medios.
La elección de una foto afecta directamente el interés en un artículo, pero las escuelas de periodismo de todo el mundo recomendarían encarecidamente no engañar al público por el simple hecho de hacer clic.
Desafortunadamente, ha habido numerosos casos de medios que utilizan imágenes fijas de las películas de Terminator en historias sobre avances relativamente incrementales.
El profesor Bryson dice que los omite como anuncios, mientras que el profesor Lawrence dice que supone que son clickbait.
Los periodistas que escriben historias de IA «deberían mostrar los cubículos de las personas que realmente desarrollan la IA«, en Google o Facebook, por ejemplo, dice el profesor Bryson.
«La prensa debe dejar de tratar a la IA como una especie de descubrimiento científico desenterrado excavado en el suelo o encontrado en Marte«, dice. «La IA es solo una tecnología que las personas usan para hacer cosas».
Y ella hace un punto justo. Pero sea honesto, ¿habría hecho clic en esta historia si no tuviera una foto de robot asesino?