Elon Musk, el cofundador de Google DeepMind Mustafa Suleyman y otros 114 expertos en Inteligencia Artificial y robótica se han unido para pedir a la ONU que prohíba el uso de los llamados robots asesinos en una carta abierta publicada el día de hoy.
El grupo está preocupado por el uso potencial de armas letales autónomas y cómo se podrían aplicar en el futuro, y escribieron una breve nota publicada por el Instituto para el Futuro de la Vida. El texto fue hecho público para dar inicio a la apertura de la Conferencia Internacional Conjunta sobre Inteligencia Artificial (IJCAI 2017) en Melbourne, Australia, según un comunicado de prensa.
Las «armas letales autónomas» se refieren a los drones, ametralladoras autónomas, tanques y otras formas de armamento controlados por la Inteligencia Artificial en los campos de batalla de la próxima generación.
Musk, por su parte, es un conocido preocupado por el potencial de la Inteligencia Artificial para terminal mal, llamándola recientemente «la mayor amenaza que enfrentamos como una civilización«, incluso por encima de las armas nucleares – pero la carta abierta constituye la primera vez que un grupo de compañías de Inteligencia Artificial y robótica unieron sus fuerzas para solicitar a la ONU analizar específicamente el caso de estas armas autónomas, según el comunicado.
La Conferencia de Revisión de la Convención sobre Armas Convencionales de las Naciones Unidas acordó unánimemente iniciar conversaciones formales sobre la prohibición de armas autónomas y 19 de los países miembros ya han apoyado la prohibición total de los robots asesinos. El grupo debía reunirse el 21 de agosto, pero la cita se ha retrasado hasta noviembre, según Fortune.
El texto real de la carta es corto y rígido. Hemos incluido el pasaje más esencial a continuación:
«Permitirán que el conflicto armado se libere a una escala mayor que nunca, y a intervalos de tiempo más rápidos de lo que los humanos pueden comprender. Pueden ser armas de terror, armas que los déspotas y los terroristas usan contra poblaciones inocentes, y armas cortadas para comportarse de manera indeseable. No tenemos mucho tiempo para actuar. Una vez que se abra esta caja de Pandora, será difícil cerrar».
Future of Life Institute
El co-firmante Yoshua Bengio, un experto en aprendizaje profundo que fundó el Elemento Inteligencia Artificial, está preocupado por algo más que el daño inmediato que las armas autónomas letales podrían causar. Citó el potencial de «perjudicar el desarrollo de las buenas aplicaciones de la Inteligencia Artificial», centrándose en la guerra y la reacción inevitable contra la tecnología como una razón importante para su participación en el esfuerzo.
El Instituto para el Futuro de la Vida publicó una carta similar en 2015, firmada por Musk, Stephen Hawking y otros con un mensaje advirtiendo contra los peligros más amplios de la Inteligencia Artifical, no sólo los creados para la guerra.
El peligro que plantea la Inteligencia Artificial no militar es mucho menos acuciante, lo que hace que algunas de las declaraciones de Musk se sientan exageradas y ridículas, y su presumida disputa con Mark Zuckerberg es más un espectáculo mediático que un debate con apuestas reales. Pero el potencial de las armas autónomas para hacer daño, como dice la carta abierta, está aquí ahora. Esperemos que la ONU escuche a los expertos.