Una carrera armamentística de IA puede crear un mundo en el que todos se queden dentro por miedo de ser ‘perseguidos por enjambres de robots asesinos’, advierte el ingeniero fundador de Skype.

El fundador de Skype advierte que una carrera armamentística de IA podría crear un mundo en el que todos teman ser perseguidos por enjambres de robots asesinos.

  • Jaan Tallinn ayudó a construir Skype y es el fundador del Instituto Futuro de la Vida.
  • Recientemente advirtió sobre los riesgos de una carrera armamentista de IA, describiendo teóricos “robots asesinos” anónimos.
  • Este año, cientos de personas en el campo de la IA firmaron una carta abierta pidiendo una pausa en el desarrollo de la IA.

“Podríamos estar creando un mundo en el que ya no sea seguro estar afuera porque podrías ser perseguido por enjambres de robots asesinos”

Esas palabras de advertencia provienen de Jaan Tallinn, un ingeniero fundador de Skype, en una reciente entrevista en video con Al Jazeera.

El programador de computadoras estonio es fundador del Centro de Estudios de Riesgo Existencial de Cambridge y del Instituto Futuro de la Vida, dos organizaciones dedicadas al estudio y mitigación de riesgos existenciales, particularmente los riesgos derivados del desarrollo de tecnologías avanzadas de IA.

La referencia de Tallinn a los robots asesinos se basa en el cortometraje de 2017, “Slaughterbots”, que fue lanzado por el Instituto Futuro de la Vida como parte de una campaña de advertencia sobre los peligros de la inteligencia artificial armamentizada. La película representa un futuro distópico en el que el mundo ha sido dominado por drones asesinos militarizados impulsados por IA.

A medida que se desarrolla la tecnología de IA, a Tallinn le preocupa especialmente las implicaciones que el uso militar podría tener para el futuro de la IA.

“Poner la IA en el ámbito militar dificulta mucho que la humanidad controle la trayectoria de la IA, porque en este punto estamos en una carrera armamentista literal”, dijo Tallinn en la entrevista. “Cuando estás en una carrera armamentista, no tienes mucho margen de maniobra cuando se trata de pensar cómo abordar esta nueva tecnología. Simplemente tienes que ir donde están las capacidades y donde está la ventaja estratégica”.

Además, la guerra de IA podría dificultar la atribución de los ataques, dijo.

“La evolución natural para la guerra totalmente automatizada”, continuó Tallinn, “son enjambres de drones miniaturizados que cualquier persona con dinero puede producir y lanzar sin atribución”.

Cuando Insider contactó al Instituto Futuro de la Vida, le dijo a Insider que estaba de acuerdo con las declaraciones de Tallinn sobre sus temores de una IA armamentizada.

Estos temores han existido durante años: el Instituto Futuro de la Vida fue fundado hace casi una década en 2014, ganando rápidamente la atención de figuras como Elon Musk, quien donó $10 millones al instituto en 2015. Pero el problema se ha sentido mucho más apremiante recientemente, con el lanzamiento de ChatGPT y otros modelos de IA disponibles para el público, y los temores actuales sobre la IA que se apodera de los empleos de las personas. Ahora los investigadores de IA, los magnates de la tecnología, las celebridades y las personas comunes están preocupados.

Incluso el director Christopher Nolan está advirtiendo que la IA podría estar alcanzando su “momento Oppenheimer”, informó Insider anteriormente, en otras palabras, los investigadores están cuestionando su responsabilidad en el desarrollo de tecnología que podría tener consecuencias no deseadas.

A principios de este año, cientos de personas, incluyendo a Elon Musk, el cofundador de Apple Steve Wozniak, el CEO de Stability AI Emad Mostaque, investigadores del laboratorio de IA DeepMind de Alphabet y destacados profesores de IA, firmaron una carta abierta emitida por el Instituto Futuro de la Vida pidiendo una pausa de seis meses en el desarrollo de la IA avanzada. (Mientras tanto, Musk estaba silenciosamente compitiendo para contratar y lanzar su propia iniciativa generativa de IA para competir con OpenAI, informó por primera vez Kali Hays de Insider, que recientemente anunció como xAI).

“La IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra y debe ser planificada y gestionada con el cuidado y los recursos correspondientes”, dice la carta. “Desafortunadamente, este nivel de planificación y gestión no está ocurriendo, a pesar de que los últimos meses han visto a los laboratorios de IA inmersos en una carrera descontrolada para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera confiable”.