El ejecutivo de Meta y ex viceprimer ministro del Reino Unido compara los temores sobre la inteligencia artificial con la pánico moral pasado sobre los videojuegos y las bicicletas.

El ejecutivo de Meta y ex viceprimer ministro del Reino Unido compara los temores sobre la inteligencia artificial con el pánico moral pasado sobre los videojuegos y las bicicletas ¿Una montaña rusa emocionante o solo una bicicleta con rueditas?

El presidente de asuntos globales de Meta, Nick Clegg, advirtió contra llamadas prematuras para regular la tecnología, informó el Times de Londres y The Guardian, hablando antes de la histórica Cumbre de IA que se celebrará en Bletchley Park en el Reino Unido. Se espera que la cumbre se centre en mitigar los posibles daños de la IA.

Elon Musk hablará con el primer ministro del Reino Unido, Rishi Sunak, en la plataforma X de Musk sobre la regulación de la IA. Importantes líderes mundiales, incluida la presidenta de la Comisión Europea, Ursula von der Leyen, estarán presentes.

La cumbre sigue a una orden ejecutiva firmada el lunes por la Administración Biden, que obligará a las empresas tecnológicas a desarrollar rápidamente normas de seguridad sólidas para la IA. Biden no asistirá a la cumbre.

Sin embargo, el ex viceprimer ministro del Reino Unido, Clegg, será una voz presente en Bletchley Park tratando de minimizar las crecientes preocupaciones sobre la IA, desde el potencial de robo de empleos hasta su capacidad para manipular a los seres humanos.

Clegg dijo que había una “subasta holandesa” en torno a los riesgos, con detractores tratando de superarse unos a otros con las teorías más extravagantes de que la IA salga mal.

“Recuerdo los años 80. Hubo un pánico moral sobre los videojuegos. Hubo pánicos morales sobre la radio, la bicicleta, Internet”, dijo Clegg en un evento en Londres, informó el Times.

“Hace diez años nos decían que ahora no habría conductores de camiones porque todos los autos serían completamente automatizados. Hasta donde yo sé, en los Estados Unidos ahora hay escasez de conductores de camiones.”

Los riesgos de la IA

Clegg, quien se unió a Meta después de una carrera política de casi dos décadas en el Reino Unido, ha llevado a cabo una ofensiva encantadora apoyando el desarrollo de la IA. Este enfoque ha implicado en gran medida minimizar los riesgos de la tecnología, así como sus capacidades.

En julio, Clegg dijo en el programa de radio Today de la BBC que los modelos de lenguaje grandes (LLM) como ChatGPT de OpenAI y Bard de Google eran actualmente “bastante estúpidos” y quedaban “muy por debajo” del nivel en el que podrían desarrollar autonomía.

En su papel en Meta, Clegg es uno de los pocos ejecutivos de tecnología que respaldan incondicionalmente el potencial de la IA, desechando el pánico sobre las amenazas de la tecnología.

Meta hizo su propio LLM, Llama 2, de código abierto cuando lo lanzó en julio. El movimiento fue visto por los defensores, incluido Meta, como algo que aumentaría la transparencia y democratizaría la información, evitando que la tecnología fuera controlada por unas pocas empresas poderosas.

Sin embargo, los detractores del movimiento se preocupan de que la información pueda ser utilizada por actores malintencionados para proliferar los daños de la IA. OpenAI puso su código en código abierto cuando lanzó ChatGPT, pero pronto dio marcha atrás. El cofundador de la compañía, Ilya Sutskever, dijo a The Verge en una entrevista que abrir el código de la IA no era “sabio”. Podría ser un punto de discusión clave en la Cumbre de IA del Reino Unido de esta semana.

Advertencias de peligro

Otros ejecutivos de tecnología han sido mucho más vocales sobre los riesgos más amplios de la IA. En mayo, el cofundador de OpenAI, Sam Altman, escribió una breve carta junto a cientos de otros expertos advirtiendo sobre los peligros de la IA.

Musk y el cofundador de Apple, Steve Wozniak, se encontraban entre las 1,100 personas que en marzo firmaron una carta abierta pidiendo una moratoria en el desarrollo de sistemas de IA avanzados.

Sin embargo, Andrew Ng, uno de los padres fundadores de la IA y cofundador de Google Brain, insinuó que podría haber motivos ocultos detrás de las advertencias de las empresas de tecnología.

Ng enseñó a Sam Altman, cofundador de OpenAI, en Stanford y sugirió que su antiguo estudiante podría estar intentando consolidar un oligopolio de poderosas empresas de tecnología que controlan la IA.

“Sam fue uno de mis estudiantes en Stanford. Hizo prácticas conmigo. No quiero hablar específicamente sobre él porque no puedo leer su mente, pero… siento que hay muchas grandes empresas que encontrarían conveniente no tener que competir con modelos de lenguaje de código abierto a gran escala”, dijo Ng en una entrevista con el Australian Financial Review.

Ng advirtió que la regulación propuesta de la IA probablemente sofocaría la innovación y que en la actualidad no hay regulación mejor que lo que se está proponiendo.

Geoffrey Hinton, un ex ingeniero de Google que renunció para advertir sobre los peligros de la IA, cuestiona los comentarios de Ng sobre una aparente conspiración entre las empresas de tecnología para sofocar la competencia.

“Andrew Ng está afirmando que la idea de que la IA pueda llevarnos a la extinción es una conspiración de las grandes empresas de tecnología. Un punto de datos que no encaja en esta teoría de conspiración es que dejé Google para poder hablar libremente sobre la amenaza existencial”, publicó el llamado “Padrino de la IA” en X, anteriormente Twitter.