Las afirmaciones de un destacado científico de Meta de que la IA no acabará con la humanidad son peligrosas, según su ex compañero de investigación.

Las sorprendentes declaraciones de un destacado científico sobre la IA su ex compañero de investigación advierte de los peligros para la humanidad.

“`html

  • El padrino de la IA, Yoshua Bengio, dice que los riesgos de la IA no deben subestimarse.
  • En una entrevista con Insider, Bengio criticó a sus colegas que restan importancia a la amenaza de la IA para la humanidad.
  • Sus declaraciones se producen después de que Yann LeCun de Meta acusara a Bengio y a los fundadores de la IA de “alarmismo”.

Según uno de sus compañeros padrinos de la IA, las afirmaciones del científico jefe de IA de Meta, Yann LeCun, de que la IA no eliminará a la humanidad son peligrosas e incorrectas.

“Yann y otros están haciendo afirmaciones de que esto no es un problema, pero él no sabe, nadie sabe”, dijo Yoshua Bengio, el científico informático canadiense y pionero del aprendizaje profundo, a Insider el jueves. “Creo que es peligroso hacer estas afirmaciones sin ninguna evidencia sólida de que no pueda suceder”.

LeCun, el renombrado científico informático francés que ahora lidera el laboratorio de IA de Meta, provocó un debate furioso en X el fin de semana pasado después de acusar a algunos de los fundadores más prominentes de la IA de “alarmismo” con el objetivo final de controlar el desarrollo de la inteligencia artificial.

LeCun argumentó que al exagerar la idea aparentemente descabellada de que la IA eliminará a los humanos, estos CEO podrían influir en los gobiernos para implementar regulaciones punitivas que perjudicarían a su competencia.

“Si sus campañas de alarma tienen éxito, inevitablemente resultarán en lo que usted y yo identificaríamos como una catástrofe: un pequeño número de empresas controlarán la IA”, escribió LeCun.

Bengio, quien una vez trabajó con LeCun en Bell Labs y recibió el Premio Turing junto a él en 2018 por su trabajo en aprendizaje profundo, dijo a Insider que LeCun desestimaba demasiado los riesgos.

“Yann mismo está de acuerdo en que es plausible que alcancemos capacidades a nivel humano en el futuro, lo que podría llevar desde unos pocos años hasta unas pocas décadas, y estoy completamente de acuerdo con la línea de tiempo”, dijo. “Creo que hay demasiada incertidumbre y que las apuestas son demasiado altas”.

Bengio ha dicho en el pasado que los sistemas de IA actuales no representan ningún riesgo existencial, pero advirtió que las cosas podrían volverse “catastróficas” en el futuro.

Es poco probable que las principales figuras de la IA lleguen a un consenso pronto.

Andrew Ng, cofundador de Google Brain, dijo esta semana que las grandes empresas tecnológicas están exagerando los riesgos existenciales de la IA para aplastar la competencia de la comunidad de código abierto.

A medida que los nombres más importantes de la IA comenzaron a unirse, Yann llamó también a sus compañeros premios Turing, Geoffrey Hinton y Bengio, en otra publicación.

En respuesta a Hinton, quien ha afirmado que la IA representa un riesgo de extinción, LeCun escribió en X: “Tú y Yoshua están ayudando involuntariamente a aquellos que quieren poner la investigación y el desarrollo de la IA bajo llave y proteger sus negocios prohibiendo la investigación abierta, el código de fuente abierta y los modelos de acceso abierto”.

Bengio advirtió que los gobiernos deben asegurarse de no solo escuchar a las empresas tecnológicas al formular regulaciones.

“En cuanto a la regulación, deberían escuchar a voces independientes y asegurarse de que la seguridad del público y las consideraciones éticas estén en el centro de atención”, dijo.

“El riesgo existencial es un problema, pero la concentración de poder, en mi opinión, es el segundo problema”, dijo.

“`