La Copa del Mundo de la política de IA comienza’.

¡Arranca el Mundial de la política de IA!

El Centro de Política de IA y Digital lo dijo mejor cuando escribió en LinkedIn durante el fin de semana que “Esta semana es verdaderamente la Copa del Mundo de la política de IA”.

Primero, la administración Biden ayer anunció su tan esperada orden ejecutiva sobre IA, la primera acción oficial del gobierno de EE. UU. dirigida a la tecnología. La orden requerirá que algunas empresas de IA compartan los resultados de las pruebas de seguridad con el gobierno federal antes de lanzar sus modelos y también exige al Congreso aprobar legislación bipartidista sobre privacidad de datos. También ordena a varias agencias federales establecer un amplio conjunto de normas y directrices de seguridad en relación a la privacidad del consumidor, autenticación de contenido oficial, uso de IA en el gobierno, prevención de prácticas de IA potencialmente perjudiciales en áreas como la salud y prevención de la exacerbación de la discriminación en el sistema de justicia penal, vivienda y otras áreas. Además, ordena un informe sobre las posibles implicaciones del mercado laboral de la IA y facilitará que los trabajadores altamente calificados en tecnología estudien, trabajen e inmigren a Estados Unidos.

Ese mismo día, el G7 -compuesto por Canadá, Francia, Alemania, Italia, Japón, Reino Unido, EE. UU. y la UE- también acordó un código de conducta voluntario para las empresas que desarrollan sistemas avanzados de IA. El código de 11 puntos insta a las empresas a identificar, evaluar y mitigar los riesgos en los sistemas de IA, así como abordar el mal uso descubierto en productos de IA que ya se han puesto disponibles en el mercado público. También establece que las empresas deben invertir en controles de seguridad sólidos y compartir informes públicos que describan las capacidades, limitaciones, usos y mal usos de sus sistemas.

El miércoles y jueves, el Reino Unido será sede de la Cumbre de Seguridad de la IA, que reunirá a gobiernos internacionales, expertos en investigación, grupos de la sociedad civil y principales empresas de IA para discutir los riesgos de la IA y cómo se pueden mitigar a través de una acción coordinada a nivel internacional. Aunque aún falta un día, ya ha habido bastante actividad que revela cómo está pensando el Reino Unido en todo esto. OpenAI, Google DeepMind, Meta, Anthropic, Microsoft y Amazon publicaron sus respuestas a la solicitud de los funcionarios del Reino Unido de describir sus políticas en nueve áreas de preocupación (desde los controles de seguridad hasta las evaluaciones de modelos y las pruebas en equipo) antes de la cumbre, y el Reino Unido respondió con un documento que está presentando como un “menú potencial” de políticas de seguridad de IA que a estas organizaciones de IA “de vanguardia” les gustaría considerar.

“La solicitud de que las empresas publiquen sus políticas de seguridad de IA y la publicación de este documento de apoyo demuestran este enfoque flexible al centrarse en las organizaciones de IA de vanguardia con los mayores riesgos, al reconocer que, con la tecnología avanzando muy rápidamente, los procesos y prácticas aún están evolucionando”, se lee en el documento.

No es exactamente todo el mundo poniendo un foco en la seguridad de la IA esta semana —y es importante destacar la ya evidente “división de la IA”, donde el Norte Global domina las discusiones y se encuentra en posición de cosechar los beneficios económicos de la IA mientras que los trabajadores en gran parte del Sur Global realizan los trabajos mal remunerados que lo hacen posible—. Pero parece una carrera internacional por mantenerse al día con los avances de la IA innegablemente rápidos.

Solo con mirar los productos de OpenAI, hay un amplio consenso de que las mejoras de GPT-3.5 a GPT-4 son realmente significativas. El último modelo también superó a su predecesor en una serie de exámenes simulados, incluyendo el Bar, LSAT, SAT y varios exámenes de AP, según OpenAI. Y la misma historia se repite para sus generadores de imágenes.

“Puedes ver el progreso que hemos logrado en los últimos 18 meses, y es extraordinario”, dijo el periodista de tecnología Casey Newton al describir el salto entre DALL-E 2 y DALL-E 3 en el episodio más reciente de Hard Fork.

Y no hay señales de desaceleración a medida que las empresas de IA obtienen capital de riesgo, compiten por el mercado y superan obstáculos técnicos a gran velocidad.

En la semana pasada, un artículo publicado en Nature describió un “avance de IA” donde un sistema de IA superó a ChatGPT y se desempeñó tan bien como los humanos en incorporar nuevas palabras aprendidas en su vocabulario y utilizarlas en nuevos contextos. El sistema basado en redes neuronales utilizó lo que los autores llaman un enfoque de metaaprendizaje para la composicionalidad (MLC) para el entrenamiento, que básicamente implica que el modelo aprenda de sus errores a medida que avanza.

“MLC muestra una sistematicidad mucho más fuerte que las redes neuronales entrenadas de manera estándar, y muestra un comportamiento más matizado que los modelos simbólicos impecables”, escribieron en el artículo.

Aunque es un experimento limitado, el autor del artículo, Brenden Lake, le dijo a Eye on AI que “ayuda a aclarar exactamente lo que se necesita para lograr una generalización sistemática”.

“Con los LLMs, la esperanza es que la generalización sistemática simplemente surja, pero las debilidades persisten en los LLMs actuales”, dijo. “En este artículo, mostramos cómo el MLC desbloquea los poderes de la generalización sistemática a través de la práctica”.

Especialmente en el contexto de un progreso tan rápido, el desarrollo de estos esfuerzos internacionales podría ser crucial. Solo el tiempo dirá si las empresas de IA cumplen con alguno de estos compromisos voluntarios o si siguen las sugerencias de seguridad del “menú” del Reino Unido, pero no hay duda de que el mundo entero está observando.


Nota de programación: Obtén información vital sobre cómo la tecnología más poderosa y de mayor alcance de nuestro tiempo está cambiando los negocios, transformando la sociedad y afectando nuestro futuro. Únete a nosotros en San Francisco del 11 al 12 de diciembre para la tercera conferencia anual Brainstorm A.I. de ANBLE. Entre los ponentes confirmados se encuentran destacadas personalidades de la IA como Sissie Hsiao, gerente general de Google Assistant y Google Bard; Christina Montgomery, directora de privacidad y confianza de IBM; Sravana Karnati, SVP y CTO de Walmart International; Lidia Fonseca, directora digital y de tecnología de Pfizer; y muchos más. ¡Solicita tu asistencia hoy mismo!

Y con eso, aquí tienes el resto de las noticias de IA de esta semana.

Sage Lazzaro [email protected]sagelazzaro.com

IA EN LAS NOTICIAS

OpenAI anuncia un nuevo equipo para estudiar los riesgos “catastróficos” de la IA. El equipo, llamado Preparedness, “ayudará a rastrear, evaluar, prever y protegerse contra riesgos catastróficos que abarcan múltiples categorías”, incluyendo ciberseguridad, persuasión individualizada, amenazas CBRN (químicas, biológicas, radiológicas y nucleares) y ARA (replicación y adaptación autónoma). También se encargará de formular una “política de desarrollo basada en el riesgo” para la empresa, según un post en el blog.

Google amplía su programa de recompensas por errores para incluir amenazas específicas de IA generativa. Reconociendo que la IA generativa plantea preocupaciones nuevas y diferentes a las de la seguridad digital tradicional, Google anunció en una entrada de blog que está ampliando su Programa de Recompensas por Vulnerabilidades para incluir amenazas específicas de IA generativa y compartió pautas sobre lo que se considera recompensable. Por ejemplo, descubrir la extracción de datos de entrenamiento que revela información privada y confidencial está dentro del alcance del programa de recompensas, mientras que utilizar un producto de IA para hacer algo potencialmente dañino que ya es posible con otras herramientas no lo está.

Investigadores del MIT y una docena de otras instituciones lanzan una plataforma para abordar la transparencia de datos en la IA. Según VentureBeat, los investigadores realizaron una auditoría de aproximadamente 2,000 conjuntos de datos de ajuste fino más utilizados, lo que resulta en lo que los autores consideran “la auditoría más grande hasta la fecha de conjuntos de datos de IA”. Crearon el Explorador de Procedencia de Datos como una plataforma interactiva que hace accesibles los resultados, permitiendo a desarrolladores, investigadores y periodistas filtrar los conjuntos de datos según consideraciones legales y éticas.

La nueva función de IA generativa de Grammarly aprende tu voz y estilo personal. Según TechCrunch, una nueva función en Grammarly, llamada “detección y aplicación de voz personalizada”, puede detectar automáticamente el estilo de escritura único de una persona, crear un “perfil de voz” y luego reescribir cualquier texto en el estilo de esa persona. Se espera que se lance a finales de año para suscriptores de nivel empresarial, y plantea muchas preguntas sobre los posibles riesgos y problemas laborales de poder replicar la voz escrita de alguien.

Imágenes de abuso sexual infantil creadas por IA amenazan con inundar Internet. Así lo informó The Guardian en un informe sobre los hallazgos de la Fundación Internet Watch Foundation, que descubrió que casi 3,000 imágenes de abuso generadas por IA violaron la ley del Reino Unido. La organización afirmó que se están utilizando imágenes existentes de víctimas de abuso reales para construir modelos de IA, específicamente el modelo Stable Diffusion, para producir nuevas representaciones generadas por IA. También encontraron casos en los que la IA se utilizaba para “desvestir” imágenes de niños vestidos encontradas en línea y para “rejuvenecer” celebridades y representarlas en escenarios de abuso.

FELIZ INVESTIGACIÓN DE IA

Evaluación de la gobernanza de la IA. Hablando de gobernanza de la IA y compromisos voluntarios, un artículo programado para publicarse este miércoles que examina la gobernanza de la IA en las empresas encontró un “bajo volumen de implementación de ética en la IA, así como una falta de mejoras significativas en 2022”, según adelantó Ravit Dotan, autora del artículo, en LinkedIn.

“Una de las principales conclusiones del artículo es que no encontramos evidencia de que tales compromisos afecten la implementación de prácticas de gestión de riesgos por parte de las empresas”, escribió en su publicación.

El estudio encontró además que esta discrepancia entre las señales del gobierno y la implementación puede contribuir realmente al “lavado ético” y enfatiza que es “crucial incentivar, idealmente requerir”, que las empresas proporcionen públicamente evidencia de sus esfuerzos de mitigación de riesgos para su revisión externa. Puedes consultar el perfil de Dotan en LinkedIn para ver el artículo completo.

ANBLE SOBRE IA

Microsoft obtiene $70 mil millones y Alphabet pierde más del doble mientras Satya Nadella le quita protagonismo a Sundar Pichai en el ámbito de la IA —Paolo Confino

Lo que los ingresos de Microsoft nos dicen sobre las tendencias de IA y la nube —Sheryl Estrada

La gran apuesta de Amazon con Bedrock —Rachyl Jones

Wall Street exige resultados financieros que respalden toda la locura de la IA. Los últimos ingresos de Microsoft finalmente lo lograron —Rachyl Jones

¿Las reuniones en Zoom te ponen ansioso/a? Esta empresa utiliza inteligencia artificial para que te sientas más seguro/a en tu próxima videollamada —Megan Arnold y Rachyl Jones

Los CEO clasifican al departamento de Recursos Humanos como la prioridad más baja en inversión en AI —Paige Mcglauflin y Joseph Abrams

CONOCIMIENTO ALIMENTICIO

Enfrentándose a la AI. Aquí tienes la historia más punk rock de IA de la semana. Un equipo de investigación de la Universidad de Chicago creó una herramienta para permitir que los artistas “envenenen” los modelos de IA que son entrenados con su trabajo sin permiso. Llamada Nightshade, la herramienta permite a los artistas añadir cambios invisibles a los píxeles de su arte antes de subirlo en línea. Si el arte es recopilado en un conjunto de entrenamiento para generadores de imágenes como DALL-E, Stable Diffusion o Midjourney, puede romper de manera impredecible el modelo resultante, como hacer que los perros se conviertan en gatos en los datos, según informa MIT Technology Review, que tuvo un vistazo anticipado a la investigación.

“Los investigadores probaron el ataque en los modelos más recientes de Stable Diffusion y en un modelo de IA que entrenaron desde cero. Cuando alimentaron a Stable Diffusion solo con 50 imágenes envenenadas de perros y luego le pidieron que creara imágenes de perros por sí mismo, la salida empezó a verse extraña: criaturas con demasiados miembros y caras de dibujos animados. Con 300 muestras envenenadas, un atacante puede manipular Stable Diffusion para que genere imágenes de perros que parezcan gatos”, dice el artículo. (Ya sabemos sobre las alucinaciones de la IA; esto es quizás similar a dosificar intencionalmente a una IA con un alucinógeno.)

Entre las demandas legales y ahora los contraataques técnicos, está claro que los artistas agotarán todos los recursos posibles para detener la explotación de su trabajo y esfuerzo para la IA. ¿Y pueden culparlos? Incluso sus esfuerzos para optar por no participar han sido infructuosos, con más de una docena de artistas alegando en un artículo de Wired de la semana pasada que el proceso de solicitud de eliminación de datos de la IA de Meta es solo una “falsa estrategia de relaciones públicas” y que en realidad es imposible optar por no participar en que se utilice su trabajo en los datos de entrenamiento de la empresa.

Cuando Wired preguntó a Meta sobre la creciente frustración con este proceso, la empresa respondió que el formulario de solicitud de eliminación de datos no es una herramienta para optar por no participar, y enfatizó que no tiene intención de eliminar información que esté en sus propias plataformas.

“Creo que hay cierta confusión sobre lo que es ese formulario y los controles que ofrecemos”, dijo el portavoz.