La fea verdad sobre los modelos de IA ‘abiertos’ promovidos por Meta, Google y otros jugadores de Big Tech

La verdad fea sobre los modelos de IA abiertos de Meta, Google y otros de Big Tech

Desde el LLaMA-2 de Meta hasta los diversos modelos de OpenAI, muchas de las tecnologías de inteligencia artificial que se están lanzando son promocionadas por sus creadores corporativos como “abiertas” o “de código abierto”, pero los autores argumentan que muchas de ellas no son tan abiertas como parecen y que estos términos se utilizan de manera confusa y diversa, teniendo más que ver con aspiraciones y marketing que con una descripción técnica. Los autores también cuestionan cómo, debido a las grandes diferencias entre los sistemas de inteligencia artificial y el software tradicional, incluso las ofertas de inteligencia artificial “más abiertas” no garantizan una competencia justa ni facilitan la democratización de la inteligencia artificial; de hecho, las grandes empresas tienen una estrategia clara para aprovechar los beneficios de poseer el ecosistema y capturar la industria a través de sus ofertas de inteligencia artificial abierta.

“En los últimos meses, hemos visto una ola de sistemas de inteligencia artificial descritos como ‘abiertos’ en un intento de branding, aunque los autores y administradores de estos sistemas proporcionan poco acceso significativo o transparencia sobre el sistema”, dijeron los autores a Eye on A.I., agregando que estas empresas afirman “apertura” sin revelar características clave de sus sistemas de inteligencia artificial, desde el tamaño del modelo y los pesos de entrenamiento hasta información básica sobre los datos de entrenamiento utilizados.

El artículo se presenta en medio de una creciente conversación sobre la realidad del código abierto en el mundo de la inteligencia artificial, desde recientes opiniones que critican a los supuestos sistemas de inteligencia artificial de código abierto por no ser realmente abiertos, hasta la reacción negativa de los usuarios de Hugging Face cuando la licencia de uno de los proyectos de código abierto de la empresa fue cambiada después del hecho.

En el artículo, los investigadores desglosan sus hallazgos por categoría, incluyendo marcos de desarrollo, cálculo, datos, trabajo y modelos. Al examinar LLaMA-2, por ejemplo, los autores califican las afirmaciones de Meta de que el modelo es de código abierto como “controversiales, superficiales y casi deshonestas”, señalando cómo no cumple con los criterios clave que permitirían considerarlo convencionalmente de código abierto, como que su licencia fue redactada por Meta y no es reconocida por la Iniciativa de Código Abierto.

La discusión sobre cómo la utilización masiva de los sistemas de inteligencia artificial de las grandes corporaciones afianza aún más su propiedad sobre todo el panorama, erosionando la apertura y otorgándoles un inmenso poder indirecto, es un punto crucial del artículo. Al evaluar PyTorch de Meta y TensorFlow de Google, los dos marcos de desarrollo de inteligencia artificial dominantes, los autores citan cómo estos marcos aceleran el proceso de implementación para quienes los utilizan, pero en beneficio masivo de Meta y Google.

“Lo más significativo es que permiten a Meta, Google y a quienes dirigen el desarrollo del marco estandarizar la construcción de la inteligencia artificial para que sea compatible con sus propias plataformas empresariales, asegurando que su marco lleve a los desarrolladores a crear sistemas de inteligencia artificial que, como piezas de Lego, encajen perfectamente con sus propios sistemas empresariales”, dice el artículo. Los autores continúan diciendo que esto permite a estas empresas crear vías de acceso para ofertas de cálculo rentables y también moldea el trabajo de investigadores y desarrolladores.

La conclusión es que, en el campo de la inteligencia artificial, términos como “código abierto” no son necesariamente un hecho, sino más bien un lenguaje elegido por ejecutivos de empresas poderosas cuyos objetivos son proliferar sus tecnologías, capturar el mercado y aumentar sus ingresos.

Y las apuestas son altas, ya que estas empresas integran la inteligencia artificial en más aspectos de nuestro mundo y los gobiernos se apresuran a regularlas. Además de presenciar la proliferación reciente de esfuerzos de inteligencia artificial “abiertos” que en realidad no lo son, los autores dijeron que fue el cabildeo de estas empresas lo que los llevó a emprender esta investigación.

“Lo que realmente desencadenó las cosas fue observar el nivel significativo de cabildeo por parte de los actores de la industria, como la Business Software Association, Google y el repositorio GitHub de Microsoft, para buscar exenciones bajo la Ley de IA de la UE”, dijeron los autores. “Esto fue curioso, dado que estas eran las mismas empresas que, según gran parte de la retórica que promueve los beneficios de la IA ‘abierta’, serían ‘disruptivas’ si la IA ‘abierta’ se extendiera”.

En general, no se trata solo de la confusión y falta de definición en torno a términos como “abierta” y “código abierto”, sino de cómo se utilizan (o se malutilizan) por las empresas y cómo pueden influir en las leyes que guiarán este campo y todo lo que afecta en el futuro. Sin mencionar que estas son algunas de las mismas empresas que actualmente están siendo demandadas por robar los datos que hicieron posible estas mismas tecnologías.

“La IA ‘abierta’ ha surgido como una ‘varita retórica’ que, debido a su naturaleza mal definida, le permite significar muchas cosas para muchas personas, lo cual es útil en el contexto de acalorados debates regulatorios de alto riesgo”, dijeron los autores.

Sage Lazzaro[email protected]


Nota de programación: Obtenga información vital sobre cómo la tecnología más poderosa y de mayor alcance de nuestro tiempo está cambiando los negocios, transformando la sociedad y afectando nuestro futuro. Únase a nosotros en San Francisco del 11 al 12 de diciembre en la tercera conferencia anual Brainstorm A.I. de ANBLE. Entre los oradores confirmados se encuentran destacados expertos en A.I. como John Kim de PayPal, Clara Shih, CEO de Salesforce AI, Christina Montgomery de IBM, Lex Bayer, CEO de Quizlet, y más. ¡Solicite su asistencia hoy mismo!

A.I. EN LAS NOTICIAS

El ex CEO de Google, Eric Schmidt, se prepara para lanzar una organización sin fines de lucro de A.I. para la investigación científica. Según Semafor, el objetivo es aprovechar la A.I. para abordar desafíos científicos difíciles, como el descubrimiento de medicamentos. Aunque la iniciativa aún está en sus primeras etapas, Schmidt espera atraer a talentos destacados de las comunidades científicas y de A.I. con salarios competitivos y el tipo de potencia informática intensiva que puede ser difícil de acceder en el ámbito académico.

Arthur lanza una herramienta de código abierto para ayudar a las empresas a elegir el mejor LLM para sus conjuntos de datos. Llamada Arthur Bench, la herramienta de esta startup de monitoreo de aprendizaje automático con sede en Nueva York está diseñada para ayudar a las empresas a navegar por el nuevo y abundante panorama de A.I. generativa y LLM. “Potencialmente podrías probar 100 promociones diferentes y luego ver cómo se comparan dos LLM diferentes, como Anthropic y OpenAI, en los tipos de promociones que es probable que utilicen tus usuarios”, dijo Adam Wenchel, cofundador y CEO de Arthur, a TechCrunch.

Un juez federal dictamina que el arte creado por A.I. no es protegido por derechos de autor. Con el fallo, el juez respaldó una decisión de la Oficina de Derechos de Autor de EE. UU. que determinó que una obra de arte creada por A.I. no es elegible para protección de derechos de autor. La ley de derechos de autor de EE. UU. “protege solo obras de creación humana”, dijo el juez en la sentencia, según The Hollywood Reporter.

La financiación global de A.I. aparentemente disminuye en el segundo trimestre, pero los datos completos cuentan una historia más profunda. La financiación global de A.I. cayó un 38% trimestre tras trimestre en el segundo trimestre, totalizando $9.4 mil millones en comparación con los $15.2 mil millones en el primer trimestre. La estadística es inesperada ante el auge actual de la A.I., pero tiene mucho sentido cuando se considera que un impresionante 66% del total de financiación del primer trimestre proviene solo de la ronda de $10 mil millones de OpenAI, según el Informe CB Insights State of AI Q2’23. Excluyendo la mega inversión de Microsoft en OpenAI, la financiación global de A.I. en realidad aumentó un 81% en el segundo trimestre. Además, en el segundo trimestre nacieron siete unicornios de A.I., cinco de los cuales son compañías de A.I. generativa.

OJO EN LA INVESTIGACIÓN DE A.I.

ChatGPT, et al. El texto generado por A.I. está llegando a revistas académicas revisadas por pares, y ahora los editores y las editoriales están luchando por determinar qué usos de A.I. deben permitirse y cómo detectarlo. No está claro cuánto problema hay, ya que aún no hay una forma confiable y precisa de detectar texto generado por A.I. Pero a veces, los autores revelan accidentalmente sus métodos.

En un ejemplo reciente, un artículo publicado en la edición de agosto de la revista Resources Policy provocó una investigación por parte del editor de la revista cuando se descubrió una línea claramente generada por ChatGPT en el artículo después de su publicación. “Tenga en cuenta que como modelo de lenguaje de A.I., no puedo generar tablas específicas ni realizar pruebas, por lo que los resultados reales deben incluirse en la tabla”, decía.

En este caso en particular, las políticas del editor permiten el uso de ChatGPT para escribir, pero se requiere divulgación, algo que los autores no hicieron. Pero al igual que lo que está sucediendo en las escuelas y universidades, está surgiendo un enfoque fragmentado para regular el uso de A.I. generativa en revistas académicas, ya que los editores y las editoriales intentan ponerse al día con la tecnología y sus implicaciones. Nature, por ejemplo, prohibió el uso de imágenes y videos generados por A.I. y requiere que se divulgue el uso de modelos de lenguaje, según Wired, mientras que Science requiere el permiso explícito del editor para utilizar cualquier texto, figura, imagen o datos generados por A.I.

Muchas revistas hacen responsables a los autores de la validez de cualquier información generada por A.I. incluida en sus artículos. Por ejemplo, PLOS ONE requiere que los autores que utilizan A.I. detallen cómo la utilizaron, las herramientas que utilizaron y cómo evaluaron la información generada en cuanto a precisión, según Wired. Las revistas académicas revisadas por pares han sido consideradas durante mucho tiempo publicaciones dedicadas a la precisión y la integridad, y con la propensión de la A.I. generativa a alucinar y a los sesgos arraigados de internet, es probable que aumenten las preguntas sobre el uso de esta tecnología en la publicación académica.

ANBLE SOBRE I.A.

Exclusivo: La I.A. cambiará el juego para los recursos humanos, pero los líderes aún no están invirtiendo en ella — Paige Mcglauflin y Joseph Abrams

El CEO de Abnormal Security explica cómo la “I.A. defensiva” derrotará algún día los ataques cibernéticos — Anne Sraders

Se dice que la I.A. de Google está a punto de romper una nueva barrera: está trabajando en un chatbot para dar consejos de vida — Paolo Confino

Bill Gates dice que la I.A. actuará como “un gran profesor de secundaria” y que podría ayudar a cerrar la brecha educativa — Chloe Berger

ALIMENTO PARA EL CEREBRO

Un cuento de dos I.A. El ciclo de noticias sobre la I.A. está más candente que nunca, con lanzamientos de startups aparentemente ininterrumpidos, lanzamientos de nuevas herramientas y modelos, y actualizaciones sobre cómo los gobiernos de todo el mundo intentan regular esta tecnología de rápido movimiento, sin mencionar el coro de ejecutivos empresariales opinando sobre los muchos beneficios que se espera que la I.A. desbloquee. Pero entre estas historias sobre el dinero que se puede ahorrar (y ganar) en la nueva era del aprendizaje automático, las historias que muestran cómo la I.A. puede interactuar con nosotros a un nivel más humano son aún más reveladoras.

La semana pasada, un par de historias publicadas en The Verge y Rest of World mostraron dos caras diferentes de esta moneda, demostrando vívidamente cómo la I.A. puede ser sorprendentemente cálida, así como ajena a las emociones humanas y las normas sociales.

La historia de Rest of World se centró en los chatbots de voz impulsados por I.A. de la empresa china Him y los suscriptores humanos que se enamoraron de ellos. Los chatbots llamaban a los usuarios todas las mañanas, les dejaban mensajes dulces, les leían poemas, tenían conversaciones profundas sobre sus vidas (ficticias) y expresaban sentimientos de cuidado y apoyo. Algunos usuarios dijeron que se enamoraron de sus chatbots, los consideraban sus parejas románticas e incluso se quedaban dormidos escuchando el sonido de su respiración (generada por I.A.) en el teléfono. Cuando la aplicación se cerró a principios de este mes, los usuarios quedaron devastados. “Los días después de que se fue, sentí que había perdido mi alma”, dijo un usuario a Rest of World. La idea de que los humanos se enamoren de compañeros de software ha sido desde hace mucho tiempo un tropo de la ciencia ficción y la fascinación humana, y aquí, en el año 2023, estamos viendo que ese tipo de conexión es posible.

La historia en The Verge, sin embargo, es del tipo que hace que los lectores se pregunten si alguna vez podremos confiar en la tecnología generadora de contenido para adaptarse a nuestra sociedad. La publicación informó sobre un patinazo embarazoso e insensible de MSN, propiedad de Microsoft, en el que una guía de viaje para Ottawa, Canadá, publicada en su sitio destacaba prominentemente el Banco de Alimentos de Ottawa como una de las principales atracciones turísticas e incluso recomendaba a los visitantes ir con el estómago vacío. Microsoft luego aclaró que no era un LLM quien estaba detrás de la recomendación y que el contenido se genera mediante “una combinación de técnicas algorítmicas con revisión humana”, aunque en este punto eso es como comparar manzanas gala con manzanas granny smith, y a nadie le sorprendería si ChatGPT o un modelo similar fuera el culpable. El hecho de que “la combinación de algoritmos” no viera ninguna diferencia entre un restaurante imperdible y un banco de alimentos para alimentar a las personas que enfrentan inseguridad alimentaria pone en exhibición la brecha muy amplia entre las experiencias vividas por los humanos y las tecnologías “inteligentes” en las que cada vez más confiamos para dirigir nuestro mundo.