Los hermanos de IA están en guerra por las declaraciones de que el próximo modelo de IA de Google, Gemini, aplasta al GPT-4 de OpenAI

Los hermanos de IA están en guerra por las declaraciones de Google sobre su próximo modelo de IA, Gemini, superando al GPT-4 de OpenAI

  • Los investigadores detrás del blog SemiAnalysis dicen que la próxima IA Gemini de Google aplasta a GPT-4.
  • Argumentan, básicamente, que Google ganará en IA porque tiene acceso a los chips de mayor calidad.
  • El CEO de OpenAI, Sam Altman, describe el análisis como una estrategia de marketing para Google.

Nunca es divertido para un CEO escuchar que su producto podría ser derrotado por un competidor.

Eso podría explicar la respuesta defensiva del jefe de OpenAI, Sam Altman, a un artículo publicado durante el fin de semana titulado: “Google Gemini Devora al Mundo – Gemini Aplasta a GPT-4 por 5 veces, los Pobres en GPU”.

El artículo, escrito por Dylan Patel y Daniel Nishball de la empresa de investigación SemiAnalysis, argumenta que el modelo de IA Gemini anticipado de Google parece estar listo para superar con creces al modelo de IA de OpenAI al ofrecer mucha más potencia informática.

Gran parte del análisis, según Patel, se basa en datos procesados de un proveedor de Google y se resume en que Google tiene acceso a muchos más chips de mayor calidad y su modelo supera a GPT-4 en una medida de rendimiento relacionada con los cálculos informáticos conocida como FLOPS.

Gemini es un modelo de IA multimodal de próxima generación que está siendo desarrollado por investigadores de DeepMind, el brazo de IA de Google, y se espera que sea lanzado a finales de 2023. Es el esfuerzo más serio hasta ahora por parte del gigante de las búsquedas para competir con GPT-4 de OpenAI.

“Increíble que Google haya conseguido que ese tipo de SemiAnalysis publique su gráfico interno de marketing/reclutamiento jajaja”, escribió Altman en un post en X el lunes, insinuando que la información sobre el rendimiento de Gemini proveniente de Google sería naturalmente halagadora.

En respuesta, Patel de SemiAnalysis publicó en X que obtuvo los datos sobre las tiendas de GPU de Google de un proveedor de Google, en lugar de Google mismo. Añadió una imagen editada del jefe de Google, Sundar Pichai, alimentando a Altman con leche mientras lo sujeta por el pelo.

Mientras los dos se lanzan pullas, los principales foros de Internet que siguen los avances en IA han estado ocupados analizando el artículo. En el centro del debate: ¿Tener chips más avanzados, necesarios para entrenar modelos de IA a gran escala, significa que se obtienen mejores modelos? Los analistas describen esto como ser “rico en GPU” versus “pobre en GPU”.

“Espero que alguien destrone a OAI pronto. Pero decir que Gemini Aplasta a GPT-4 por 5 veces da a entender que es 5 veces mejor que GPT-4, no lo es, es 5 veces más potente en cálculo. No necesariamente correlacionado con la calidad”, dijo un usuario llamado @Teknium1 en X.

“El poder computacional por sí solo no es el único recurso. También está el proceso de entrenamiento en sí mismo… y, obviamente, los datos y su calidad”, escribió un usuario de Hacker News. “Solo estaré convencido después de que Google demuestre que Gemini es mejor que GPT-4 (en algunas o todas las tareas)”.

Aunque ChatGPT de OpenAI tuvo una ventaja inicial en cuanto a conciencia del consumidor, otros jugadores serios han entrado en el campo de los modelos de lenguaje a gran escala, como Llama 2 de Meta. Con Gemini previsto para más adelante este año, 2023 podría ser más importante para el progreso en los modelos de lenguaje grandes que 2022, el año de la adopción masiva de ChatGPT.

“Ya sea que estés de acuerdo con Patel o no, esta es una predicción audaz y muy falsificable”, escribió un usuario de r/MachineLearning. “2024 será interesante”.