Microsoft, Google y OpenAI acaban de convertirse en miembros fundadores de lo que podría ser el primer grupo de presión de IA real. A continuación los legisladores escriben las reglas.

Microsoft, Google y OpenAI fundan grupo de presión de IA. Legisladores redactan reglas.

Esta no es la primera vez que los desarrolladores de IA han aceptado alguna forma de autorregulación. El fundador y CEO de OpenAI, Sam Altman, invitó a “intervenciones regulatorias” por parte de los gobiernos cuando testificó ante el Congreso en mayo, y a principios de este mes, la Casa Blanca anunció un acuerdo voluntario sobre las salvaguardias de la IA con las cuatro compañías mencionadas anteriormente, además de Meta, Amazon y la startup Inflection.

Como desarrolladores de la tecnología, estas compañías están bien posicionadas para aportar su experiencia técnica en un campo aún poco comprendido. Sin embargo, como suele suceder cuando las empresas rivales forman una asociación comercial, inevitablemente surgen preguntas sobre la posibilidad de que ejerzan una influencia indebida en la elaboración de futuras políticas. Cualquier intento de influir en la formulación de políticas puede considerarse lobby, dice Mark Fagan, profesor en la Escuela Kennedy de Políticas Públicas de Harvard y autor del libro Lobbying: Business, Law and Public Policy, Why and How 12,000 People Spend $3+ Billion Impacting Our Government.

“Parto del supuesto de que todos los que entran en la oficina de un formulador de políticas no son altruistas”, dice Fagan. “Están allí porque presentan una posición para sus partidarios. En el caso de una corporación, llamamos a esos partidarios accionistas”.

Debido a que la tecnología subyacente en la IA es tan nueva que los legisladores no tendrán otra opción que depender de la experiencia de la industria tecnológica al elaborar leyes futuras. Fagan le dijo a Fortune que cree que los legisladores verán el Frontier Model Forum “con cautela, pero también aprovecharán de él”.

“Hay una diferencia entre mirar desde afuera y estar adentro y saber exactamente cómo se construyó ese algoritmo, cuál fue el conjunto de datos de entrenamiento y qué se obtuvo de él”, dice Fagan. “Existe una asimetría de información que siempre existirá. Los reguladores siempre estarán por detrás”.

Sin embargo, los reguladores no son completamente impotentes. Puede parecer banal decirlo, pero ellos hacen las leyes y, por lo tanto, tienen un poder de toma de decisiones que las Googles y Microsofts del mundo nunca podrían tener, según Fagan.

“Tienes esta interesante tensión, donde cada una de las partes tiene un activo diferente que están utilizando para ayudar al resultado”, dice Fagan. “El activo de la corporación es el conocimiento detallado, la información y el dinero que pueden utilizar para la investigación. El activo del regulador, al final del día, es poner una norma en su lugar”.

Esto crea en última instancia una relación mucho más simbiótica de lo que tanto los formuladores de políticas como las empresas estarían dispuestos a admitir cuando se trata de regular tecnologías completamente nuevas. Fagan dijo que cree que la responsabilidad recae en los formuladores de políticas para asegurar que las contribuciones no resulten en políticas laxas, prácticamente coescritas por los actores de la industria que se beneficiarían de ellas.

“¿Dónde recae la responsabilidad de asegurar que no se ejerza una influencia indebida?”, dice Fagan. “No creo que recaiga en la organización, ya sea una organización sin fines de lucro o una corporación, es responsabilidad del formulador de políticas”.

El Frontier Model Forum dice que establecerá una junta asesora en los próximos meses. Los miembros fundadores también establecerán un estatuto, marco de gobernanza y considerarán la incorporación de nuevos miembros. Cuando se les consultó para hacer comentarios, OpenAI, Google y Microsoft remitieron a Fortune al comunicado de prensa. Anthropic no respondió.