Lectura 7:00 min
El juego de las empresas de IA debe terminar
El Plan de Acción de IA del presidente estadounidense Donald Trump ha confirmado la renuencia de su administración a regular esta industria en rápida evolución. Sin embargo, los responsables políticos, los inversores y la ciudadanía estadounidense pueden garantizar la rendición de cuentas de las empresas de IA reforzando los requisitos para las corporaciones de beneficio público a nivel estatal.

Descripción automática
CAMBRIDGE - A medida que la IA avanza y penetra cada vez más en nuestras vidas, es poco probable que cree una utopía tecnológica o que acabe con la humanidad. Lo más probable es que el resultado se sitúe en algún punto intermedio: un futuro marcado por la contingencia, el compromiso y, sobre todo, las decisiones que tomemos ahora sobre cómo limitar y guiar el desarrollo de la IA.
Como líder global en IA, Estados Unidos desempeña un papel especialmente importante en la configuración de ese futuro. Pero el Plan de Acción de IA anunciado recientemente por el presidente estadounidense, Donald Trump, ha echado por tierra las esperanzas de reforzar la supervisión federal, adoptando en su lugar un enfoque favorable al crecimiento para desarrollar la tecnología. Eso hace que sea aún más urgente que los gobiernos estatales, los inversores y la población norteamericana se centren en una herramienta menos discutida para la rendición de cuentas: la gobernanza corporativa.
Como documenta la periodista Karen Hao en su libro Empire of AI (El imperio de la IA), las principales empresas del sector ya ejercen una vigilancia masiva, explotan a sus trabajadores y agravan el cambio climático. Lo irónico es que muchas de ellas son corporaciones de beneficio público (CBP), una estructura de gobernanza supuestamente diseñada para evitar estos abusos y proteger a la humanidad. Está claro que no está funcionando como se pretendía.
La estructuración de las empresas de IA como CBP ha sido una forma de lavado ético sumamente exitosa. Al presentar señales de virtud a los reguladores y al público, estas empresas crean una apariencia de responsabilidad que les permite evitar una supervisión más sistémica de sus prácticas cotidianas, que siguen siendo opacas y potencialmente perjudiciales.
Por ejemplo, xAI de Elon Musk es una CBP cuya misión declarada es “comprender el universo”. Pero las acciones de la empresa -desde la construcción furtiva de una supercomputadora contaminante cerca de un barrio predominantemente negro de Memphis, Tennessee, hasta la creación de un chatbot que alaba a Hitler- demuestran una indiferencia preocupante hacia la transparencia, la supervisión ética y las comunidades afectadas.
Las CBP son una herramienta prometedora para que las empresas puedan servir al bien público y, al mismo tiempo, buscar beneficios. Sin embargo, en su forma actual, el modelo -especialmente bajo la legislación de Delaware, el estado donde están domiciliadas la mayoría de las empresas públicas de Estados Unidos- está plagado de lagunas legales y una aplicación deficiente, por lo que no puede ofrecer garantías para el desarrollo de la IA. Para evitar resultados perversos, mejorar la supervisión y garantizar que las empresas incorporen el interés público en sus principios operativos, los legisladores estatales, los inversores y el público deben exigir que las CBP se reinventen y fortalezcan.
Las empresas no pueden ser evaluadas ni responsabilizadas sin objetivos específicos, con plazos definidos y cuantificables. Pensemos en cómo las CBP del sector de la IA se basan en declaraciones de beneficios generales e indefinidas que supuestamente guían las operaciones. OpenAI proclama que su objetivo es “garantizar que la IAG beneficie a toda la humanidad”, mientras que Anthropic aspira a “maximizar los resultados positivos para la humanidad a largo plazo”. Estas ambiciones nobles pretenden inspirar, pero su vaguedad puede utilizarse para justificar casi cualquier acción, incluso las que ponen en peligro el bienestar público.
Sin embargo, la legislación de Delaware no les exige a las empresas que operacionalicen su beneficio público mediante estándares mensurables o evaluaciones independientes. Y si bien exige la presentación de informes bienales sobre el desempeño de los beneficios, los resultados no tienen por qué hacerse públicos. Las empresas pueden cumplir -o incumplir- sus obligaciones a puerta cerrada, sin que el público en general se entere.
En cuanto a la aplicación de la ley, los accionistas, en teoría, pueden presentar una demanda si consideran que el directorio ha incumplido la misión de beneficio público de la empresa. Sin embargo, esta solución es hueca, ya que los daños de la IA suelen ser difusos, a largo plazo y externos a los accionistas. Las partes interesadas afectadas -como las comunidades marginadas y los contratistas mal pagados- carecen de vías prácticas de recurso.
Para desempeñar un papel significativo en la gobernanza de la IA, el modelo de CBP debe actuar como algo más que un escudo reputacional. Eso significa cambiar cómo se define, gobierna, mide y protege el “beneficio público” a lo largo del tiempo. Dada la falta de supervisión federal, la reforma de esta estructura debe hacerse a nivel estatal.
Las empresas de IA deberían estar obligadas a comprometerse con objetivos específicos, mensurables y sujetos a plazos definidos en sus documentos de gobierno, respaldados por políticas internas y vinculados a evaluaciones de desempeño, bonificaciones y desarrollo profesional. Para una empresa de IA, estos objetivos podrían incluir garantizar la seguridad de los modelos base, reducir el sesgo en los resultados de los modelos, minimizar la huella de carbono de los ciclos de capacitación e implementación, aplicar prácticas laborales justas y capacitar a ingenieros y gerentes de producto en derechos humanos, ética y diseño participativo. Unos objetivos claramente definidos, y no aspiraciones vagas, ayudarán a las empresas a sentar las bases de una alineación interna creíble y una rendición de cuentas externa.
También es necesario replantear las juntas directivas y el proceso de supervisión. Las juntas directivas deben incluir directores con experiencia comprobable en ética, seguridad, impacto social y sostenibilidad de la IA. Cada empresa debe contar con un director de ética con un mandato claro, autoridad independiente y acceso directo a la junta. Estos directores deben supervisar los procesos de revisión ética y tener autoridad para detener o reestructurar los planes de productos cuando sea necesario.
Por último, las empresas de IA estructuradas como CBP deberían estar obligadas a publicar informes anuales detallados que incluyan datos granulares y desagregados sobre seguridad, sesgo y equidad, impacto social y ambiental y gobernanza de datos. Auditorías independientes -realizadas por expertos en IA, ética, ciencias ambientales y derechos laborales- deberían evaluar la validez de estos datos, así como las prácticas de gobernanza de la empresa y su alineamiento general con los objetivos de beneficio público.
El Plan de Acción de IA de Trump ha confirmado la reticencia de su administración a regular este sector en rápida evolución. Pero incluso en ausencia de supervisión federal, los legisladores estatales, los inversores y el público pueden fortalecer la gobernanza corporativa de la IA impulsando reformas al modelo CBP. Cada vez más líderes tecnológicos parecen creer que la ética es opcional. Los estadounidenses deben demostrarles que están equivocados o de lo contrario, permitirán que la desinformación, la desigualdad, el abuso laboral y el poder corporativo descontrolado definan el futuro de la IA.
El autor
Christopher Marquis es profesor de Gestión en la Universidad de Cambridge y autor de The Profiteers: How Business Privatizes Profits and Socializes Costs (PublicAffairs, 2024).
Copyright: Project Syndicate, 1995 - 2025