Qué ha cambiado en casi una década de misión de OpenAI: así es el nuevo documento de principios de la compañía. El camino a seguir, según lo ve en 2026 su director ejecutivo y cofundador, Sam Altman, pasa por democratizar la IA en todos los niveles.
OpenAI está menos preocupada por la inteligencia artificial general (AGI) que hace casi una década y prioriza ahora una implantación más amplia de su tecnología, según una nueva declaración de misión de la compañía. El domingo, OpenAI publicó una actualización de su documento Our Principles (Nuestros principios), en el que fija cómo gestionará su tecnología en el futuro.
Hay algunas diferencias clave entre este nuevo conjunto de principios y las prioridades que tenía la empresa hace casi una década, cuando era una incipiente organización de investigación en inteligencia artificial (IA) sin ánimo de lucro.
La inteligencia artificial general pierde protagonismo
En 2018, OpenAI estaba firmemente centrada en la superinteligencia artificial general (AGI), la idea de que su tecnología superaría a la inteligencia humana, pero ahora es solo una parte del despliegue más amplio de su IA.
Ambas versiones de los principios de la compañía afirman que la misión de OpenAI es garantizar que esta tecnología "beneficie a toda la humanidad", pero la versión de 2018 menciona explícitamente la necesidad de desarrollarla de forma segura y beneficiosa.
"Nuestro deber fiduciario principal es con la humanidad", se lee en el documento. "Preveemos necesitar movilizar recursos considerables para cumplir nuestra misión, pero actuaremos siempre con diligencia para minimizar los conflictos de intereses entre nuestros empleados y accionistas que puedan comprometer ese beneficio generalizado".
La versión de 2026, en cambio, señala que es necesario seguir construyendo sistemas seguros, pero que la sociedad debe afrontar "cada nuevo nivel de capacidad de la IA, entenderlo, integrarlo y decidir en común cuál es la mejor vía a seguir".
El camino a seguir, según lo ve en 2026 su director ejecutivo y cofundador, Sam Altman, pasa por democratizar la IA en todos los niveles, dando acceso a todo el mundo y resistiendo la idea de que la tecnología pueda "concentrar el poder en manos de unos pocos".
El documento de principios de 2026 añade que se espera que OpenAI trabaje con gobiernos, organismos internacionales y otras iniciativas de AGI para "resolver de forma suficiente los graves problemas de alineamiento, seguridad o impacto social antes de seguir avanzando" en su labor.
Algunos ejemplos podrían ser utilizar ChatGPT para contrarrestar modelos capaces de crear nuevos patógenos o integrar modelos ciberresilientes en las infraestructuras críticas. Altman dio algunas pistas sobre la pérdida de protagonismo de la AGI en su blog personal a principios de este mes.
La AGI tiene "algo de anillo de poder" que "hace que la gente haga locuras", escribió Altman. Para combatirlo, aseguró que la única solución es "orientarse a compartir ampliamente la tecnología con la población y que nadie tenga el anillo".
OpenAI ya no se hará a un lado frente a productos centrados en la seguridad
En 2018, OpenAI expresó su preocupación porque el desarrollo de la AGI se estaba convirtiendo en "una carrera competitiva sin tiempo para tomar las debidas precauciones de seguridad".
La organización se comprometía a detener sus propios modelos para ayudar a cualquier proyecto "alineado en valores y con conciencia de la seguridad" que estuviera más cerca de lograr la AGI.
"Trabajaremos los detalles… pero una condición típica para activarlo podría ser que hubiera 'más probabilidades que no de éxito en los próximos dos años", decía el documento de 2018.
En 2026 ya no se habla de apartarse en favor de una causa mayor. En su lugar, el texto reconoce que OpenAI "es una fuerza mucho más influyente en el mundo que hace unos años" y promete ser transparente sobre cuándo y cómo podrían cambiar sus principios de actuación.
La empresa mantiene una fuerte competencia con varios rivales, entre ellos Anthropic. En febrero, Anthropic se negó a conceder al Gobierno del presidente estadounidense Donald Trump acceso ilimitado a su IA para usos militares, lo que llevó a que la empresa fuera catalogada como un riesgo para la cadena de suministro y a que en marzo se ordenara a los agentes federales dejar de utilizar Claude, el asistente de IA de Anthropic.
El 28 de febrero, OpenAI ocupó ese vacío y firmó un acuerdo con el Departamento de Guerra, lo que llevó a algunos usuarios a boicotear ChatGPT en favor de Claude. Además, este mes Anthropic fue valorada en 800.000 millones de dólares (696.000 millones de euros), en línea con OpenAI.
Llamamientos generales a toda la sociedad
En el documento de 2026, OpenAI reclama varios cambios sociales para que el mundo pueda adaptarse mejor a la IA. "Imaginamos un mundo con un bienestar generalizado a un nivel que hoy resulta difícil de concebir", afirma el documento. "Muchas de las cosas que hasta ahora solo nos hemos permitido soñar en la ciencia ficción podrían hacerse realidad y la mayoría de la gente podría llevar una vida más significativa que la que la mayoría puede llevar hoy".
Ese futuro no está garantizado, ya que la IA puede "quedar en manos de un pequeño grupo de empresas que utilicen y controlen la superinteligencia" o "estar en manos de forma descentralizada de la población", según el documento.
El texto de principios retoma también algunas de las propuestas de política pública recientes de OpenAI, como pedir a los gobiernos que estudien "nuevos modelos económicos" y que desarrollen nuevas tecnologías que reduzcan los costes de la infraestructura de IA.
"Muchas de las cosas que hacemos y que parecen raras, como comprar enormes cantidades de capacidad de cómputo mientras nuestros ingresos son relativamente pequeños… responden a nuestra convicción básica en un futuro de prosperidad universal", concluye el documento.