¿Cuál es la diferencia entre la Inteligencia artificial de códigos abierto y cerrado?

La clave del debate es cómo se democratiza la tecnología, pero la seguridad y el beneficio tienen prioridad en la disputa.
La clave del debate es cómo se democratiza la tecnología, pero la seguridad y el beneficio tienen prioridad en la disputa. Derechos de autor Canva
Por Pascale Davies
Compartir esta noticiaComentarios
Compartir esta noticiaClose Button
Este artículo se publicó originalmente en inglés

Reguladores, empresas emergentes y grandes tecnológicas se dividen en dos bandos en el debate sobre la inteligencia artificial de código abierto frente a la de código cerrado, en el que priman la seguridad y los beneficios.

PUBLICIDAD

La batalla entre las empresas de inteligencia artificial (IA) generativa está en marcha con dos bandos enfrentados: el software de código abierto frente al de código cerrado. La clave del debate es cómo se democratiza la tecnología, pero la seguridad y los beneficios tienen prioridad en la disputa.

En términos generales, el software de código abierto es aquel cuyo código fuente está a disposición de todo el mundo en el dominio público para su uso, modificación y distribución. Fomenta la creatividad y la innovación, ya que los desarrolladores pueden basarse en algoritmos de IA y modelos preentrenados para modificar sus propios productos y herramientas.

La IA de código cerrado, por el contrario, significa que el código fuente está restringido al uso privado y no puede ser alterado ni desarrollado por los usuarios; sólo puede hacerlo la empresa propietaria. Pero la financiación de estas empresas de código abierto es más fácil, lo que significa que disponen de mayor capital para innovar. La definición de lo que hace que una empresa sea de código abierto tampoco está tan clara.

La definición de tecnología de código abierto

La Open Source Initiative (OSI) es la encargada de definir la tecnología de código abierto. Afirma que "código abierto no significa sólo acceso al código fuente" y que debe cumplir 10 criterios, entre ellos disponer de un medio bien publicitado para obtener el código fuente a un coste razonable o gratuitamente, no ser discriminatorio y que la licencia no restrinja otro software.

Pero cumplir todos los requisitos de la OSI es una rareza y la mayoría de las empresas de código abierto sólo lo son en parte, como la francesa Mistral, campeona de IA. Mistral hace públicas las ponderaciones de sus modelos (los parámetros numéricos que influyen en el rendimiento de un modelo de IA), pero no los datos ni el proceso de entrenamiento.

Tecnología para todos

Las empresas de IA que se declaran de código abierto argumentan que están haciendo que la tecnología sea más accesible para todos. El código abierto ayuda a democratizar la economía tecnológica, explica a 'Euronews Next' Alex Combessie, director general de Giskard, empresa francesa cofundadora de IA de código abierto.

"Nivela el campo de juego porque si es de código abierto es gratis, al menos en general. Significa que los actores más pequeños pueden competir con los más grandes porque tienen acceso a los productos de forma gratuita", dijo. "Y eso es muy importante, sobre todo en un mundo tan dominado por los monopolios tecnológicos".

El código abierto también iguala el campo político, ya que permite a cualquiera auditar el código al ser visible para los reguladores, mientras que, con el código cerrado, los detalles no son transparentes.

Preocupación por la seguridad

Pero las empresas de IA de código cerrado, como OpenAI (a pesar de su nombre), fabricante de ChatGPT, sostienen que el código abierto amenaza nuestra seguridad.

El logotipo de OpenAI aparece en un teléfono móvil frente a una pantalla de computadora con datos binarios aleatorios, el 9 de marzo de 2023
El logotipo de OpenAI aparece en un teléfono móvil frente a una pantalla de computadora con datos binarios aleatorios, el 9 de marzo de 2023Michael Dwyer/Copyright 2023 The AP.

OpenAI se fundó originalmente para producir sistemas de IA de código abierto, pero la compañía dijo en 2019 que era demasiado peligroso seguir liberando su modelo de lenguaje GPT al público, ya que se parecía demasiado al habla humana y, si se ponía en las manos equivocadas, podría generar noticias falsas de alta calidad.

Con la IA de código cerrado, también hay políticas de uso que rechazarán cortésmente las solicitudes, como las instrucciones para fabricar una bomba o diseñar un coronavirus más letal. Técnicamente se puede hacer jailbreak a la política, es decir, se puede piratear para eludir las salvaguardas de una IA. Pero estas vulnerabilidades suelen solucionarse rápidamente.

Lo más probable es que los sistemas de IA de código abierto dispongan de salvaguardas o de una guía de uso responsable. Pero por mucho que se intente evitar la discriminación o el peligro, una vez que se tiene acceso a una copia del modelo de IA, quienquiera que la tenga puede cambiar las salvaguardas por sí mismo.

Un buen ejemplo de ello fue cuando Meta publicó en julio del año pasado Llama 2, su gran modelo lingüístico (LLM) de código abierto. Pocos días después, algunos usuarios publicaron sus propias versiones no censuradas de Llama 2, con preguntas sobre cómo construir una bomba nuclear, que el LLM podía responder.

Una vez que alguien publica una versión "sin censura" de un modelo de IA, no hay prácticamente nada que el creador original de la IA pueda hacer, sobre todo porque ya habrá sido descargada por otros usuarios.

Grandes negocios tecnológicos

En diciembre, Meta e IBM crearon un grupo llamado AI Alliance, que se enfrenta a los gigantes del código cerrado OpenAI, Google y Microsoft. La AI Alliance aboga por un enfoque de "ciencia abierta" de la IA y cuenta con la participación de 74 empresas, entre ellas start-ups, grandes compañías y organizaciones sin ánimo de lucro.

Los legisladores votan la ley de Inteligencia Artificial el 14 de junio de 2023 en el Parlamento Europeo en Estrasburgo.
Los legisladores votan la ley de Inteligencia Artificial el 14 de junio de 2023 en el Parlamento Europeo en Estrasburgo.Jean-Francois Badias/Copyright 2023 The AP.

"Un enfoque abierto, responsable y transparente de la IA beneficia a todos: a la industria, al mundo académico y a la sociedad en general", afirma Alessandro Curioni, IBM Fellow, vicepresidente de Europa y África y director de IBM Research. Preguntado por la seguridad, dijo que la idea de una IA abierta y transparente es minimizar los temores.

"La IA abierta, transparente y responsable ayudará a avanzar en la seguridad de la IA, garantizando que la comunidad abierta de desarrolladores e investigadores aborde los riesgos correctos de la IA y los mitigue con las soluciones más adecuadas", señaló a 'Euronews Next'.

"Esto no significa que toda la tecnología deba ser abierta y, sobre todo, que esto no significa no gobernada. La gobernanza es igual de importante cuando se trata de IA abierta o patentada", prosiguió Curioni.

PUBLICIDAD

El problema de la financiación

Aunque el argumento del código abierto es que los desarrolladores pueden construir libremente sobre los modelos de IA de código abierto y ampliar los límites, el dinero está, por supuesto, en el centro del debate. Algunos inversores pueden verse disuadidos por un modelo de código abierto, ya que pueden sentirse más tranquilos al contar con un protocolo de Internet (IP) seguro.

"Una conversación con un gran modelo lingüístico en tiempo real también utiliza mucha potencia de cálculo y se conecta con soluciones computacionales en la nube, lo cual no es realmente barato", afirma Theodore Chen, científico de datos de Deloitte. "En este momento, veo que se basa realmente en inversiones de monetización. Así que la tecnología más puntera necesita financiación", remarcó a 'Euronews Next'.

"La monetización también se utiliza para el desarrollo, que podría servir para construir modelos más precisos, lo que beneficia al sector en general para avanzar". Pero el avance de la tecnología también puede lograrse con modelos de código abierto, ya que los desarrolladores pueden ser creativos y crear nuevos usos para la IA.

"Si más gente tiene acceso a la materia prima, donde pueden hacer cosas realmente creativas y muy interesantes, podríamos ver cómo las cosas se extienden en direcciones que probablemente o nadie adivinaría", indicó a 'Euronews Next' Tiago Cardoso, director de producto de Hyland.

Regulación

El debate entre código abierto y código cerrado ha sido un punto de fricción para los reguladores de Europa y Estados Unidos, que tienen puntos de vista opuestos.

PUBLICIDAD

En Europa, se espera que la Ley de Inteligencia Artificial de la UE obtenga la aprobación parlamentaria definitiva en abril. Pero el texto establece que la Ley no se aplicará a los sistemas de IA de código abierto a menos que estén prohibidos o clasificados de alto riesgo.

Se trata de una buena noticia para Francia y Alemania, que a lo largo de las negociaciones presionaron para proteger sus nuevas empresas de código abierto.

Mientras tanto, en Estados Unidos, la orden ejecutiva del presidente Joe Biden de finales del año pasado afirmaba que cuando los modelos de código abierto -a los que denominaba modelos fundacionales de doble uso- se "publican en Internet, puede haber beneficios sustanciales para la innovación, pero también riesgos sustanciales para la seguridad, como la eliminación de las salvaguardias dentro del modelo".

Biden ha dado de plazo hasta julio a la secretaria de Comercio, Gina Raimondo, para que hable con expertos y presente recomendaciones.

Compartir esta noticiaComentarios

Noticias relacionadas

La inteligencia artificial, la gran protagonista del Mobile World Congress 2024

El auge del chatbot hitleriano: ¿Podrá Europa evitar la radicalización de la extrema derecha gracias a la IA?

Robo de corazones, datos y privacidad: Por qué hay que tener cuidado con los socios de IA