Un nuevo estudio ha descubierto el mejor modelo de inteligencia artificial para proteger sus datos, y procede de Europa.
Según un nuevo análisis, Le Chat, de Mistral AI, es el modelo de inteligencia artificial generativa que menos afecta a la privacidad de los datos. Incogni, un servicio de eliminación de información personal, utilizó un conjunto de 11 criterios para evaluar los distintos riesgos para la privacidad de los grandes modelos lingüísticos (LLM), como ChatGPT de OpenAI, Meta AI, Gemini de Google, Copilot de Microsoft, Grok de xAI, Claude de Anthropic, Pi AI de Inflection AI y DeepSeek de China.
A continuación, se puntuó cada plataforma desde cero, la más respetuosa con la privacidad, hasta uno, la menos respetuosa, según esa lista de criterios. La investigación pretendía determinar cómo se entrenan los modelos, su transparencia y cómo se recopilan y comparten los datos. Entre los criterios, el estudio se fijó en el conjunto de datos utilizado por los modelos, si podían utilizarse para el entrenamiento indicaciones generadas por el usuario y qué datos, en su caso, podían compartirse con terceros.
¿Qué diferencia a Mistral AI?
El análisis demostró que el modelo Le Chat, de la empresa francesa Mistral AI, es la plataforma menos invasiva de la privacidad porque recopila datos personales "limitados" y sale bien parada en cuestiones de privacidad específicas de la IA.
Le Chat es también uno de los pocos chatbots asistentes de IA del estudio que sólo proporciona indicaciones generadas por el usuario a sus proveedores de servicios, junto con Pi AI. ChatGPT, de OpenAI, ocupa el segundo lugar en la clasificación general porque la empresa tiene una política de privacidad "clara" que explica a los usuarios exactamente a dónde van a parar sus datos. Sin embargo, los investigadores señalaron algunas preocupaciones sobre cómo se entrenan los modelos y cómo los datos de los usuarios "interactúan con las ofertas de la plataforma".
xAI, la empresa dirigida por el multimillonario Elon Musk que opera Grok, quedó en tercer lugar debido a problemas de transparencia y a la cantidad de datos recopilados. Por su parte, el modelo Claude de Anthropic obtuvo resultados similares a los de xAI, pero suscitó más dudas sobre cómo interactúan los modelos con los datos de los usuarios, según el estudio.
En la parte inferior de la clasificación se encuentra Meta AI, que fue la más invasiva con la privacidad, seguida de Gemini y Copilot. Según el análisis, muchas de las empresas situadas al final de la clasificación no parecen permitir que los usuarios opten por que no se utilicen los datos que generan para seguir entrenando sus modelos.