Newsletter Newsletters Events Eventos Podcasts Videos Africanews
Loader
Encuéntranos
Publicidad

La moda de caricaturas con IA de ChatGPT, un regalo para estafadores, alertan expertos

Una caricatura generada por IA a partir de una imagen de archivo de Canva.
Caricatura generada por IA a partir de una imagen de archivo de Canva. Derechos de autor  Canva/ChatGPT
Derechos de autor Canva/ChatGPT
Por Euronews
Publicado
Compartir Comentarios
Compartir Close Button

Las imágenes subidas a chatbots de IA pueden conservarse durante un tiempo desconocido y, en manos equivocadas, facilitar suplantaciones, estafas y perfiles falsos en redes sociales.

La moda de las caricaturas creadas con inteligencia artificial (IA), que muestran en una imagen colorida todo lo que un chatbot sabe sobre una persona, puede entrañar graves riesgos para la seguridad, según advierten expertos en ciberseguridad.

PUBLICIDAD
PUBLICIDAD

Los usuarios suben una foto suya, a menudo con el logotipo de la empresa o detalles sobre su puesto, y piden a ChatGPT, de OpenAI, que genere una caricatura de ellos y de su trabajo a partir de la información que el chatbot tiene sobre ellos.

Los expertos en ciberseguridad han explicado a Euronews Next que los retos virales en redes sociales, como las caricaturas con IA, pueden poner a disposición de los estafadores un auténtico filón de información valiosa. Una sola imagen, combinada con datos personales, puede revelar mucho más de lo que los usuarios imaginan.

"Están haciendo el trabajo de los estafadores, les dan una representación visual de quiénes son", resume Bob Long, vicepresidente de la empresa de verificación de edad Daon.

La propia formulación del reto ya debería hacer saltar las alarmas, añade, porque "suena como si lo hubiera iniciado deliberadamente un estafador que quiere facilitarse el trabajo".

¿Qué ocurre con las imágenes una vez que se suben?

Cuando un usuario sube una imagen a un chatbot de IA, el sistema la procesa para extraer datos como la emoción de la persona, el entorno o cualquier información que pueda desvelar su ubicación, explica el consultor de ciberseguridad Jake Moore. Esa información puede almacenarse después durante un periodo de tiempo indeterminado.

Long señala que las imágenes recopiladas de los usuarios pueden utilizarse y conservarse para entrenar generadores de imágenes con IA como parte de sus conjuntos de datos.

Una filtración de datos en una empresa como OpenAI podría hacer que información sensible, como las imágenes subidas y los datos personales recopilados por el chatbot, acabe en manos de actores malintencionados dispuestos a explotarla.

En las manos equivocadas, una única imagen en alta resolución puede servir para crear cuentas falsas en redes sociales o deepfakes realistas generados con IA que se utilicen en estafas, advierte Charlotte Wilson, responsable del área empresarial en Check Point, una compañía israelí de ciberseguridad.

"Las selfis ayudan a los delincuentes a pasar de estafas genéricas a suplantaciones de identidad personalizadas y muy convincentes", afirma.

La configuración de privacidad de OpenAI indica que las imágenes subidas pueden utilizarse para mejorar el modelo, lo que puede incluir su entrenamiento. Preguntado por estos ajustes de privacidad, ChatGPT aclara que eso no significa que cada foto se incluya en una base de datos pública.

En su lugar, el chatbot asegura que utiliza los patrones del contenido de los usuarios para afinar la forma en que el sistema genera imágenes.

¿Qué hacer si quiere participar en las tendencias de la IA?

Para quienes aun así quieren sumarse a la moda, los expertos recomiendan limitar lo que comparten.

Wilson señala que los usuarios deberían evitar subir imágenes que revelen cualquier información identificativa.

"Recorten al máximo, mantengan un fondo neutro y no incluyan insignias, uniformes, tarjetas o cordones de trabajo, pistas sobre su ubicación ni nada que le vincule con un empleador o con una rutina", aconseja.

Wilson también advierte de no compartir en exceso información personal en las instrucciones al chatbot, como el puesto de trabajo, la ciudad o el empleador.

​Por su parte, Moore recomienda revisar la configuración de privacidad antes de participar, incluida la opción de excluir sus datos del entrenamiento de la IA.

OpenAI cuenta con un portal de privacidad que permite a los usuarios excluirse del entrenamiento de la IA con sus datos haciendo clic en "do not train on my content".

Los usuarios también pueden impedir que se utilicen para el entrenamiento sus conversaciones de texto con ChatGPT desactivando el ajuste "improve the model for everyone".

La legislación de la Unión Europea permite a los usuarios solicitar la eliminación de los datos personales recopilados por la empresa. Sin embargo, OpenAI advierte de que puede conservar parte de la información incluso después de su supresión para hacer frente al fraude, el abuso y los problemas de seguridad.

Ir a los atajos de accesibilidad
Compartir Comentarios

Noticias relacionadas

¿Seres humanos o IA? Los investigadores dudan de quién publica en Moltbook

La Comisión Europea, Interpol y 100 organizaciones piden prohibir la generación de desnudos por IA

Un fallo en los dispositivos Shelly deja expuestos a 5,2 millones de hogares