Casi el 50 % de los europeos confunde noticias de IA con reales, según un estudio de 'PNAS Nexus'. En el Día Internacional de la Verificación, expertos recomiendan buscar fallos visuales, usar la búsqueda inversa de Google y recurrir a organismos como la EFCSN para frenar los bulos.
Coincidiendo con el décimo Día Internacional de la Verificación de Hechos, es un buen momento para repasar cómo identificar la desinformación generada por inteligencia artificial (IA).
Este tipo de contenidos está apareciendo por todas partes, desde la guerra entre Estados Unidos e Irán hasta la campaña previa a las elecciones húngaras, e incluso en los canales personales de las redes sociales.
Un estudio reciente, publicado en la revista 'PNAS Nexus', pidió a 27.000 personas de 27 países de la UE que clasificaran ocho titulares informativos generados por humanos y por IA según el grado de verosimilitud que les atribuían.
Prácticamente la mitad de los titulares generados por IA fueron calificados como mayoritariamente o completamente reales, frente al 44% de los redactados por personas. Los participantes también eran más propensos a compartir y considerar fiable una noticia generada por IA que una escrita por humanos si sabían que trataba sobre un acontecimiento real.
Sin embargo, los encuestados dijeron que eran menos proclives a compartir una noticia, estuviera escrita por una persona o por IA, si sabían que era falsa.
Estos resultados indican que la gente no es capaz de distinguir entre contenidos creados por humanos y contenidos generados por IA, señalaron los investigadores.
Estas son algunas claves para hacerlo.
Busque pistas visuales
Los primeros vídeos generados con IA que circularon en internet presentaban señales evidentes, como personas con demasiados dedos, voces desincronizadas con el audio u objetos deformados.
Ahora hay menos indicios de este tipo porque la tecnología ha evolucionado, pero sigue siendo útil buscarlos.
Los usuarios pueden fijarse en incoherencias, por ejemplo un coche que aparece en una escena del vídeo y desaparece en la siguiente.
Algunas imágenes generadas por IA también pueden resultar excesivamente pulidas o presentar un brillo poco natural, según la Global Investigative Journalism Network (GIJN).
La GIJN recomienda que, al observar una imagen que podría haber sido generada por IA, las personas se pregunten si quien aparece en ella parece demasiado perfecto, especialmente para el contexto de la fotografía (es decir, si tiene aspecto de portada de revista pese a estar en una zona de conflicto). También sugiere fijarse en la calidad de la piel para comprobar si falta textura.
Investigue por su cuenta
Si una imagen o un vídeo parecen sospechosos, existen maneras de comprobar si son auténticos.
Una forma de hacerlo es mediante una búsqueda inversa de imágenes, en la que el usuario toma una captura del vídeo, la sube al buscador de Google y pulsa el icono de la cámara que indica "search for image".
Una vez que el usuario sube la imagen, Google ofrece coincidencias visuales para la misma foto y se puede identificar rápidamente cuándo se publicó por primera vez.
Esto también puede hacerse en otros motores de búsqueda o con herramientas especializadas como TinEye.
Los usuarios también pueden recurrir a soluciones técnicas para rastrear las marcas de agua o los metadatos de un contenido y determinar si la información es fiable o no, según la Comisión Europea.
Por ejemplo, las imágenes generadas con Gemini, la IA de Google, incluyen una marca de agua digital invisible llamada SynthID, que la propia aplicación puede detectar.
Escuche a los expertos
Los usuarios también pueden comprobar si algún medio de comunicación, un comunicado de una figura pública o una publicación en redes sociales de un especialista en desinformación ya ha desmentido la imagen o el vídeo que han visto circular.
En Europa existen organizaciones de verificación, como la European Fact-Checking Standards Network (EFCSN), el European Digital Media Observatory (EDMO) y EUvsDisinfo, gestionado por el Servicio Europeo de Acción Exterior (SEAE), que publican tendencias, investigaciones y desmentidos sobre diversas formas de desinformación generada por IA.
Estas fuentes pueden disponer de técnicas más avanzadas para identificar contenidos generados por IA o de acceso a información sobre la imagen que no está al alcance del gran público.
Los usuarios también pueden comprobar si la información que están viendo forma parte de la 'Database of Known Fakes', una base de datos de verificaciones realizadas por periodistas, investigadores y verificadores profesionales.
Aproveche la tecnología
Existen algunas herramientas de detección de IA que se pueden utilizar, aunque su precisión a la hora de señalar contenidos generados por IA sigue siendo objeto de debate.
Entre las herramientas de detección de IA figuran Winston AI, que identifica imágenes generadas por IA, TruthScan, que ofrece una primera evaluación sobre si una imagen ha sido creada con IA, y Originality AI, que detecta si un texto ha sido generado por IA.
Otras herramientas de creación con IA han incorporado marcas de agua visibles al contenido que generan.
A menudo son fáciles de eliminar o recortar, de modo que la ausencia de esa marca de agua no es una prueba de que una imagen sea genuina.
Tómese su tiempo
Párese, respire hondo y no comparta de inmediato algo que no es real.
Quienes actúan de mala fe suelen confiar en que las personas dejen que sus emociones y sus ideas preconcebidas guíen su reacción ante los contenidos.
Leer los comentarios puede ofrecer pistas sobre si la imagen que ve el usuario es real o no, porque otros pueden haber detectado algún detalle que apunte a que ha sido generada por IA.
No siempre es posible determinar si una imagen ha sido generada por IA, por lo que conviene mantener la alerta ante la posibilidad de que no sea real.