Newsletter Newsletters Events Eventos Podcasts Videos Africanews
Loader
Encuéntranos
Publicidad

TikTok lanza notas a pie de página, su apuesta a la verificación de hechos por crowdsourcing al estilo Wikipedia

El logotipo de TikTok se ve en un teléfono móvil delante de una pantalla de ordenador que muestra la pantalla de inicio de TikTok, 14 de octubre de 2022, en Boston.
El logotipo de TikTok se ve en un teléfono móvil delante de una pantalla de ordenador que muestra la pantalla de inicio de TikTok, 14 de octubre de 2022, en Boston. Derechos de autor  AP Photo/Michael Dwyer, File
Derechos de autor AP Photo/Michael Dwyer, File
Por Anna Desmarais
Publicado
Compartir esta noticia Comentarios
Compartir esta noticia Close Button

TikTok es la última plataforma de redes sociales que permite a los usuarios escribir y valorar publicaciones para contextualizar el contenido de sus feeds. Echamos un vistazo a cómo funciona la verificación de hechos por parte de la multitud.

PUBLICIDAD

TikTok es la última plataforma de redes sociales que ha lanzado una función de comprobación de hechos por crowdsourcing. La aplicación de vídeos cortos, denominada Footnotes (Notas a pie de página), se está implantando primero en Estados Unidos. Permite a los usuarios escribir una nota con más contexto sobre un vídeo y votar si deben aparecer otros comentarios debajo de un vídeo.

Una nota a pie de página puede compartir la opinión de un investigador sobre un "tema complejo relacionado con STEM" o destacar nuevas estadísticas para dar una imagen más completa de un acontecimiento en curso, según la empresa.

La nueva función es similar a otras funciones de comprobación de hechos basadas en la comunidad en plataformas de medios sociales como Facebook o Instagram de X y Meta. Pero, ¿por qué los gigantes de las redes sociales están adoptando este nuevo sistema para verificar los hechos en Internet?

¿Qué es la verificación comunitaria?

Scott Hale, profesor asociado del Instituto de Internet de Oxford, explica que Twitter, ahora X, inició la carga de las notas comunitarias en 2021 con una función llamada Birdwatch. El experimento continuó después de que Elon Musk tomara el control de la empresa en 2022.

Otavio Vinhas, investigador del Instituto Nacional de Ciencia y Tecnología en Disputas Informacionales y Soberanías de Brasil, dijo que la introducción de Meta de un programa de notas comunitarias a principios de este año está en línea con una tendencia liderada por el presidente estadounidense Donald Trump para avanzar hacia una visión más libertaria de la libertad de expresión en las redes sociales. "La demanda es que las plataformas se comprometan con esta (visión libertaria)", dijo Vinhas a 'Euronews Next'.

"Para ellos, una moderación justa sería una moderación que priorizara la libertad de expresión sin preocuparse demasiado por el daño potencial o las posibles afirmaciones falsas que pueda impulsar".

Hale explicó a 'Euronews Next' que hay algunas pruebas científicas que respaldan el crowdsourcing, con estudios que demuestran que las multitudes a menudo pueden llegar al veredicto correcto cuando evalúan si la información está bien contrastada o no. A menudo coincidían con los profesionales.

Pero TikTok's Footnotes es ligeramente diferente de otras iniciativas de crowdsourcing en Meta o X, dijo Vinhas. Esto se debe a que el programa sigue pidiendo a los usuarios que añadan la fuente de información de su nota, algo que, según Vinhas, no es obligatorio en X.

La mayoría de las notas no acaban en las plataformas

Según Hale, el reto para todas las empresas de redes sociales es conseguir que las notas lleguen a las personas adecuadas. Los tres programas comunitarios utilizan un sistema de clasificación basado en puentes que clasifica el grado de similitud con otro usuario en función del contenido que éste consume, basado en las otras cuentas que sigue o en los vídeos que ve, explica Hale.

El algoritmo muestra el contenido a usuarios que se consideran "no similares" entre sí para ver si ambos encuentran útil la nota, explicó Hale. Las notas que superen la prueba serán visibles en la plataforma. Lo que suele ocurrir, sin embargo, es que la gran mayoría de las notas que se escriben en la plataforma en realidad nunca se ven, dijo Vinhas.

Un estudio realizado en junio por el Instituto para la Democracia Digital de las Américas (DDIA) sobre notas comunitarias en inglés y español en X reveló que más del 90% de los 1,7 millones de notas disponibles en una base de datos pública nunca llegaron a estar en línea.

Las notas que sí llegaron a la plataforma tardaron una media de 14 días en publicarse, frente a los 100 días de 2022, aunque sigue habiendo retrasos en la rapidez con la que X responde a estas notas, continúa el informe del DDIA.

"No creo que estas plataformas puedan alcanzar la promesa de traer consenso y hacer de Internet este mercado de ideas en el que la mejor información y las mejores ideas terminan ganando la discusión", dijo Vinhas.

Hale dijo que puede ser difícil para los usuarios toparse con notas que puedan contradecir su punto de vista debido a las "cámaras de eco" de las redes sociales, donde se muestran contenidos que refuerzan las creencias que los usuarios ya tienen. "Es muy fácil meternos en partes de las redes que son similares a nosotros", afirma.

Una forma de mejorar la eficacia de las notas comunitarias sería gamificarlas, continuó Hale. Sugirió que las plataformas podrían seguir el ejemplo de Wikipedia, donde los usuarios que contribuyen tienen su propia página con sus ediciones.

La plataforma también ofrece una serie de premios a los editores en función del valor de sus contribuciones y la duración de su servicio, y les permite participar en concursos y recaudaciones de fondos.

¿Qué más hacen las redes sociales para moderar los contenidos de sus plataformas?

Según Hale y Vinhas, la comprobación de hechos por parte de la comunidad no es el único método que utilizan las empresas de redes sociales para limitar la difusión de información errónea o desinformación en sus plataformas.

Meta, X y TikTok utilizan algún grado de moderación automática para distinguir el contenido potencialmente dañino o violento. En Meta, la empresa dijo que se basa en sistemas de inteligencia artificial (IA) para analizar el contenido de forma proactiva y eliminarlo inmediatamente si coincide con violaciones conocidas de sus normas comunitarias o código de conducta.

Cuando ese contenido se marca, los moderadores humanos revisan las publicaciones individuales para ver si realmente infringen el código o si falta algún contexto.

Según Hale, a los sistemas automatizados les puede resultar difícil señalar nuevos contenidos problemáticos porque reconocen las afirmaciones repetidas de desinformación que han aprendido a detectar, lo que significa que pueden colarse nuevas mentiras. Los propios usuarios también pueden informar a las plataformas cuando hay un contenido que puede violar las normas de la comunidad, dijo Hale.

Sin embargo, Meta dijo que las notas de la comunidad sustituirían a las relaciones con los fact-checkers convencionales, que marcaron y etiquetaron la desinformación durante casi una década en Estados Unidos.

De momento, no hay indicios de que la plataforma vaya a poner fin a estas asociaciones en el Reino Unido y la Unión Europea, según sugieren los medios de comunicación. Hale y Vinhas afirmaron que la comprobación profesional de hechos y las notas de la comunidad pueden en realidad complementarse si se hacen correctamente.

En ese caso, las plataformas tendrían una comunidad de personas comprometidas que añadirían contexto a las notas, así como el rigor de los verificadores de hechos profesionales, que pueden tomar medidas adicionales, como llamar a expertos o ir directamente a una fuente para verificar si algo es cierto o no, añadió Hale.

Los verificadores de hechos profesionales también suelen conocer el pulso político, social y económico de los países en los que se desarrollan las campañas de desinformación, explicó Vinhas.

"Los verificadores de hechos estarán vigilando activamente [una] crisis política casi 24 horas al día, 7 días a la semana, mientras que los usuarios pueden no estar tan comprometidos con la integridad de la información", dijo.

Por ahora, Vinhas afirma que el modelo de TikTok es alentador porque se está utilizando para contribuir a un "programa global de comprobación de hechos", pero afirma que no hay indicios de que vaya a seguir siendo así.

Ir a los atajos de accesibilidad
Compartir esta noticia Comentarios

Noticias relacionadas

Menos odio y más confianza: TikTok introduce cambios revolucionarios

Del escaparate al 'scroll': así conquista el lujo el mundo en TikTok

Euroverify: TikTok difunde un falso impuesto en Alemania para financiar a Ucrania e Israel