1. Inicio
  2. Secciones
  3. Ciencia y Tecnología
  4. Cómo la tecnología puede detectar fake news en vídeo
Nace un proyecto para distinguir de forma automática entre contenidos multimedia originales y falsos. (Foto: Pixabay)

Nace un proyecto para distinguir de forma automática entre contenidos multimedia originales y falsos. (Foto: Pixabay)

INTERESANTE PROYECTO

Cómo la tecnología puede detectar fake news en vídeo

Los investigadores combinan técnicas de análisis forense de contenidos digitales, marcas de agua e inteligencia artificial para distinguir de forma automática entre noticias multimedia originales y falsos.

Hechosdehoy / Hechos de Hoy / UN / UOC

Las redes sociales en línea son una importante vía de distribución de noticias falsas y desinformación. Esta situación se ha agravado con los recientes avances en las herramientas de edición de imagen y de inteligencia artificial, que permiten falsificar fácilmente documentos audiovisuales como los llamados deepfakes, que combinan y superponen imágenes, audios y videoclips para crear videomontajes que parecen reales.

Investigadores del grupo K-riptography and Information Security for Open Networks (KISON) y del Communication Networks & Social Change (CNSC), ambos del Internet Interdisciplinary Institute (IN3) de la la Universitat Oberta de Catalunya (UOC), han puesto en marcha un nuevo proyecto para desarrollar herramientas tecnológicas innovadoras que, usando técnicas de ocultación de datos e inteligencia artificial, ayuden a los usuarios a distinguir de forma automática entre contenido multimedia original y alterado, con lo que contribuyen a minimizar la redistribución de informaciones falsas. 

DISSIMILAR es una iniciativa internacional liderada por UOC en la que también participan investigadores de la Universidad Tecnológica de Varsovia (Polonia) y de la Universidad de Okayama (Japón). 

"El proyecto tiene un objetivo doble: por un lado, proporcionar a los creadores de contenido herramientas para identificar con marcas de agua sus creaciones, con lo que se consigue que cualquier modificación sea fácilmente detectable; por otro, dotar a los usuarios de las redes sociales de herramientas basadas en procesamiento de señales de última generación y métodos de aprendizaje automático para detectar contenido digital falso", explica el catedrático David Megías, investigador líder de KISON y director del IN3. Además, DISSIMILAR pretende incluir "la dimensión cultural y la visión del usuario final durante todo el proyecto", desde la concepción de las herramientas hasta el estudio de la experiencia de usabilidad en sus diversas fases.  

El peligro de los sesgos

En la actualidad, las herramientas de detección de noticias falsas son básicamente de dos tipos. Por un lado, instrumentos automáticos basados en aprendizaje automático, de los que, de momento, solo existen algunos prototipos. Y, por otro lado, las plataformas de detección de noticias falsas con intervención de personas, como sucede en Facebook o Twitter, en las que es necesario la participación humana para descubrir si un determinado contenido es genuino o falso.

Según David Megías, esta solución centralizada puede estar sujeta a "diferentes sesgos" y fomentar la censura. "Pensamos que una evaluación objetiva basada en herramientas tecnológicas puede ser una mejor opción, siempre que el usuario tenga la última palabra para decidir, en función de una preevaluación, si confía en un contenido o no", explica.

Para el catedrático de la UOC, no existe "una única bala de plata" que permita detectar noticias falsas, sino que la detección debe hacerse mediante la combinación de diversas herramientas. "Por eso, en el proyecto hemos optado por explorar la ocultación de información (marcas de agua), las técnicas de análisis forense de contenidos digitales (en gran parte basadas en procesamiento de señales) y, cómo no, el aprendizaje automático", destaca.

Verificar automáticamente documentos multimedia

Las marcas de agua digitales son un conjunto de técnicas, de la rama de la ocultación de datos, que consisten en incrustar información imperceptible en el archivo original para poder verificar "fácil y automáticamente" un documento multimedia. "Pueden servir para indicar la legitimidad de un contenido, por ejemplo, verificar que un vídeo o una fotografía ha sido distribuido por una agencia de noticias oficial; también se pueden utilizar como marca de autentificación, que se eliminaría en caso de modificación del contenido, o para trazar el origen de los datos, es decir, para saber si una fuente de información (por ejemplo, una cuenta de Twitter) está distribuyendo contenido falso", enumera David Megías.

Técnicas de análisis forense de contenidos digitales

El desarrollo de marcas de agua se combinará en el proyecto con la aplicación de técnicas de análisis forense de contenidos digitales. El objetivo es utilizar la tecnología de procesamiento de señales para detectar las distorsiones intrínsecas producidas por los dispositivos y programas que se utilizan cuando se crea o modifica cualquier documento audiovisual. Estos procesos producen una serie de alteraciones, como ruidos del sensor o distorsiones ópticas, que podrían identificarse mediante modelos de aprendizaje automático. "La idea es que la combinación de todas estas herramientas mejore los resultados en comparación con el uso de soluciones de un solo tipo", incide David Megías.

Estudios con usuarios de España, Polonia y Japón

Una de las características fundamentales de DISSIMILAR es incorporar un enfoque "holístico" y recoger "las percepciones y los componentes culturales de las noticias falsas". Para ello, se llevarán a cabo diferentes estudios centrados en el usuario, estructurados en varias fases. "En primer lugar, queremos conocer cómo se relacionan los usuarios con las noticias, qué les interesa, qué medios consumen según sus intereses, en qué se basan para identificar ciertos contenidos como fake news y qué están dispuestos a hacer para comprobar su veracidad. Si identificamos estos elementos, será más fácil que las herramientas tecnológicas que diseñemos puedan contribuir a evitar la propagación de las noticias falsas", explica David Megías.

La medición de estas percepciones se llevará a cabo en lugares y contextos culturales diferentes, con estudios con grupos de usuarios de Cataluña, Polonia y Japón, para incorporar así sus particularidades en el diseño de las soluciones. "Esto es importante porque, por ejemplo, en cada país hay un mayor o menor grado de credibilidad en las instituciones públicas o en el gobierno. Esto influye en el seguimiento de las noticias y en el apoyo a las noticias falsas: si no creo en el gobierno ni en las instituciones públicas, ¿para qué voy a estar pendiente de las noticias que provengan de estas fuentes? Esto se pudo ver durante la crisis de la COVID-19: en los países donde se confiaba menos en las instituciones públicas, se acataban menos las sugerencias o normas con respecto al manejo de la pandemia y a la vacunación", describe Andrea Rosales, investigadora del CNSC.

Un producto fácil de usar y comprensible

En una segunda fase, los usuarios participarán en el diseño de la herramienta para "asegurar que el producto va a ser bien recibido, fácil de usar y comprensible", resalta Andrea Rosales. "Nos gustaría que nos acompañaran a lo largo de todo el proceso hasta llegar al prototipo final, porque así podremos responder mejor a sus necesidades y prioridades y llegar adónde otras soluciones no han podido llegar", añade David Megías.

Esta aceptación entre los usuarios podría ser una vía para que, en un futuro, las plataformas de redes sociales lleguen a incorporar las soluciones desarrolladas en el proyecto. "Si nuestros experimentos funcionan, sería fantástico que integrasen estas tecnologías. De momento, nos conformamos con tener un prototipo funcional y una prueba de concepto que pueda animar a las plataformas sociales a incorporar estas tecnologías en el futuro", concluye el experto.

Comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Fill out this field
Fill out this field
Por favor, introduce una dirección de correo electrónico válida.
You need to agree with the terms to proceed

twitter facebook smarthphone
Menú