Las noticias falsas y los bulos que propagan desinformación para influir en grupos y sociedades enteras han existido desde antes de internet. En la sociedad hiperdigitalizada actual, las redes sociales y otros medios se han convertido en los principales canales para la difusión de desinformación. La información falsa no solo incluye texto, sino también la manipulación de imágenes digitales, vídeos y audio.
La difusión de noticias falsas en redes sociales ha tenido un impacto palpable en la realidad, como se observó en las elecciones presidenciales de EE. UU. del 2016.
La detección de desinformación, que incluye las noticias falsas, es un campo de investigación que integra disciplinas como ciencias de la comunicación, sociología, análisis de datos e informática.
El aprendizaje automático o machine learning es una herramienta esencial para clasificar la información falsa. Este consiste en el entrenamiento de modelos de redes neuronales con amplios conjuntos de datos para identificar patrones y características distintivas de las noticias falsas y las legítimas.
La carrera armamentística de la inteligencia artificial
La aplicación exclusiva del aprendizaje automático en este contexto presenta algunos inconvenientes. En primer lugar, la constante evolución de las tácticas empleadas por los creadores de noticias falsas los impulsa a adaptarse rápidamente a las nuevas tecnologías y enfoques de detección. En este ciclo constante de mejora, ambos lados se ven envueltos en un bucle infinito.
Imaginemos un escenario donde los creadores de noticias falsas utilizan algoritmos de inteligencia artificial generativa para producir contenido cada vez más sofisticado y convincente. Frente a esta amenaza, los modelos de aprendizaje automático utilizados para la detección de desinformación se ajustan y mejoran para reconocer los patrones más recientes de creación de deepfakes. Sin embargo, esta respuesta desencadena una contraadaptación por parte de los generadores de noticias falsas, quienes refinan sus estrategias para evadir las nuevas medidas de detección.
Esta dinámica conlleva una competición infinita de mejora constante, donde tanto los generadores de noticias falsas como los detectores se enfrascan en una carrera armamentística.
El peligro de los falsos positivos
Además, los métodos de detección basados exclusivamente en machine learning presentan otro inconveniente. Aunque la precisión y la eficacia de los modelos existentes son muy elevadas, incluso una pequeña cantidad de falsos positivos puede tener repercusiones importantes.
En el entorno digital actual, con millones de contenidos generados diariamente, la mínima fracción de falsos positivos puede llevar a la identificación errónea de grandes cantidades de información legítima como desinformación.
La inevitabilidad de los falsos positivos puede socavar la confianza en las herramientas de detección de desinformación por parte de los usuarios. Por lo tanto, reducir la incidencia de falsos positivos es una prioridad acuciante en el desarrollo de soluciones para la detección de desinformación.
¿Existen otras tecnologías que puedan ayudar?
El watermarking digital emerge como una herramienta poderosa en este contexto. Se trata de un conjunto de técnicas que permiten incrustar información oculta de manera imperceptible en contenidos multimedia e incluso en texto. Esto abre un abanico de posibilidades cruciales en la lucha contra la desinformación.
El watermarking se clasifica en dos categorías principales: robusto y frágil.
Las marcas robustas, resistentes a modificaciones, permiten identificar el origen o el propietario de un contenido. Así se ayuda a legitimar la información procedente de agencias y medios de prestigio. El mecanismo de extracción de las marcas ocultas facilita la identificación de la fuente en contenidos previamente marcados.
Las marcas frágiles y semifrágiles son muy eficaces para detectar manipulaciones fraudulentas. Al incrustarlas antes de distribuir el contenido, los detectores pueden identificar fácilmente fragmentos modificados sin apenas falsos positivos.
El watermarking digital puede contribuir a combatir la desinformación en tres escenarios clave:
- Confirmación del origen de noticias legítimas. Al integrar marcas digitales robustas en contenidos de noticias para validar su origen, las agencias y los medios de comunicación pueden beneficiarse de una trazabilidad irrefutable. Esto descartaría sospechas de noticias falsas en contenidos legítimos y fortalecería la confianza en la veracidad de las fuentes.
- Autenticación de noticias legítimas. Si se incrustan marcas frágiles o semifrágiles en contenidos de noticias, los usuarios podrían verificar la legitimidad de la información recibida. Esta tecnología no solo protegería contra la difusión de información falsa, sino que también capacitaría a la ciudadanía para tomar decisiones autónomas e informadas sobre la credibilidad de las noticias que reciben.
- Trazabilidad de noticias falsas. Frente a la proliferación de noticias falsas, la trazabilidad implica la inserción de marcas rastreables en contenidos que luego se han identificado como falsos. Estas marcas actuarían como migas de pan digitales, permitiendo rastrear la fuente de la desinformación hasta sus orígenes y desacreditar a los creadores de información fraudulenta.
Un cóctel tecnológico contra la desinformación
La integración de técnicas de watermarking en la detección de desinformación ofrece una estrategia innovadora para abordar los desafíos que plantea el uso exclusivo del aprendizaje automático.
Una aproximación híbrida que combine watermarking con machine learning no solo aumenta la precisión de la detección, sino que también introduce consistencia y aborda los problemas fundamentales asociados al uso exclusivo del aprendizaje automático.
Al romper la dinámica de la carrera armamentística y reducir el porcentaje de falsos positivos, la aplicación integrada de watermarking y aprendizaje automático proporciona un enfoque equilibrado y efectivo para enfrentar los desafíos complejos de la desinformación en la era digital.
En un entorno digital saturado de información, combatir la desinformación constituye un desafío crucial que requiere soluciones innovadoras. Al explorar el potencial del watermarking en combinación con el aprendizaje automático no solo abordamos las limitaciones de la carrera armamentística y los falsos positivos, sino que también trazamos un camino hacia una defensa más consistente contra la manipulación de la información.
La capacidad de validar la autenticidad de las noticias, rastrear su origen y mitigar los riesgos de identificación errónea sugieren que el futuro de la detección de desinformación reside en la diversificación de estrategias tecnológicas que ofrezcan apoyo a la ciudadanía para tomar decisiones informadas.
Ante el desafío que conlleva la desinformación, unir esfuerzos para fortalecer nuestras defensas es esencial. Aprovechando diferentes enfoques, podemos forjar un futuro donde la confianza en la información prevalezca y cada persona sea una defensora activa de la información rigurosa en la red.
TheConversation.com Published: March 5, 2024 6.15pm GMT
Author
- David Megías Catedrático de Seguridad y Privacidad de la Información, UOC – Universitat Oberta de Catalunya
Disclosure statement
David Megías agradece la financiación obtenida por el proyecto «Detection of fake newS on SocIal MedIa pLAtfoRms» (DISSIMILAR) de la convocatoria EIG CONCERT-Japón con la subvención PCI2020-120689-2 (Gobierno de España) y por el proyecto PID2021-125962OBC31 «SECURING» financiado por el Ministerio de Ciencia e Innovación, la Agencia Estatal de Investigación y el Fondo Europeo de Desarrollo Regional (FEDER). Esta iniciativa se realiza en el marco de los fondos del Plan de Recuperación, Transformación y Resiliencia, financiados por la Unión Europea (Next Generation), a través de la Cátedra Internacional ARTEMISA de Ciberseguridad y del Proyecto Estratégico DANGER de Ciberseguridad, ambos concedidos por el Instituto Nacional de Ciberseguridad de España (INCIBE).