Los recientes avances en inteligencia artificial (IA) generativa hacen que sea cada vez más difícil distinguir la verdad de la falsedad. Las normas tienen un papel importante que desempeñar, tanto para ayudar a detectar deepfakes como para aumentar la transparencia a nivel mundial.
Cualquiera que siga las noticias regularmente podría pensar que los deepfakes (vídeos generados por ordenador que no solo distorsionan la realidad, sino que también pueden destruir la reputación de sus víctimas) solo afectan a celebridades del mundo del espectáculo y políticos. Alessandra Sala, ingeniera y científica de inteligencia artificial, se esfuerza en señalar que los actores maliciosos generan contenido falso para acosar, intimidar y difundir información errónea también sobre la gente común. “Cuando los medios falsos atacan a una persona que no tiene los medios económicos o sociales de una Taylor Swift o un Donald Trump, eso es un problema real y, por lo general, las víctimas son mujeres”, dice.
Sala, que trabaja para uno de los proveedores de contenidos multimedia más conocidos del mundo, explica que se dio cuenta por primera vez de la “cuestión de género” cuando participó en un panel de una conferencia de la ONU: “Una periodista de Oriente Medio contaba cómo había sido atacada por un vídeo falso en el que aparecía con su jefe para desacreditar su reputación y su competencia. Eso destruyó su esfera emocional. Su familia estaba en estado de shock”.
Si bien los efectos para las personas pueden ser devastadores, los deepfakes plantean una amenaza más amplia para la sociedad. Según MIT Technology Review , los deepfakes son "un arma perfecta para los proveedores de noticias falsas que quieren influir en todo, desde los precios de las acciones hasta las elecciones". El Informe de Riesgos Globales del Foro Económico Mundial identifica a los medios falsos como uno de nuestros desafíos más perniciosos. Según el WEF, la proliferación de la desinformación ha erosionado la confianza no solo en las plataformas digitales, sino también en las instituciones. Para WITNESS , una organización sin fines de lucro que ayuda a las personas a usar videos y tecnología para proteger y defender los derechos humanos, está amenazando su misión de enseñar a las personas los conceptos básicos de la producción de videos, técnicas de filmación seguras y éticas y estrategias de defensa.
Sam Gregory, director ejecutivo de Witness, afirma que los actores maliciosos a menudo utilizan las incertidumbres de las personas para desestimar los medios reales como si fueran falsos. “Tenemos muchos casos en los que alguien básicamente afirma que se ha utilizado inteligencia artificial para manipular un clip de audio o un video. Y a menudo es bastante difícil hacer el análisis forense para demostrar realmente que es real”.
El papel de los estándares en la detección de deepfakes
WITNESS es una de las varias organizaciones que han unido fuerzas con Sala para aplicar estándares (mejores prácticas acordadas internacionalmente) para detectar deepfakes que utilizan IA generativa. Bajo el liderazgo de las tres organizaciones de estándares internacionales, IEC , ISO e ITU , y presidida por Sala, la colaboración está aprovechando los conocimientos y la experiencia de una amplia gama de partes interesadas. Las grandes tecnologías están representadas por empresas como Adobe, Microsoft y Shutterstock. Otras organizaciones de estándares que participan incluyen Content Authenticity Initiative (CAI), Coalition for Content Provenance and Authenticity (C2PA) y Internet Engineering Tast Force (IETF). También participan el instituto de investigación alemán Frauenhofer , el Instituto Federal Suizo de Tecnología en Lausana ( EPFL ) y CAICT , un grupo de expertos centrado en la tecnología con sede en China, así como los especialistas en autenticación, DataTrails y Deep Media .
“Debemos impulsar estándares que puedan crear salvaguardas para proteger nuestra capacidad de confiar en el espacio digital, de mirar las noticias y entender si podemos confiar en ellas o no”, sostiene Sala. “Hoy, por defecto, tendemos a no confiar en nada. La gente no confía en las autoridades y ha dejado de confiar en los periodistas que han dedicado su vida a traernos la verdad”.
Sala afirma que las normas internacionales pueden ayudar a restablecer el orden y la capacidad de contextualizar lo que vemos y oímos. “Creo que es muy importante en un mundo en el que nuestras defensas humanas naturales ya no son suficientes”.
Vivimos en tiempos de una inestabilidad geopolítica cada vez mayor . Están estallando conflictos en diversas regiones del mundo, las crisis económicas se están profundizando y la polarización política parece estar aumentando tanto dentro de los países como entre ellos. Los efectos del cambio climático están exacerbando estos problemas, creando un panorama global volátil e impredecible. Para complicar aún más el entorno geopolítico, las naciones están lidiando con el rápido ritmo de los avances tecnológicos, que traen consigo tanto oportunidades como riesgos significativos.
“Vivimos en un mundo muy inestable y hay distintos intereses que deben tenerse en cuenta”, afirma Sala. “Además, hoy en día, esta tecnología está en manos de muy pocas empresas. Pueden hacer prácticamente lo que quieran, sin normas ni regulación. Es gratis”.
Cooperación entre expertos tecnológicos y organizaciones de normalización
La colaboración en materia de estándares sobre IA y autenticidad multimedia se lanzó en la cumbre mundial AI for Good celebrada en Ginebra a principios de este año. Los expertos destacaron los posibles impactos sociales de la IA generativa y la necesidad urgente de abordar el uso indebido de la IA para difundir información errónea.
En los debates se subrayó la importancia de la transparencia en materia de IA, en particular en lo que respecta a la procedencia de los datos utilizados para entrenar los modelos de IA. Establecer la autenticidad y fiabilidad de estos datos es fundamental para comprender posibles sesgos y garantizar la precisión del contenido generado por IA. La capacidad de verificar la autenticidad y la propiedad del contenido multimedia generado por IA se consideró esencial para proteger los derechos digitales.
Las organizaciones participantes acordaron una colaboración entre múltiples partes interesadas para identificar las lagunas en la estandarización actual en áreas como las marcas de agua con inteligencia artificial, la autenticidad multimedia y las tecnologías de detección de deepfakes. Están haciendo un mapeo del panorama de las normas existentes para identificar las lagunas y proponer soluciones para abordar estas deficiencias. Se espera que la iniciativa desempeñe un papel crucial en el apoyo a las políticas gubernamentales, garantizando la transparencia y protegiendo los derechos de los usuarios y los creadores de contenido en el campo de la inteligencia artificial y las tecnologías generativas, que evoluciona rápidamente.
Dónde ya están innovando IEC, ISO y UIT
Los tecnólogos y científicos responsables del formato de imagen JPEG están desarrollando un estándar compatible con versiones anteriores que, según esperan, facilitará la creación de medios que protejan la información de origen y salvaguarden los derechos de propiedad intelectual. Esperan que ayude a periodistas e investigadores de seguros, entre otros, a verificar la autenticidad de fotografías y vídeos. JPEG forma parte del Comité JTC 1/SC 29 de la ISO/IEC, que se ocupa de la codificación de audio, imágenes, multimedia e información hipermedia y también informa a la UIT.
Entre los posibles beneficiarios de la nueva norma internacional se encuentran los artistas cuyas obras digitales originales han sido acuñadas como NFT (tokens no fungibles) por estafadores. Los NFT son activos digitales únicos que se pueden comprar y vender como si fueran bienes físicos, y algunos de ellos se han vendido por decenas de millones de dólares en subastas.
La norma también debería facilitar la detección de deepfakes, aunque se espera que se convierta en un problema mayor a medida que la tecnología mejore. Los expertos en JPEG se esfuerzan en señalar que no todos los medios falsos son necesariamente malos o maliciosos. Los efectos especiales en las películas, los fotógrafos que crean diferentes versiones de una imagen para diferentes propósitos o los periodistas de radio que eliminan las pausas de las entrevistas son ejemplos de medios manipulados por buenas razones.
Fuerte:etech.iec.ch
La Iniciativa Mundial de Seguridad Alimentaria (GFSI) se complace en anunciar el esperado lanzamiento de la versión revisada de sus Requisitos de Evaluación Comparativa (BMR), versión 2024. Este importante ...
Cuando Sarah Chen, directora ejecutiva de GreenTech Solutions, echó un vistazo al panel de control de energía en tiempo real en su oficina, no pudo evitar sonreír. La gran pantalla mostraba cuánta energía ...
Los números de móvil no son sólo números, sino indicadores conectados con toda tu información personal: edad, correo electrónico, ubicación, patrimonio neto, hábitos de compra. Por supuesto, esta accesibilidad ...
El mal etiquetado de los artículos de alimentación dificulta la reflexión sobre la compra y tiene consecuencias para la salud y la economía de los consumidores, además de encubrir prácticas poco éticas ...
El pasado 25 de diciembre, mientras la mayor parte del mundo celebraba la Navidad, una interrupción en el cable de energía submarino Estlink 2, que conecta Finlandia y Estonia, encendió las alarmas ...