CARLOTTI: La tecnología de los deep fakes ha surgido como una herramienta poderosa pero controvertida. Un deepfake o falsificación profunda es una técnica de manipulación audiovisual que utiliza inteligencia artificial y aprendizaje profundo para crear contenido sintético altamente realista.

En este episodio, Arturo López Valerio, también conocido como Mana Maná, comparte las reflexiones sobre cómo el avance de la tecnología de deep fakes requieren de medidas urgentes para mitigar el riesgo generado por dicha aceleración tecnológica.

F- El Auge de los Deep Fakes

Mediante algoritmos sofisticados, los deepfakes pueden superponer rostros, modificar expresiones, clonar voces y generar movimientos corporales, permitiendo la creación de vídeos, imágenes y audios falsos que son difíciles de distinguir de los reales.

Con el ajuste rápido correcto, todos pueden crear imágenes aparentemente reales o hacer que las voces de figuras políticas o económicas prominentes y artistas digan lo que quieran. Si bien la creación de una falsificación profunda no es un delito penal por sí solo, muchos gobiernos están avanzando hacia una regulación más fuerte al usar la inteligencia artificial para evitar daños a las partes involucradas.

Mientras que más de 400 expertos en IA, tecnología y ética digital firmaron una carta abierta exigiendo medidas urgentes contra los deep fakes, el reporte Identity Fraud Report de Sumsub revela la realidad del impacto de esta tecnología en diversas industrias y regiones del mundo.

Los signatarios de la carta titulada «Disrupción de la cadena de suministro de Deepfake», indican que es necesario establecer sanciones para la producción de pornografía infantil utilizando esta tecnología, establecer sanciones para quienes crean o difunden contenidos dañinos y falsos, y exigir que los desarrolladores y distribuidores de software tomen medidas para evitar que sus productos generen contenido deepfake.

Una encuesta entre 199 líderes de ciberseguridad que asistieron a la Reunión Anual del Foro Económico Mundial sobre Ciberseguridad en 2023 mostró que el 46 por ciento de los encuestados estaban más preocupados por el «avance de las capacidades contradictorias: phishing, desarrollo de malware, deep fakes» en términos de los riesgos que la inteligencia artificial representa para la ciberseguridad en el futuro.

Según el informe State of Deep Fakes 2023 de SumSub, la proliferación de vídeos falsos y engañosos producidos con sistemas de IA ha aumentado un 550% entre 2019 y 2023. Esta firma ha detectado un aumento de diez veces en el número de deep fakes a nivel mundial en todas las industrias de 2022 a 2023.

Por ejemplo, el incremento de la incidencia de los eventos de fraude en Filipinas hasta un 4,500% año tras año, seguida de países como Estados Unidos, Vietnam y Bélgica, son cifras alarmantes y reflejan la rapidez con la que esta tecnología se está desarrollando y difundiendo.

Uno de los aspectos más preocupantes del auge de los deep fakes es su impacto en la industria pornográfica. Los contenidos lascivos y ficticios creados con IA representan el 98% de todos los videos deepfake en línea, con un aumento del 400% en el último año. Además, el 99% de los receptores fueron mujeres, lo que evidencia una tendencia reincidente en el tema de la violencia de género habilitada por la tecnología.

Los deep fakes también representan una amenaza significativa para la identidad de las personas y las empresas. La firma Onfido estima que el fraude deepfake aumentó un 3,000% el año pasado. Esta tendencia es especialmente preocupante de cara a los procesos electorales, ya que el 51% de la población mundial participará en elecciones en el futuro próximo. Los deepfakes tienen el potencial de manipular la opinión pública y socavar la integridad de los procesos democráticos.

A pesar del llamado de los expertos, las estrategias de regulación del desarrollo y uso de la IA se enfrentan a desafíos significativos. Las leyes actuales no señalan ni limitan adecuadamente la producción y distribución de deep fakes, y los requisitos impuestos a los creadores a menudo son ineficaces. Además, las iniciativas regulatorias muestran un desarrollo aislado, lo que compromete el éxito de las iniciativas para abordar este problema.

Los expertos proponen la implementación generalizada de sellos digitales criptográficos a prueba de manipulaciones en fotografías y videos como una solución práctica.

Estos sellos permitirían verificar la autenticidad del contenido utilizando aplicaciones de código abierto. Además, se sugiere que los fabricantes de dispositivos, los desarrolladores de software y las empresas de medios trabajen juntos para popularizar estos métodos de autenticación de contenidos.

A medida que los deep fakes continúan avanzando, se espera que la valoración de mercado de la IA supere los 300 mil millones de dólares en 2025, lo que subraya la importancia de abordar los desafíos asociados con los deep fakes.

Los gobiernos, las empresas y la sociedad en general deben trabajar juntos para desarrollar marcos regulatorios efectivos y soluciones tecnológicas que protejan la integridad de la información y la identidad en un mundo cada vez más digitalizado.

El auge de los deep fakes plantea desafíos sin precedentes para la sociedad en la era digital. Mientras que los expertos abogan por medidas urgentes para abordar esta amenaza, la realidad revelada por el reporte Identity Fraud Report muestra la magnitud del problema.

Solo a través de esfuerzos conjuntos y soluciones innovadoras podremos navegar por el complejo panorama de los deepfakes y salvaguardar los valores fundamentales de nuestra sociedad.

H- REFLEXIÓN DE LA SEMANA ( SI HAY TIEMPO)

( CARLOTTI )  

«Las fuerzas que gobiernan ya no necesitan reprimir la información. Ahora pueden saturarnos con tanta cantidad de ella que resulta imposible discernir qué es fáctico y qué no. La capacidad de ser un público informado solo va a empeorar con el avance de la tecnología de falsificaciones profundas. Los audios y vídeos incriminatorios tendrán aún menos valor del que ya tienen. Un gobierno no necesita mentir a su pueblo ni censurar a sus enemigos cuando nadie cree nada desde el principio. Estamos entrando en la Era Post-Informacional. — J. Andrew Schrecke.