Desinformación

Nick Clegg - Meta

Meta identificará en sus redes sociales las imágenes generadas por IA

El gigante estadounidense Meta anunció el martes que identificará «en los próximos meses» cualquier imagen generada por inteligencia artificial (IA) que aparezca en sus redes sociales Facebook, Instagram y Threads. «En los próximos meses etiquetaremos las imágenes que los usuarios publiquen en Facebook, Instagram y Threads, siempre y cuando podamos detectar los indicadores, conformes a las normas de la industria, que revelan que son generadas por IA» anunció Nick Clegg, el responsable de asuntos internacionales de Meta, en un blog. La compañía ya identifica las imágenes generadas con la ayuda de su propia herramienta, Meta IA, que fue lanzada en diciembre. De ahora en adelante «queremos poder hacer lo mismo con contenidos creados con herramientas de otras empresas» como Google, OpenAI, Microsoft, Adobe, Midjourney o Shutterstock, añadió el responsable de Meta. «Estamos construyendo esta herramienta en estos momentos, y en los próximos meses comenzaremos a aplicar etiquetas en todos los idiomas compatibles con cada aplicación», subrayó el líder. El auge de la IA generativa suscita temores de que las personas utilicen estas herramientas para sembrar el caos político, especialmente a través de la desinformación. Casi la mitad de la población mundial celebrará elecciones este año. Además del riesgo político, el desarrollo de programas de IA generativa podría producir un flujo incontrolable de contenidos degradantes, según numerosos activistas y reguladores, como las imágenes falsas («deepfakes») pornográficas de mujeres famosas, un fenómeno que también afecta a muchas personas anónimas. – «Minimizar» – Por ejemplo, una imagen falsa de la estrella estadounidense Taylor Swift fue vista 47 millones de veces en la red social X a finales de enero antes de ser eliminada. Según la prensa estadounidense, la publicación permaneció en línea en la plataforma durante aproximadamente 17 horas. Si bien Nick Clegg admite que este etiquetado a gran escala, a través de […]

Open AI democracia

OpenAI promete herramientas contra la desinformación electoral

La firma estadounidense OpenAI, creadora del robot virtual ChatGPT, anunció que lanzará herramientas contra la desinformación este año en el que se celebran docenas de elecciones en países que nuclean a la mitad de la población mundial. La herramienta conversacional ChatGPT impulsó una revolución de la inteligencia artificial (IA), pero también provocó advertencias de especialistas de que estos programas podrían inundar internet de desinformación e influir en la decisión de los votantes. Ante la celebración de numerosas elecciones este año en países como Estados Unidos, India y Gran Bretaña o en otros más pequeños como Uruguay, OpenAI declaró el lunes que no permitirá que su tecnología -incluidos ChatGPT y el generador de imágenes DALL-E 3- sean utilizados en campañas políticas. «Queremos asegurarnos de que nuestra tecnología no se use para socavar» procesos democráticos, afirmó OpenAI en un blog. «Todavía estamos trabajando para comprender la eficacia de nuestras herramientas para la persuasión personalizada. Hasta que sepamos más, no permitimos construir aplicaciones para campañas políticas y grupos de presión», añadió la firma. – Desinformación: un riesgo – La desinformación, incluida la generada por IA, es uno de los mayores riesgos mundiales a corto plazo y podría generar perjuicios para gobiernos recién elegidos en las principales potencias económicas, advirtió la semana pasada el Foro Económico Mundial. Según los expertos, el temor a la desinformación electoral comenzó hace años, pero el fácil acceso a potentes generadores de texto e imágenes basados en IA aumentaron la amenaza, especialmente si los usuarios no pueden distinguir fácilmente si el contenido es falso o fue manipulado. OpenAI informó el lunes que prepara herramientas que hagan más confiables los textos generado por ChatGPT, así como ofrecer a los usuarios la posibilidad de detectar si una imagen ha sido creada con DALL-E 3. «A principios de este año implantaremos las […]

La desinformación, un riesgo antes de elecciones importantes, según Foro Económico Mundial

La desinformación constituye uno de los riesgos más grandes para la humanidad en este momento, según un estudio del Foro Económico Mundial (FEM), que destaca el efecto nocivo que puede tener en los procesos electorales. En los próximos dos años están previstas elecciones importantes que llevarán a las urnas a unos 3.000 millones de personas. En pleno boom del recurso a la inteligencia artificial (IA), «el uso generalizado de información errónea y desinformación, y de las herramientas para difundirlas, pueden debilitar la legitimidad de los gobiernos recién elegidos», según el estudio «Global Risks Report (Informe de Riesgos Globales)», publicado el miércoles por el FEM. «Los problemas resultantes de ello podrían ir desde manifestaciones violentas y crímenes de odio hasta enfrentamientos civiles y terrorismo», continúa este documento, presentado pocos días antes de una nueva reunión del Foro Económico Mundial, en Davos, del 15 al 19 de enero. Los votantes deben elegir nuevos líderes en los dos próximos años en países como Bangladés, India, Indonesia, México, Pakistán, Reino Unido y Estados Unidos, explica el informe del Foro Económico Mundial. Las cinco principales preocupaciones son diferentes en cada país, señaló  Saadia Zahidi, directora general del FEM, este miércoles en rueda de prensa en Londres, precisando que si los riesgos de informaciones erróneas «no aparecen para nada entre esas principales inquietudes» para Estados Unidos, «en el caso de India, es el riesgo número uno». Más allá de los riesgos de la desinformación (información errónea difundida involuntariamente) y de la desinformación (información falsa difundida voluntariamente), «inducida por la IA y la polarización social», se añade este año «la preocupación por una crisis persistente en el coste de la vida», señala el Foro en un comunicado. – Un informe pesimista – Y cuando hay varias guerras en marcha, los conflictos armados interestatales se encuentran entre las […]

El papa pide un tratado internacional para regular la IA

El papa Francisco instó el jueves a la comunidad internacional a adoptar un tratado vinculante para regular el uso de la Inteligencia Artificial (IA), e insistió en la importancia de la ética ante los «graves riesgos» vinculados a las nuevas tecnologías. En un mensaje difundido por el Vaticano con ocasión de la 57ª Jornada Mundial de la Paz, que se celebrará el 1 de enero por iniciativa de la Iglesia católica, el papa argentino llama a adoptar «un tratado internacional vinculante que regule el desarrollo y el uso de la IA en sus múltiples formas». Jorge Bergolgio, que cumplirá 87 años el domingo, invita a reflexionar en el «sentido del límite» y estima que el ser humano «corre el riesgo […], en la búsqueda de una libertad absoluta, de caer en la espiral de una dictadura tecnológica». La IA, que «será cada vez más importante», puede ser usada para «campañas de desinformación», «la interferencia en los procesos electorales» e «influir en las decisiones de los individuos», escribe en este mensaje de seis páginas publicado por el Vaticano en varios idiomas. El sumo pontífice celebra las «extraordinarias conquistas de la ciencia y de la tecnología», a la vez que estima que estas «están poniendo en las manos del hombre una vasta gama de posibilidades, algunas de las cuales representan un riesgo para la supervivencia humana y un peligro para la casa común». «Los notables progresos de las nuevas tecnologías de la información […] presentan, por tanto, entusiasmantes oportunidades y graves riesgos, con serias implicaciones para la búsqueda de la justicia y de la armonía entre los pueblos», insiste. Este mensaje llega unos días después de que la Unión Europea (UE) acordara una legislación inédita a nivel mundial sobre la IA, que busca favorecer la innovación en Europa al tiempo que limita […]

La IA enfrenta el desafío de aprender a olvidar los errores asimilados

Brian Hood descubrió un día que ChatGPT le atribuía un pasado criminal, pero para resolver este error, este político australiano indagó en un problema que plantea también un desafío para los ingenieros: cómo enseñar a la Inteligencia Artificial (IA) a borrar información errónea. Hood intentó una solución convencional y amenazó con demandar por difamación a OpenAI, la empresa creadora de ChatGPT. Pero entrenar a este tipo de robot es un proceso lento y costoso, por lo que este problema expone a la luz un desafío que será crucial en los próximos años, especialmente de cara a la reglamentación en la Unión Europea sobre protección de los datos personales. Hood afirma que sus comunicaciones con OpenAI no fueron de gran ayuda, pero que sus quejas, que inundaron los medios, solucionaron el problema cuando la empresa actualizó la aplicación y el robot dejó de repetir estas afirmaciones falsas sobre sus antecedentes penales. «Irónicamente, la gran cantidad de [información en] prensa sobre mi historia corrigió los registros», relató a AFP Hood, que es alcalde de la ciudad de Hepburn, en Australia. La empresa OpenAI no respondió a las peticiones de comentarios sobre este tema. «La capacidad de eliminar datos de las bases de datos de entrenamiento es un tema crítico de cara al futuro», señaló Lisa Given, de la Universidad RMIT de Melbourne, en Australia. En el caso de los buscadores de internet, es posible borrar entradas, pero este proceso no es tan simple con los modelos basados en la IA. En respuesta a este desafío, un grupo de científicos está estudiando un nuevo campo denominado el «desaprendizaje automático», que trata de entrenar algoritmos para que «olviden» datos que sean problemáticos. – «Una herramienta interesante» – Un experto en este campo, Meghdad Kurmanji de la Universidad de Warwick en el Reino Unido, explicó […]

Sam Altman, cocreador de ChatGPT, busca tranquilizar sobre la inteligencia artificial

«Tengo mucha empatía por el sentimiento de las personas, cualquiera sea su sentimiento» en relación a ChatGPT, dijo el jueves a la AFP Sam Altman, creador de OpenAI, que lanzó una revolución tecnológica con esta plataforma de inteligencia artificial (IA) generativa hace un año. El ejecutivo acababa de participar en una conferencia con altos jerarcas de Google y Meta al margen de la cumbre anual del Foro de Cooperación Asia Pacífico (APEC), que se desarrolla en San Francisco esta semana. A pesar de su éxito, ChatGPT y otras interfases capaces de producir textos, imágenes y sonidos a demanda, preocupan por los peligros que pueden acarrear para la democracia, como la desinformacion masiva, o el empleo, con profesiones u oficios que podrían verse reemplazados. «Esperamos realmente que estas herramientas sean adoptadas por los creadores y que les ayuden», explicó Altman a propósito de los artistas furiosos con las aplicaciones de OpenAI. «Por supuesto, habrá que encontrar un modelo económico que funcione», reconoció. «Y tendremos que permitir a las personas decidir si quieren ser parte o no». Artistas, escritores de códigos informáticos y escritores (entre ellos George R.R. Martin, autor de la saga «Juego de Tronos») presentaron este año una demanda contra OpenAI y otros competidores de la start-up californiana, a los que acusan de utilizar sus obras para crear sus interfases sin respetar los derechos de autor, sin consentimiento ni remuneración. En Hollywood, la huelga histórica de guionistas y actores que acaba de terminar ilustra sus temores con relación a la inteligencia artificial generativa. – China y la IA – A la salida de la sala de conferencias, Altman fue rodeado por simpatizantes que buscaban tomarse fotos con él. Consultado sobre el uso de IA en China, aseguró «no saber gran cosa sobre cómo China utiliza la IA». «No está entre […]

Comisión Europea suspende sus campañas publicitarias en red social X

La Comisión Europea pidió a sus servicios que suspendan sus campañas publicitarias en la red social X (antes Twitter) debido al «aumento alarmante de la desinformación y de los discursos de odio», indicó el viernes un portavoz. «Hemos visto un aumento alarmante de la desinformación y de los discursos de odio en varias redes sociales en las últimas semanas, y esto afecta por supuesto a X», dijo el portavoz Johannes Bahrke. «Por lo tanto, recomendamos a los servicios que se abstengan de hacer campañas publicitarias» en la plataforma, propiedad del multimillonario Elon Musk, añadió. Esta decisión no cuestiona la presencia de los servicios de la Comisión Europea en X, precisó el portavoz. Desde que Musk compró Twitter a finales de octubre de 2022, antes de cambiar su nombre, la plataforma relajó sus reglas sobre la desinformación, redujo sus equipos de moderación de contenidos y permitió el regreso de numerosas personalidades polémicas. El ejecutivo europeo abrió en octubre una investigación contra esta red social por la supuesta difusión de «informaciones falsas», «contenidos violentos y de carácter terrorista» y «discursos de odio» en el contexto de la guerra entre Israel y el movimiento islamista palestino Hamás. Esto forma parte de la aplicación de la nueva legislación sobre servicios digitales (DSA), que impone obligaciones más estrictas a las plataformas. La instrucción de suspender toda publicidad sobre X por parte de la Comisión se debe también a una polémica en torno a una campaña realizada en septiembre en esta red social por los servicios de la comisaria europea de Asuntos de Interior, Ylva Johansson, para promover un proyecto de ley. Esta campaña está acusada de utilizar técnicas de microciblaje basadas en las opiniones políticas y religiosas de las personas afectadas, en violación de las normas europeas sobre datos personales. alm/jca/lpt/mab © Agence France-Presse

La IA amenaza con aumentar la desinformación rumbo a la Casa Blanca 2024

Desde imágenes inventadas de la detención de Donald Trump hasta un video que describe un futuro distópico bajo el mandato de Joe Biden, la carrera de 2024 hacia la Casa Blanca se enfrenta a una avalancha de desinformación facilitada por la tecnología en lo que se considera la primera elección estadounidense basada en la inteligencia artificial. Los activistas de ambos bandos políticos están utilizando herramientas avanzadas basadas en la inteligencia artificial, que muchos expertos en tecnología consideran un arma de doble filo. Las herramientas de IA pueden clonar en un instante la voz de una figura política y crear videos y textos tan aparentemente reales que los votantes podrían tener dificultades para descifrar la verdad de la ficción, socavando al mismo tiempo la confianza en el proceso electoral. Al mismo tiempo, es probable que las campañas utilicen la tecnología para aumentar la eficiencia operativa en todo, desde el análisis de las bases de datos de votantes hasta la redacción de correos electrónicos para recaudar fondos. Un video publicado en junio por la campaña presidencial del gobernador de Florida, Ron DeSantis, supuestamente mostraba al expresidente Trump abrazando a Anthony Fauci, destacado miembro del grupo de trabajo sobre coronavirus en Estados Unidos. Los verificadores de datos de AFP descubrieron que el video utilizaba imágenes generadas por IA. Después de que Biden anunciara formalmente su candidatura a la reelección, en abril el Partido Republicano publicó un video que, según dijo, era una «mirada generada por IA al posible futuro del país» si el demócrata ganaba. En él se mostraban imágenes realistas de pánico en Wall Street, China invadiendo Taiwán, oleadas de inmigrantes arrollando a los agentes fronterizos y una toma militar de San Francisco en medio de una criminalidad atroz. Otros ejemplos de imágenes de IA relacionados con la campaña incluyen fotos falsas […]

UE abre investigación sobre desinformación en Meta y TikTok en conflicto entre Israel y Hamás

La Comisión Europea (brazo ejecutivo de la Unión Europea, UE) anunció este jueves haber iniciado investigaciones sobre desinformación en las redes sociales propiedad de Meta (Facebook e Instagram) y TikTok relacionada con el conflicto entre Israel y el grupo islamista Hamás. La Comisión dijo que presentó demandas formales de informaciones adicionales a las dos empresas, una semana después de haber lanzado un procedimiento de investigación contra la red X (antes Twitter). En el caso de Meta, la Comisión anunció que solicitó informaciones por la «diseminación y amplificación de contenido ilegal» sobre el conflicto entre Israel y Hamás. Con relación a TikTok, demandó datos sobre los esfuerzos para evitar la diseminación de «contenido violento o de carácter terrorista y discurso de odio», así como las medidas diseñadas para proteger a los menores de edad. Meta y TikTok tienen plazo hasta el 25 de octubre para responder a las demandas de la Comisión, y hasta el 8 de noviembre para presentar informaciones más específicas. Un portavoz de Meta aseguró este jueves que «nuestros equipos trabajan 24 horas al día para garantizar la seguridad de nuestras plataformas, y tomar medidas sobre contenidos». Igualmente, un portavoz de TikTok aseguró que la plataforma (de propiedad de la firma china Bytedance) adoptó medidas urgentes después del ataque perpetrado por milicianos del grupo Hamás en Israel. La firma, aseguró la fuente, divulgará en la «próxima semana» un informe sobre los esfuerzos desplegados para frenar la desinformación. Meta ya había asegurado que suprimió u ocultó  con una advertencia unos 795.000 mensajes en árabe y hebreo; TikTok, en tanto, ya aseguró haber eliminado más de 500.000 videos y transmisiones en directo. La Comisión apuntó que las investigaciones se apoyan en las obligaciones de las grandes plataformas ante la nueva Ley de Servicios Digitales (DSA, por su sigla en inglés). […]

Los videojuegos, campo de batalla virtual para guerras muy reales

La guerra entre Israel y Hamás está inundando las redes sociales con contenidos de videojuegos hiperrealistas pero engañosos, como ya sucedió con otros conflictos recientes. Un video viral publicado en Facebook bajo el título «Dos helicópteros israelíes derribados por Hamás», otro sobre la «demostración» de las «valientes fuerzas armadas de Malí» ante grupos yihadistas y uno sobre un «helicóptero ruso» enfrentándose a la artillería ucraniana son algunos ejemplos. Todos esos contenidos son presentados como enfrentamientos bélicos reales, con misiles, explosiones de tanques por drones o aviones de combate derribados en un entorno realista, de ciudades en llamas. Pero en realidad estas imágenes fueron extraídas de «Arma 3», un videojuego desarrollado por el estudio independiente checo Bohemia Interactive. – Pruebas «irrefutables» – Desde hace una década partidarios de uno u otro campo en una guerra vienen utilizando extractos de videojuegos de guerra para generar imágenes que se presentan como auténticas. En 2017, el ejército ruso publicó en Twitter y Facebook imágenes aéreas, en blanco y negro, supuestamente tomadas en la frontera entre Irak y Siria. Esas imágenes eran presentadas como pruebas «irrefutables» de que Estados Unidos estaba proporcionando «cobertura» al Estado Islámico… hasta que el grupo de inteligencia Conflict Intelligence Team (CIT) relacionó una de estas imágenes con el videojuego de guerra «AC-130 Gunship Simulator: Special Ops Squadron». Después de eliminar rápidamente estas imágenes, el ejército ruso afirmó que fue un «error» cometido por un empleado civil. – Potencial «viral» – Estas desinformaciones son regularmente denunciadas por medios de verificación digital, como la AFP, que ha descubierto varias de ellas, incluida una el 12 de octubre que afirmaba mostrar helicópteros israelíes derribados por el movimiento palestino Hamas, traducida a varios idiomas y compartida en varias plataformas (Facebook, X, TikTok). «Estos videos tienen el potencial de volverse virales y son compartidos masivamente […]