Elecciones 2023

El mayor riesgo que corre la política de cara a las elecciones

La viralización de declaraciones, audios y videos falsos creados a través de inteligencia artificial (IA) tiene mayor incidencia en la actualidad. El influencer y especialista en la cuestión, Lucas Dalto, dialogó con MDZ sobre las principales cosas a tener en cuenta.

Ignacio Salerno
Ignacio Salerno domingo, 5 de febrero de 2023 · 07:00 hs
El mayor riesgo que corre la política de cara a las elecciones

La política corre un riesgo de alto calibre en lo que respecta a la integridad informática. La inteligencia artificial (IA) ha alcanzado niveles técnicos que permiten la creación de audios, videos y avatares artificiales de 8k y un destacable realismo. Esto permitiría la aparición de material sin distinción objetiva entre lo verídico y lo manipulado por IA

El ejemplo de mayor representación es la difusión de un video/audio de un político, imagínese el expresidente Mauricio Macri, hablando maravillas de su principal antagonista, en este caso se trataría de la vicepresidenta Cristina Fernández de Kirchner. Este es un ejemplo de perceptible simpleza pero podría llegar a tratarse de declaraciones sobre acuerdos políticos, críticas a compañeros de espacio y revelaciones contrapuestas; todo sería completamente falso. 

El influencer y especialista en IA, Lucas Dalto, dialogó con MDZ sobre la temática presentada. Éste indicó que "el hecho de ser algo tan nuevo y tan verde trae consigo un montón de problemas; esto va acompañado de la gente que le da un uso con malas intenciones". Los programas en cuestión vendrían a ser los siguientes: Prime Voice, Whisper, Stable Difusion, entre otros. 

El influencer y especialista en IA, Lucas Dalto.

¿Cuál es el principal problema de la inteligencia artificial? 
- Creo que uno de los principales problemas de la inteligencia artificial es el hecho de que al ser algo tan nuevo y tan verde trae consigo un montón de problemas. Esto va acompañado de la gente que le da un uso con malas intenciones. Pasó a lo largo de toda la historia. Desde el famoso cuento del tío con inteligencia artificial. 

- ¿Cómo vendría a ser el cuento del tío con IA?
- Si yo tuviera imágenes tuyas y tu voz podría crear un programa que replique tu voz y tu imagen. A la inteligencia artificial le puedo hacer que genere texto falso. Le pedir hacer un ataque automatizado y obtener tu número. A partir de eso le puedo hablar a tus familiares y hacerme pasar por vos porque puedo crear una imagen y voz falsa tuya. Estos ataques van a ser más comunes. 

¿Cómo analizás la IA en el ámbito de la política?
- Influenciar políticamente con la inteligencia artificial viene pasando hace un montón. La polémica que tuvo Trump con los datos se fue replicando. Es tan poderoso el alcance que al tener los datos públicos se hace más fácil. Los programas de inteligencia artificial funcionan con modelos con datos. Esos datos los publican en empresas como Open AI que se manejan con datos públicos para que todo el mundo pueda acceder. Cualquiera puede usarlos con el fin que quiera, pueden ser ataques hasta influenciar a alguien políticamente. 

¿Es posible -dentro del tecnicismo actual- que con imágenes, audios y videos del presidente Alberto Fernández se pueda crear un audio artificial de él diciendo algo contrario a sus dichos recurrentes?
- Sí. De hecho muchos pasaron el test de no saber cuándo algo está hecho con inteligencia artificial y cuándo no. Cuando se llega a ese punto hace que incluso en el campo jurídico deje de tomarse como evidencia el material. Así como antes, por ejemplo, se podían tomar los mensajes de WhatsApp como evidencia, esto dejó de hacerse hasta que se aseguró la aplicación nuevamente. El tema es: ¿hasta qué punto podemos creer o no creer en las cosas que uno ve que? Capaz fueron fruto de creaciones artificiales con ese fin. 

Inteligencia artificial. 

Lucas Dalto aclaró que se puede "agarrar la voz de cualquier político y replicar cosas que no dijo. Incluso puede ser realmente un video. Si entrenás muy bien a un modelo, tenés una buena capacidad de code y hacés que la información esté optimizada para el modelo podes crear sin problema un video completo. Netflix, por ejemplo, creó un animé entero basado en IA". 

- Es decir que mañana puede aparecer un video falso de Javier Milei, de Mauricio Macri o de Sergio Massa diciendo cualquier cosa.
- Por ejemplo, agarro y agendo a cualquier persona que tenga el contacto de Milei. Ahí sabés cuál es la foto que tiene en WhatsApp. Lo que hago es pedirle a alguien que se ponga la misma foto, el mismo nombre y que me mande un audio. Después reemplazo el sonido que sale del audio por un audio de él diciendo 'estoy pensando en hacer esto y lo otro'. Lo publico desde una cuenta falsa de Twitter y pongo que lo pude enganchar justo diciendo x cosa. Después lo muevo desde otro medio en el que se pueda viralizar y la gente no va a poder identificar si es falso o no. 

La viralización de las deep fakes traería efectos destructivos para los partidos políticos. 
- Hasta la gente que lo conoce y tiene su WhatsApp podría dudar sobre si es real o no. Es decir, es la foto que tiene y sería una voz idéntica a la de él. Termina haciéndose un rumor que no se sabe si es verdad o es falso. Solamente Milei sabría si es real o no. 

- ¿Las herramientas de certificación están en buen nivel o todavía no llegaron al punto de diferenciar lo real de lo artificial?
- Hace un tiempo salió el tema de lo que se hizo para luchar contra las Deep Fakes. Éstas son videos creados por la inteligencia artificial para difundir noticias falsas. Se creó una IA basada en un sistema de clasificación que lo que hacía era aprender de los videos que se creaban con esa finalidad para aprender a reconocerlos. Se encontraron ciertos patrones pero el sistema no está para cualquiera. Probablemente lo tengan las grandes empresas pero por un tema de seguridad interna. 

Inteligencia artificial en política. 

¿Hay posibilidad de reconocer el contenido artificial?
- Uno reconoce lo que crea para uno mismo. Cada inteligencia artificial tiene diferentes datos, modelos y generan diferentes resultados. Capaz puedo entrenar la mía para que reconozca justo de un tipo. El tema es cómo abarcar los diferentes modelos. Hasta que se reconozca y se vea que es falso, la noticia falsa ya circuló por todos lados. Va a ser superior a la viralidad del tuit de desmentida. 

- En términos de mercado financiero, alguien podría crear un audio de Elon Musk diciendo que va a comprar X moneda y se generaría un revuelo grande. Eso tendría incidencia real: la gente arrancaría a comprar esa moneda. 
- Exactamente. Y repito: la viralidad de la falsa noticia es mucho mayor que la viralidad de la desmentida. Ahí es cuando la gente se queda con lo primero. Si no viste lo próximo que sucedió hasta que te olvidás. 

- ¿Tenés algún programa en mente de esta índole?
- Sí. Programas hay. Tenemos los principales. Está Whisper que es para reconocer audio, transcribir todo lo que dice y hacer diferentes tipos de traducciones. Tenemos Stable Difusion que son para crear imágenes y videos. Lo que quieras. Entrenas al modelo y podés crear imágenes falsas pero muy realistas. Están en lujo de detalle -8k- y un nivel de realismo superior. Se le pueden introducir Negative Prompts que son todo lo que no queres que tenga: que no sea deforme, que no tenga mala calidad y que sea la imagen más perfecta posible. Lo que pasa con los videos es que tiene que tener una base. Si no la hay, el programa no tiene sobre qué trabajar. Se está tratando de solucionar el tema para poder crear videos desde cero. 

Archivado en