Miércoles, 24 de abril de 2024

En el auge de los ‘deepfake’, hace falta más que “ver para creer”

Los videos 'deepfake' pueden engañar a los lectores.

Actualizada:

5 Jul 2019 - 0:05

Los videos 'deepfake' pueden engañar a los lectores. - Foto: Pixabay

El ojo humano puede ser fácilmente engañado con esta nueva tecnología, que es capaz de hacer pasar como ciertos a videos manipulados digitalmente. No solo las imágenes modificadas pueden confundir y ocasionar noticias falsas, también hay videos alterados con Inteligencia Artificial.

La manipulación digital de imágenes está en un nivel muy avanzado. No solo se trata de modificar estéticamente una foto para que alguien luzca más delgado o atractivo, los videos ‘deepfake’ pueden hacer que un sujeto haga o diga algo aunque jamás haya ocurrido en la realidad.

¿Qué es un ‘deepfake’?

Son videos creados a partir de Inteligencia Artificial (IA), pueden hacer que un sujeto diga o hago algo que parece muy realista, pero que en realidad no ocurrió, sino es una creación digital hecha con IA.

El término es un acrónimo de la palabra falso ('fake' en inglés) y aprendizaje profundo o ‘deep learning’ (una técnica de Inteligencia Artificial).

 La frase ‘deepfake’ nació en 2017 cuando comenzaron a poner rostros de celebridades en videos pornográficos, a través de esta tecnología. 

En 2019 esto ha trascendido la pornografía. Reconocidos personajes como la política estadounidense Nancy Pelosi, el CEO de Facebook Mark Zuckerberg o el expresidente de Estados Unidos Barack Obama tienen videos ‘deepfake’.

Estos son tan creíbles que es difícil distinguirlos a simple vista y esto puede ocasionar que proliferen noticias falsas, conocidas como 'fake news'.

El dilema ético de los ‘deepfake’

Muchos expertos advierten sobre los riesgos de esta tecnología, ya que se considera una forma de manipular la realidad y puede promover las noticias falsas. 

También ha sido usada para ‘revenge porn’ (venganza pornográfica). Se manipula la imagen de un video pornográfico poniendo el rostro de una persona ajena para difundirlo en medios digitales, afectando así su reputación. 

En junio de 2019, el Comité de Inteligencia de la Cámara de Representantes de Estados Unidos se comprometió a analizar "las amenazas a la seguridad nacional planteadas por el contenido falso habilitado por AI, qué se puede hacer para detectar y combatir, y qué papel juega el público". 

Además, se instó a las empresas tecnológicas a "implementar políticas para proteger a los usuarios de la información errónea".

¿Cómo funciona un ‘deepfake’?

Esta es una técnica de Inteligencia artificial basada en aprendizaje automático que hace que una máquina pueda realizar tareas específicas sin recibir instrucciones explícitas del usuario. 

En este caso se carga en la máquina una base con cientos de  imágenes y videos de la persona que se quiere imitar en el ‘deepfake’.

La computadora aprende sobre los movimientos, expresiones, tono de voz y más detalles de estos videos y fotos proporcionados por el usuario.

Con esta información, la máquina puede manipular una imagen digital creando un ‘deepfake’ donde el sujeto aparece diciendo y haciendo cosas que no han sucedido en la realidad: pero se trata de una creación digital muy realista, tanto por la voz, como los movimientos y las expresiones.

Investigadores de Samsung utilizaron una técnica similar de para dar movimiento a cuadros clásicos y fotos de personajes históricos.

  • La inteligencia artificial da vida a fotos de Einstein y Dalí, o al cuadro de la 'Monalisa'

    Investigadores de Samsung del Centro de Inteligencia Artificial (AI Center) de Rusia aplicaron técnicas de aprendizaje automático para desarrollar un algoritmo que logra animaciones de aspecto real a partir de una foto o cuadros icónicos, como la 'Monalisa'.

    La noticia completa aquí