HERMES

Federación Internacional de Comunicadores Populares

InfoCom: Anglicismos y guerra cultural: Deepfakes

 
Por Orestes Martí

Como todos sabemos, los anglicismos​ son préstamos lingüísticos del idioma inglés a otro idioma, aunque algunos autores afirman que "su uso está justificado si no existe una palabra equivalente en la lengua meta que traduzca un término específico del inglés"; otros se preguntan, pero…¿por qué los utilizamos en castellano cuando sí que existen términos equivalentes que hemos utilizado toda la vida?; mientras otros aseguran que es una forma de "guerra cultural".

En días pasados intercambiamos con un grupo de personas sobre la poca importancia que se le da a la "información pretérita" que se transmite en un momento determinado por la radio y que a pesar de tener un carácter "atemporal" se le da un tratamiento posterior de un producto que pierde su valor social y sencillamente .... se archiva.

No está nada mal "archivarla", pero el problema está en que esa acción de "almacenamiento" se lleva a cabo sin un adecuado sistema de recuperación de dicha información que permita su reutilización por nuevos usuarios y la revalorización el producto informativo en cuya "producción" en su momento se invirtieron recursos materiales y humanos.

Interesante tema económico, político y cultural que fue seguido por comentarios sobre la cuestión de los anglicismos, las guerras culturales, los intentos de utilización de los eufemismos del tipo "Fake news" para referirse a las "mentiras de siempre" como dijo una de las personas participantes... y ... salió un nuevo "anglicismo". la llamada "Deep fake" que la Wikipedia define de la forma siguiente: "Deepfake o ultrafalso​ es un acrónimo del inglés formado por las palabras fake, falsificación, y deep learning, aprendizaje profundo".

En cualquier caso, vamos a compartir con nuestros lectores  un interesante artículo de Mario Ramón Duarte*, que con el título: "De las fake news a la deep fake: La mentira digital" ha publicado ALAI.

El dinamismo con que transcurre este nuevo siglo XXI, es similar a la velocidad del sonido y donde se percibe dicha afirmación, sin dudas es en las cuestiones referidas a las nuevas tecnológicas, sumado a la creatividad humana; pero atención, si bien estas combinaciones han dado buenos resultados en diferentes aplicaciones inherentes a la vida de las comunidades, esto se refleja en un porcentaje respectivamente bajo en comparación con el libertinaje digital, al mal uso de la misma, a la falta de una regulación del Ciberespacio, tema que lo estudiamos y tratamos minuciosamente realizando estudios científicos y aportes académicos, con el fin de llegar o arribar a una política estadual correcta en diversas esferas de la convivencia social, económica, ética, científica, religiosa, legal y académico entre otros.El dinamismo con que transcurre este nuevo siglo XXI, es similar a la velocidad del sonido y donde se percibe dicha afirmación, sin dudas es en las cuestiones referidas a las nuevas tecnológicas, sumado a la creatividad humana; pero atención, si bien estas combinaciones han dado buenos resultados en diferentes aplicaciones inherentes a la vida de las comunidades, esto se refleja en un porcentaje respectivamente bajo en comparación con el libertinaje digital, al mal uso de la misma, a la falta de una regulación del Ciberespacio, tema que lo estudiamos y tratamos minuciosamente realizando estudios científicos y aportes académicos, con el fin de llegar o arribar a una política estadual correcta en diversas esferas de la convivencia social, económica, ética, científica, religiosa, legal y académico entre otros.

Ahora bien, sin más rodeos y adentrándonos en el tema en cuestión, cuando nos referimos al fenómeno de las fake news, término que traducido al español significa falsas noticias, más precisamente un producto pseudo periodístico difundido a través de portales de noticias, medios escritos, radio, televisión y principalmente en redes sociales, lugar por donde se canalizan la mayoría de éstas, en tiempos de la nueva era tecnológica y cuyo principal objetivo es la desinformación deliberada o el engaño, armas de destrucción masiva que sirvieron en estos últimos años, a diversos partidos políticos, entre otros, para llegar al poder.

Pero a este término, ya familiar en el común de la sociedad, aparece en escena el deep fake, una especie de vuelta de tuerca más de los peligros a los que nos somete la conjunción de la propagación de noticias falsas a través de redes sociales, el poder de la imagen y el big data. Por tanto, el deep fake vendría a ser la versión ultra de las fake news.

Deep fake o ultrafalso es un acrónimo del inglés formado por las palabras fake, falsificación, y deep learning, aprendizaje profundo. Es una técnica de inteligencia artificial (IA) que permite editar videos falsos de personajes que aparentemente son reales, utilizando para ellos algoritmos de aprendizaje no supervisados, conocidos en español como RGAs (Red Generativa Antagónica), y videos o imágenes ya existentes, dando como resultado de ello un video muy realista, pero en verdad ficticio. Los numerosos ejemplos de este tipo de fraude se encuentran en escenas de películas de diversos géneros, pero en esta parte del globo terráqueo (Latinoamérica), se empezó a utilizar esta técnica superior a las fake news para el mismo fin en materia política electoral.

La tecnología, a través de software como Leyrebird, ya permite imitar el timbre de voz de cualquier persona solo con tener un minuto de grabación de su voz. La capacidad de imitar y falsear, y por tanto hacer daño, son ilimitadas. Esto nos lleva a imaginar el uso de esta técnica para poner en boca y cara de altos mandatarios desde una declaración de guerra a cualquier otra barbaridad que se nos pueda ocurrir. Pero nadie está exento de los riesgos de las deep fakes, pues cualquiera que usa redes sociales como Facebook o Instagram está subiendo cientos o miles de imágenes propias a las redes perdiendo el control de las mismas. El manipulador dotado de esta tecnología solo tiene que acudir a ellas para montar un vídeo con el que chantajear a la víctima.

Ya se están poniendo en marcha algoritmos y técnicas para reconocer estos contenidos falsos, pero para su verificación hará falta tiempo y que llegue a los organismos que dispongan de esta tecnología. El problema vendrá cuando este tipo de vídeos se difunda como la pólvora a través de redes sociales o plataformas como Whatsapp. Más riesgos para este mundo VUCA. Mientras tanto solo nos queda apelar a la educación y a un uso ético y responsable de la tecnología.

Otros ejemplos de esta controvertida tecnología como lo es el deep fake, ocurren en los medios de comunicación y la BBC de Londres utilizando la inteligencia artificial, realiza un doblaje optimizado en un presentador de su noticiero que solamente habla en inglés, pero que a través de esta tecnología, aparece en la pantalla hablando perfectamente español, mandarín e hindú, con una perfecta sincronización entre sonido y labios, considerando en este caso un uso más benigno y benévolo de la deep fake y el proceso utilizado para el doblaje es el digital puppeteering.

Luego de los ejemplos enumerados que son rehén de una u otra forma del deep fake, hay uno en particular al que haremos referencia, el uso de esta tecnología para desprestigiar a funcionarios o candidatos en campañas electorales, y en sincronización con esta afirmación Argentina no es ajeno a esto. Hace días atrás salió a la luz un video de la Ministro de Seguridad de la Nación Patricia Bullrich Pueyrredon, dando una conferencia en total estado de ebriedad y acompañando a éste estado su figura poca cuidada en torno a la parte estética, hizo que fuera totalmente de carácter más que realista, provocando gran conmoción, que su propagación en las redes sociales, provocó que llegaran signos de explicación por parte de la Casa Blanca al Presidente Macri de semejante mamarracho.

Pero en verdad este caso emblemático en nuestro país, es quizás de menor impacto que el vertido y provocado por los dichos de Mark Zuckerberg, fundador y CEO de Facebook, mira a cámara en un vídeo falso y dice: “Imagina esto por un segundo: un hombre con control total de los datos robados de miles de millones de personas, de todos sus secretos, sus vidas, sus futuros. Se lo debo todo a Spectre -el villano de la última de Bond-. Spectre me mostró que quien controla los datos, controla el futuro”.

El vídeo, publicado en Instagram (propiedad de Facebook), se ha reproducido más de 20.000 veces desde su publicación el viernes 7 de junio. Se trata de un montaje llevado a cabo por dos artistas británicos, Bill Posters y Daniel Howe, en colaboración con Canny AI, una compañía publicitaria israelí. Las imágenes de Zuckerberg son reales, pero se han modificado para que los labios cuadren con el texto que lee un actor, en lo que se conoce como Deep Fake.

Aunque se trata de un vídeo que el propio Zuckerberg compartió en Facebook, los autores del montaje han recurrido a la versión publicada por CBSN. En esta versión aparecen sobreimpresas las frases "estamos aumentando la transparencia en los anuncios" y "anuncia nuevas medidas para proteger las elecciones".

Uno de los videos que hace alusión a ello es el del presidente Trump, donde el primer mandatario estadounidense, insinúa que ha ganado las elecciones gracias a los datos y algoritmos de Facebook, aparece en la cuenta Posters. Posters ha explicado al Washington Post que él y Howe comenzaron a trabajar en la instalación después del escándalo de Cambridge Analytica, empresa que recogió datos de Facebook para usarlos en la campaña de Donald Trump. "Hemos usado tecnología Deep Fake como una técnica narrativa para involucrar a la audiencia en algunas de las tensiones que existen, como si fuera un cuento con moraleja sobre tecnología y democracia".

La publicación de este deep fake llega semanas después de que se publicara en Facebook un vídeo de Nancy Pelosi, portavoz en el Congreso del Partido Demócrata, que se había manipulado para que pareciera que estaba borracha.

La Agencia de Proyectos de Investigación Avanzados de Defensa (DARPA), lleva invertido unos 68 millones de dólares en el programa MediFor (por Forenses de Medios) para desarrollar tecnología de detección de deep fake. Las falsificaciones son fáciles de detectar por ahora, pero los procesos mejoran a alta velocidad y un ejemplo de ello se suscitó en Argentina.

No es la primera vez que se alerta del peligro que suponen los deep fakes, ya no se trata de desmentir titulares falsos o montajes fotográficos, sino que habrá que desmentir vídeos, lo que a menudo puede resultar aún más difícil.

En fin, más allá de todo tipo de afirmaciones y especulaciones en torno a esta tecnología que está emparentada en parte con las fake news, que sin dudas son un ingrediente inevitable en las próximas campañas electorales, el deep fake viene a potenciar aquel fenómeno y se convierte en la vedet de turno, al menos y a la brevedad en nuestro país. Por eso, desde hace años insistimos en la regulación global del Ciberespacio, pero hasta que ello ocurra, todos absolutamente todos estaremos presos de los ciberdelitos y ciberdelincuentes, que hoy día gobiernan a su merced este nuevo mundo digital.

*Dr. Mario Ramón Duarte
Juez Adm. Mun. Faltas (Corrientes-ARG)
Abogado
Especialista Der. Pub. Cont. (UCSF-ARG)
Miembro Dossier Geopolítico (Córdoba-ARG)
Colaborar CENEGRI (RJ- BRA)

Las fake news en tiempos de la posverdad: desafíos 4.0
Mario Ramón Duarte
El 'deepfake' de Zuckerberg que reta las normas de Facebook sobre v...
La red social ha afirmado que no borrará el vídeo y que lo tratará como cualquier otra publicación

Qué es un "Deep fake" y por qué no se usó en el video falso de Patr...
La técnica usa algoritmos para crear imágenes y videos realistas de todo tipo, desde noticias falsas hasta pornografía con el rostro de famosos
 

La BBC experimenta con 'deep fakes' para doblar a un presentador en...
Marcos Merino
La BBC publicó esta semana un vídeo en el que su presentador de noticias Matthew Amroliwala aparecía en pantalla hablando en perfecto español, chino mandarín e hundi. Lo curioso del caso es que Amroliwala tan sólo habla inglés, de modo que, ¿qué era lo que estábamos viendo exactamente?


Synthesia: Native Dubbing Demo
Demo of https://www.synthesia.io/ Native Dubbing AI technology. Our goal is to remove the language barrier from video and allow content creators to reach a much larger audience than possible today.
Demo de doblaje nativo con tecnología AI Nuestro objetivo es eliminar la barrera del idioma del vídeo y permitir a los creadores de contenido llegar a un público mucho más grande de lo que es posible hoy.

Ver actualizaciones aquí

Vistas: 6

Comentario

¡Tienes que ser miembro de HERMES para agregar comentarios!

Únete a HERMES

Foro

La destructora guerra económica endógena en Venezuela.

Por: Freddy Marcial Ramos.17/08/19Respetables lectoras y lectores.        Lo que está ocurriendo económicamente en el seno de las familias que integran a la sociedad económicamente vulnerable venezolanas, fundamentalmente en los grupos familiares…Continuar

Etiquetas: En tiempos de revolución y transformación social, la ética y la moral son impresindibles

Iniciada por Freddy Marcial Ago 31.

La Burguesía colombiana cipaya del Gob. Imperial de EUA obliga el desafortunado resurgir de las FARC-EP.

Por: Freddy Marcial Ramos30/06/2019Respetables lectoras y lectores.La interminable “Guerra civil simulada colombiana”, continua transitando el fatídico camino de la constante violación de los Derechos Humanos fundamentales del humilde pueblo hermano…Continuar

Etiquetas: En tiempos de revolución y transformación social, la ética y la moral son impresindibles

Iniciada por Freddy Marcial Ago 30.

HERMES Internacional

          Quienes somos 

Somos un grupo de mujeres y hombres que divulgamos la verdad. Lo hacemos benévolamente para llevar la luz  e informar, cosa que no hacen los grandes medios de la comunicación.

© 2019   Creada por Roberto Domínguez.   Con tecnología de

Informar un problema  |  Términos de servicio