Fraser Pirie: El deepfake o ultra falso

Fraser Pirie Robson.

En las próximas elecciones nacionales el Tribunal Supremo de Elecciones tendrá una nueva barrera importante para lo cual debe estar muy preparado.

La inteligencia artificial se utiliza ampliamente en todo el mundo, para producir vídeos y audios falsos. De lo que deberíamos de prepararnos a tiempo en Costa Rica es poder discernir espacios falsos que se envían por los medios sociales. Por ejemplo, podríamos ver al presidente que lo llevan en ambulancia al hospital, podríamos ver diversos candidatos dando mensajes falsos y francamente mentirosas.

En temas publicistas, ya aparecen fotografías de políticos de Costa Rica promoviendo algún artículo de escogencia personal.  Son falsas.

Las elecciones en Eslovaquia: En las recientes elecciones en la República de Eslovaquia, con el fin de dañar la imagen de un candidato europeísta, con una réplica exacta a su voz, ¡se discutía el aumento de los precios de la cerveza y además cómo amañar las elecciones! El tribunal electoral en ese país verificó la noticia como falsa, pero de todas maneras el daño estaba hecho, porque miles de votantes la dieron como verídica.

Michal Simecka

Michal Simecka, el líder del Partido Progreso en las elecciones parlamentarias indica que, aunque parecía su voz, en realidad no la era. De hecho, el video pirata apareció dos días antes de las elecciones, y de inmediato fue visto en Tik Tok, YouTube, y Facebook.  El candidato era pro-OTAN, pero fue derrotado en setiembre 2023, por un oponente muy ligado con Moscú.

El deep fake: Este tipo de mensaje se conoce como deep-fake, parecido al fake news que inventó Donald Trump. En español se identifica como ultra falso o falsedad profunda. Bueno, hasta al mismo Trump lo señalaron sentado en un avión de Jeffry Epstein con muchachas jóvenes. Era falsa la imagen.

No ha sido el único caso. Un deepfake fue publicado en Twitter de un candidato demócrata a la Alcaldía de Chicago, en donde parecía como indiferente a los tiroteos policiales. Este y muchos casos más ya empiezan a aparecer.

La revista Time señala que son “fáciles de editar, baratos de producir y particularmente difíciles de rastrear”.

El peligroso Trump: El expresidente Trump sigue su argumentación falsa de haber ganado las elecciones anteriores. Muchos le creen. En las próximas elecciones norteamericanas Trump ha dicho que se debe esperar un futuro fraude, en donde sus seguidores más fanáticos deberán “resguardar el voto” para asegurar “la verdad”. Claro, es totalmente falsa la aseveración. Pero de alguna manera, la infección del descrédito contagia la pureza de las elecciones. Ahora, ¡cualquier cosa es posible!

Como detectarlas: La mayor parte de las falsificaciones profundas o deep fakes se limitan a sustituciones del rostro. Una forma para detectar la falsificación es midiendo las proporciones del cuerpo y la cara o entre las expresiones faciales y los movimientos corporales. Estas son más difíciles de falsificar. En ocasiones también la boca se encontrará oculta dando indicación de su falsedad. En muchos casos también cuando la voz no es tan clara, utilizan subtítulos. Son síntomas de un ultra falso.

En muchos casos, el video es muy breves porque le cuesta mucho tiempo al programa su construcción. A la vez, rara vez la figura humana va a parpadear, principalmente porque los algoritmos de inteligencia artificial son incapaces de copiar con exactitud o normalidad la lengua, los dientes y el interior de la boca al hablar. Si nos fijamos en todos estos detalles, un minúsculo fallo en el interior de la boca puede demostrarnos que se trata de un ultra falso.

El Tribunal Supremo de Elecciones debería prepararse desde ya para conocer este tipo de falsificación de imágenes de voz y de personalidades para garantizar la correcta información. Los trabajadores del Tribunal deben ser capacitados para poder reconocer de inmediato un deepfake. Por un lado, es necesario frenar totalmente la publicación del deepfake y a la vez poder contrarrestar su efecto negativo. Se viene un aluvión de falsedades de contenido de audio y video.

Un caso particular: La última víctima de fotos y videos deepfakes, que utilizaron la imagen de la cara de la popular Taylor Swift y usando el cuerpo de otra para efectos de pornografía. De pronto, se volvió una tormenta de ultra falsos. Fox News contribuyó a difundir más mentiras y falsas conspiraciones al informar:  “Hace unos cuatro años, la unidad de operaciones psicológicas del Pentágono planteó convertir a Taylor Swift en un activo durante una reunión de la OTAN.

La alucinante afirmación de Fox fue desmentida por el Pentágono.

La cantante Taylor Swift

“X” fue la primera en difundir los ataques, aunque al rato las eliminó.  Únicamente, y quizás sea una avenida de escape ante este angustioso problema del abuso de las redes, en este caso de Taylor Swift, sus muchísimos seguidores y admiradores, contraatacaron, subiendo a las redes mensajes bonitos etiquetados para que salieran en los buscadores de redes en todo lo referente a la cantante.   El resultado fue exitoso y los deep fakes o ultra falsos se perdieron en el fonde del inmenso mar del internet.

 

También podría gustarte Más del autor

Comentarios

Cargando...