Deep lies

Photo by Mati Mango from Pexels

Seeing is believing… right?

When we doubt the veracity of something, be it a photo, a news item or an event, we appeal to our eyes – and our criteria – to help us distinguish true from false, real from fictitious. But what happens when false and fictitious are designed or manipulated to make us believe – and trust – that what we see is undoubtedly true?

Deepfakes. Fake videos, made using machine learning technologies: artificial intelligence and deep learning. Simply put, a technology with which it is possible to build conversations, scenes, or messages, from countless photographs and videos. In other words, deconstructing to construct: images, videos, audios … truths?

Why deep lies?

Through these technologies, a person is able to put a message in the mouth of another, without the latter realizing it, and without the people who hears or sees the message being able to realize that the image, the words or the event did not happen at all in real life, -or at least not in the way it is represented. A perfectly crafted lie, as deepfakes are developed through deep learning technologies that meticulously study -and resemble- the human brain and the way neural networks work. And of course, from the subsequent creation of complex algorithms that can read, organize and create new types of information from immense amounts of data, numbers, images, patterns, etc.

What does this mean? Deepfakes allow us to build whatever (truths?) we want, and they are so dangerously real that they make it difficult for us to tell if their content is true or false. Something like a very advanced and complex “Photoshop”, difficult to distinguish just by seeing it.

In some cases, making and building deepfakes can entertain us, can make us laugh, or even serve a good cause. For instance, thanks to this technology, Salvador Dalí can welcome us at the doors of the museum that bears his name in St. Petersburg, Florida, USA. Through an interactive video, Dalí himself greets museum visitors and tells them more about his work and life. And why not, he even takes a selfie with them.

But what happens when you build these videos and materials to spread lies? What happens when people share messages that distort reality, and even worse, when these messages are forwarded to thousands of people who unknowingly shape their opinion with false material. What will happen when this new form of “Photoshop” is used for evil?

Not far from this reality are the scams carried out using artificial voices pretending to be a person to carry out bank account transfers, or the (deepfake) videos of Facebook’s Mark Zuckerberg announcing that he has enough data to control the world, or the video of the former President of the United States Barack Obama, calling current President Trump a “dipshit”. And parallelly, a shocking fact: According to the company Deeptrace Labs, 96% of deepfake videos found online are videos of women, whose images and voices have been used to create sexual material without consent, which circulates in porn and online streaming sites. Yet another tool to violate women’s rights and those of innocent people.

So, from electoral manipulation, to scams, gender violence or volatility in stock markets, deepfakes present us with a new universe of challenges and dangers that affect most aspects of our lives. And, given this scenario, there is no other option than to adapt our legal systems to curb and punish those who maliciously use these tools, that schools, universities and parents better guide children and young people about these and other types of online dangers , that companies have clear risk and crisis management protocols, and last but not least, that individuals protect their own identities by becoming increasingly aware of what they consume, listen to and even watch.

Seeing, not always means believing.


Mentiras Profundas

Ver para creer… ¿cierto?

Cuando dudamos de la veracidad de algo, sea una foto, una noticia o un evento, apelamos a que nuestros ojos -y nuestro criterio- nos ayudarán a distinguir lo cierto de lo falso, lo real de lo ficticio. ¿Pero qué pasa cuando lo falso y lo ficticio está diseñado o manipulado para hacernos creer -y confiar-, que lo que vemos es indudablemente veraz?

Deepfakes. Videos falsos, elaborados utilizando tecnologías de machine learning: inteligencia artificial y deep learning. En español, su traducción sería algo como “mentiras profundas”. En palabras sencillas, una tecnología con la que es posible construir conversaciones, escenas, o mensajes, a partir de un sinnúmero de fotografías y videos. Es decir, deconstruir para construir: imágenes, videos, audios… ¿verdades?

¿Por qué mentiras profundas?

Por medio de estas tecnologías, una persona es capaz de colocar un mensaje en la boca de otra, sin que ésta se dé cuenta, y sin que las personas que escuchen o vean el mensaje sean capaces de darse cuenta de que la imagen, las palabras o el evento no ocurrió del todo, -o al menos no de la manera que se representa-. Una mentira elaborada a la perfección, pues las deepfakes parten del aprendizaje profundo (deep learning) y automático (machine learning), de cómo funcionan el cerebro y las redes neuronales humanas.  Y por supuesto, de la subsecuente creación de algoritmos complejos que pueden llegar a leer, organizar y crear nuevos tipos de información a partir de cantidades inmensas de datos, números, imágenes, patrones, etc.

¿Qué quiere decir esto? Las deepfakes nos permiten construir lo que queramos, y son tan peligrosamente reales que nos dificultan distinguir si su contenido es cierto o falso. Algo como un “Photoshop” muy avanzado y complejo, difícil de distinguir a simple vista.

En algunos casos, elaborar y construir deepfakes puede entretenernos, ser motivo de chiste o incluso servir para una buena causa. Por ejemplo, gracias a esta tecnología, es que Salvador Dalí nos puede recibir a las puertas del museo que lleva su nombre en St. Petersburg, Florida, USA y contar a los visitantes del museo sobre su obra y vida a través de un video interactivo. Y por qué no, hasta tomarse una selfie con ellos.

Pero ¿qué pasa cuando se construyen materiales para esparcir mentiras y calumnias? Cuando compartimos mensajes que tergiversan la realidad, y peor aún, son reenviados a miles de personas, quienes sin saberlo moldean su opinión con material falso. ¿Qué va a pasar cuando esta nueva forma de “Photoshop” sea usado para el mal y cruce la línea de lo chistoso?

No muy lejos de esta realidad se encuentran las estafas realizadas utilizando voces artificiales pretendiendo ser una persona para realizar movimientos bancarios, o los (deepfake) videos del creador de Facebook, Mark Zuckerberg anunciando que cuenta con datos suficientes para controlar al mundo, o bien el video del ex presidente de los Estados Unidos Barack Obama, llamando al actual presidente Trump un idiota. Paralelamente, un dato escabroso: De acuerdo con la compañía Deeptrace Labs, el 96% de los videos deepfake que se encuentran en línea son de mujeres, cuyas imágenes y voces han sido utilizados para la creación de material sexual sin consentimiento, que circula en sitios de pornografía y streaming. Una herramienta más para vulnerar los derechos de mujeres y personas inocentes.

Entonces, desde manipulación electoral, estafas, violencia de género o volatilidad en mercados de valores, las deepfakes representan un nuevo universo de retos y peligros en la mayoría de los aspectos de nuestras vidas. Ante este escenario, no queda más opción que los sistemas legales se adapten para frenar y castigar a los que usen de forma malintencionada estas herramientas, que las escuelas, universidades y padres orienten mejor a niños y jóvenes sobre este y otro tipo de peligros en línea, que las empresas cuenten con protocolos claros para crisis y mitigación de riesgos, y por último -pero no menos importante-, que las personas protejamos nuestras identidades y seamos cada vez más conscientes de lo que consumimos, escuchamos e incluso vemos.

Ver, no siempre para creer.

Video: Dalí Vive (Dalí Museum)

One comment

  1. Me gusto el articulo porque critica pero a la vez propone soluciones, educa, alerta y aporta informacion actualizada sobre los peligros de la comunicacion virtual. Excelente!!!

    Liked by 1 person

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Google photo

You are commenting using your Google account. Log Out /  Change )

Twitter picture

You are commenting using your Twitter account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

Connecting to %s