Deep fakes, el próximo reto para la Ciberseguridad

En Legitec llevamos viendo que poco a poco se va acercando más a las empresas, con las que trabajamos día a día, una tipología de estafa que antes habríamos jurado que era solamente para películas de ciencia ficción y que claramente aborda el panorama actual de la protección de datos y la seguridad cibernética: el uso de la inteligencia artificial en forma de deep fakes y su peligrosidad en el contexto de las estafas.

Antes de nada, ¿Qué es un “Deep Fake”?

Esta nueva acepción tecnológica representa creaciones artificiales en formato de voz, imagen o vídeo generadas por una IA que son utilizadas para manipular estos mismos formatos.

En los últimos años hemos visto estos casos en aplicaciones que ponían nuestro rostro en actores/actrices o cantantes famosos con el fin de realizar gracias y compartir este momento “cómico” por redes sociales.

Esta nueva faceta de la IA se acabó utilizando para desprestigiar a diferentes usuarios situándolos en escenarios o realizando acciones vejatorias para su persona y el gran problema es que cada vez los videos son más sofisticados, por lo que la detección puede ser muy complicada.

¿Cómo los ciberdelincuentes han utilizado esta técnica para provocar estafas?

En un mundo cada vez más digitalizado y conectado, el avance tecnológico ha brindado nuevas amenazas y desafíos como los comentados anteriormente y los ciberdelincuentes no se mantendrían alejados de esta gran oportunidad.

Los deep fakes representan una preocupación creciente debido a su capacidad para manipular audio y video de manera realista, creando contenido falso que puede resultar casi imposible de distinguir de la realidad.

La utilización de estos con fines fraudulentos plantea una seria amenaza para la integridad de nuestros sistemas financieros, así como para la confianza pública en la autenticidad de la información.

Posible caso de estafa:

Imaginen el escenario en el que un estafador utiliza un rostro falso para suplantar la identidad de un alto ejecutivo de una empresa y solicita transferencias de fondos a cuentas bancarias fraudulentas. La víctima, confiando en la autenticidad del video, podría caer en la trampa y sufrir pérdidas económicas fatales para su entidad. Además de las estafas económicas, los deep fakes también pueden ser utilizados para difamar a particulares de las entidades víctimas de la estafa, manipular la opinión pública y difundir información falsa y engañosa.

Esto plantea serias preocupaciones éticas y legales en torno a la privacidad, la seguridad y la confianza en el mundo digital que estamos viviendo hoy en día.

Desde Legitec es nuestro deber destacar la importancia de implementar medidas efectivas para mitigar los riesgos asociados con los deep fakes. Esto incluye el desarrollo de tecnologías de detección y verificación más avanzadas y a disposición de los particulares.

Además, es fundamental educar a la población sobre los peligros de estas nuevas amenazas y aprender a cómo identificarlas. La concienciación pública puede desempeñar un papel crucial en la prevención de fraudes y en la protección de la integridad de nuestra información personal y financiera.

¿Ha ocurrido ya este tipo de estafas?

Tristemente sí, estas semanas hemos podido comprobar como este tipo de estafas afecta a empresas de toda índole, siendo el último caso una entidad de Hong Kong en donde recibieron un vídeo “trucado” de su equipo directivo con ciertas decisiones y estas ocasionaron una concatenación de eventos que acabó en un robo de 25 millones de euros.

Se desconocen los detalles concretos de la operación, pero sí que un empleado de esta empresa recibió un email como el que podemos recibir cualquiera de nosotros en nuestro día a día y este era una invitación a una videollamada con el encargado de las finanzas de la entidad.

El empleado se llevó una sorpresa cuando al entrar en la videollamada se encontraban también diferentes directivos de la compañía que él conocía de vista, pero con los que no tenía trato alguno; a lo largo de la reunión se estipularon transferencias bancarias a diferentes cuentas por el valor acordado previamente.

Por lo tanto, el empleado obedeció lo acordado y transfirió el dinero a lo largo del mes mientras seguía en contacto con los “directivos” mediante correos electrónicos y mensajería instantánea hasta que una reunión urgente, emitida por el jefe de finanzas “real”, destapó lo que estaba sucediendo en realidad.

Según la policía, los ciberdelincuentes cogieron videos públicos de los directivos y los alteraron con inteligencia artificial, para que dijeran las frases que querían los ladrones, imitando la voz real de las personas suplantadas, algo que también puede hacer la peligrosa herramienta.

En conclusión, desde Legitec consideramos que el uso de inteligencia artificial, en cualquier forma que se desarrolle, debe de ir acompañado de unos protocolos tasados y perpetrados por la entidad y sus asesores legales.

Esta tipología de estafas representa una amenaza significativa en el mundo digital actual y resulta imperativo que tomemos medidas proactivas para abordar este problema y proteger nuestros datos, nuestra privacidad y nuestra seguridad en línea.

Autor: Rodrigo Catalán

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

LEGITEC moderará sus comentarios y podrá o no dar respuesta a los mismos. Puede ejercer sus derechos de acceso, rectificación, supresión y portabilidad de sus datos, de limitación y oposición a su tratamiento, en la dirección de correo electrónico info@legitec.com. Lea la política de privacidad antes de proporcionarnos sus datos personales.