Los avances en inteligencia artificial han traído consigo nuevas oportunidades… y también nuevos riesgos. Una de las tecnologías más polémicas es la de los deepfakes: vídeos, imágenes o audios manipulados mediante IA para recrear rostros, voces o gestos de personas reales con un alto grado de realismo. Si bien pueden tener aplicaciones legítimas, también se están utilizando para cometer delitos como la estafa o la suplantación de identidad, generando importantes desafíos jurídicos.

¿Qué es un deepfake?

Un deepfake (término que surge de “deep learning” + “fake”) es un contenido audiovisual generado mediante algoritmos de aprendizaje automático, especialmente redes neuronales generativas. A través de esta tecnología, se puede imitar la voz, los gestos o la apariencia de una persona real, dando lugar a vídeos falsos que, a simple vista, pueden parecer auténticos.

¿Cómo se usan los deepfakes para delinquir?

1. Estafas económicas mediante vídeos o audios falsificados

Empresas y particulares ya han sido víctimas de fraudes en los que un supuesto directivo, recreado por IA, da instrucciones para realizar transferencias bancarias urgentes. También existen casos en los que se utiliza un audio deepfake para suplantar la voz de una persona conocida y solicitar dinero o favores económicos.

Ejemplo real (Reino Unido, 2020): un empleado transfirió más de 200.000 € creyendo que hablaba con su CEO por teléfono. Era un deepfake de voz.

2. Suplantación de identidad en redes sociales y comunicaciones privadas

Los delincuentes pueden crear perfiles falsos o enviar vídeos manipulados con la apariencia de una persona real. Esto puede usarse para:

  • Difundir mensajes comprometidos
  • Generar chantajes o extorsión
  • Atacar la reputación de una persona pública o privada

¿Qué delitos pueden estar involucrados?

En el ordenamiento jurídico español, los usos maliciosos de deepfakes pueden constituir:

  • Delito de estafa (Art. 248 CP): si se utiliza un deepfake para obtener un beneficio económico engañando a la víctima.
  • Suplantación de identidad (usurpación del estado civil – Art. 401 CP)
  • Revelación de secretos o acceso indebido a datos personales
  • Delitos contra el honor (injurias, calumnias)
  • Delitos contra la intimidad o el derecho a la propia imagen

En algunos casos, delito de falsedad documental digital

¿Qué dice la legislación actual?

El Código Penal español no recoge expresamente los deepfakes, pero permite su persecución a través de los tipos penales existentes. La clave está en cómo se utiliza la tecnología y cuál es el resultado delictivo.

Además, la Ley Orgánica 1/1982 protege el derecho al honor, la intimidad y la propia imagen, que puede ser vulnerado por un contenido deepfake, incluso sin intención delictiva directa.

A nivel europeo, se está trabajando en marcos regulatorios como la AI Act, que incluirá reglas para sistemas de IA de alto riesgo, incluyendo aquellos que puedan usarse para manipular o suplantar identidades.

¿Cómo protegerse ante estos delitos?

  • Verifica las fuentes y autenticidad de los vídeos o audios recibidos, especialmente si contienen instrucciones inusuales o mensajes sensibles.
  • No compartas datos personales ni bancarios a raíz de vídeos o llamadas sin confirmación.
  • Configura alertas y sistemas de doble verificación en entornos corporativos.
  • Denuncia los hechos ante las autoridades competentes si sospechas de un posible uso fraudulento.
  • Consulta con un abogado experto si tu imagen, voz o identidad han sido utilizados sin consentimiento.

 

Los deepfakes suponen una nueva frontera para la ciberdelincuencia. Su realismo y facilidad de distribución los convierten en herramientas muy peligrosas para cometer estafas, extorsiones y suplantaciones de identidad. Aunque el marco legal actual permite su persecución, es fundamental actualizar la legislación, mejorar la detección tecnológica y fomentar la educación digital.