DEEPFAKES Y ULTRAFALSIFICACIONES: ¿QUEDA PROTEGIDA LA VÍCTIMA?
- Haidar Najem García de Vinuesa
- 9 jun
- 3 Min. de lectura
El avance de la inteligencia artificial (IA) ha permitido generar imágenes, vídeos y audios ultrarrealistas (los llamados deepfakes) que simulan la apariencia, voz o gestos de una persona en situaciones que nunca ocurrieron. Este fenómeno plantea serios riesgos para los derechos fundamentales, en especial para el honor, la imagen y la integridad moral de las personas.
Actualmente, el Código Penal no contempla un tipo penal específico para castigar este tipo de conductas. Sin embargo, el Proyecto de Ley Orgánica para la protección de las personas menores de edad en los entornos digitales propone una importante reforma que permitiría tipificar estas conductas.

Hoy por hoy, los delitos de generación y/o difusión de deepfakes pueden intentar subsumirse en algunos preceptos del Código Penal, pero con serias limitaciones:
Delito contra la integridad moral (art. 173.1 CP): previene el trato degradante o vejatorio que menoscabe gravemente la integridad moral, pero requiere probar un menoscabo grave, no cualquier ataque a la imagen basta.
Delitos contra la intimidad (arts. 197 y ss. CP): protege frente a captación o difusión de imágenes privadas reales, sin consentimiento. Sin embargo, los deepfakes suelen ser imágenes creadas, no captadas, por lo que no siempre encajan.
Injurias y calumnias (arts. 208-210 CP): persigue las ofensas a la dignidad o acusaciones falsas, pero son delitos privados de menor pena; en muchos casos no se persiguen.
Pornografía infantil (arts. 189 CP): aquí sí habría encaje si se genera un deepfake con apariencia de menor en contexto sexual. Este es el único supuesto con tipicidad penal clara hoy en día.
Por tanto, gran parte de los deepfakes que afectan a adultos —especialmente de carácter vejatorio o sexual— pueden quedar impunes penalmente, salvo que concurran circunstancias muy específicas.
El Proyecto de Ley incluye en su Disposición final tercera una relevante modificación del Código Penal. Se introduce un nuevo art. 173 bis CP que sancionaría penalmente a quienes:
"sin autorización de la persona afectada y con ánimo de menoscabar su integridad moral, difundan, exhiban o cedan su imagen corporal o audio de voz generada, modificada o recreada mediante IA u otras tecnologías, de modo que parezca real, simulando situaciones de contenido sexual o gravemente vejatorias".
Esta redacción resuelve varios de los problemas actuales: tipifica la conducta de crear y difundir ultrafalsificaciones, aunque no haya imagen íntima real; no exige prueba de que el daño haya sido gravísimo (basta el ánimo de menoscabar); protege frente a la cosificación e instrumentalización de la víctima.
Pero, de momento, el art. 173 bis CP no existe en el Código Penal aplicable, que sigue siendo el publicado en BOE. Y, como es debido en el ámbito penal, no podrá aplicarse a las infracciones cometidas con anterioridad a su entrada en vigor.
¿Pueden, entonces, quedar los hechos impunes? Sí. A día de hoy, salvo que un deepfake afecte a menores (pornografía infantil) o se pruebe un daño muy grave a la integridad moral o intimidad, no existe cobertura penal clara.
Ante la debilidad de la vía penal, las víctimas de deepfakes tienen hoy protección más sólida en la vía civil, especialmente a través de los mecanismos previstos para la protección del honor, intimidad y propia imagen, interesando la cesación inmediata de la difusión de la imagen, vídeo o audio de que se trate; así como la correspondiente indemnización por daños morales; y las oportunas medidas de rectificación y/o reparación. Podrían, incluso, solicitarse medidas cautelares urgentes para evitar la viralidad del contenido.
Comments