Por: Paul Daniel Moriel Quiralte
Mientras la tecnología avanza a pasos de gigante, el derecho intenta seguirle el rastro. El caso de Matthew McConaughey es la señal de alarma: si no somos dueños de nuestra imagen, seremos su mercancía.
Hace apenas unos días, me tocó vivirlo en carne propia: alguien creó un perfil falso en Facebook utilizando mi nombre y mi fotografía. Al principio parece una molestia menor, un “gaje del oficio” digital. Sin embargo, cuando eres consciente de los alcances de la tecnología actual, la anécdota se vuelve inquietante. Si hoy pueden clonar un perfil con un par de clics, ¿qué pasará mañana cuando esa misma cuenta no solo use mi foto, sino que hable con mi voz y gesticule con mi rostro en un video generado por inteligencia artificial?
La pregunta ya no es futurista ni anecdótica: ¿quién controla tu identidad cuando una máquina puede imitarla con precisión casi perfecta? Hoy, tu esencia dejó de ser solo presencia física para convertirse en un archivo que puede circular sin ti, contra ti, e incluso como si fueras tú.
Lo que antes requería un estudio y horas de edición, ahora se hace en minutos con inteligencia artificial generativa. Se fabrican videos, audios e imágenes apócrifas para estafas o campañas políticas. Y no exagero: la víctima suele enterarse tarde, cuando el daño ya es viral.
En este contexto, el movimiento de Matthew McConaughey es síntoma y advertencia. El actor habría registrado elementos de su identidad sonora y visual como marcas, buscando blindajes adicionales ante la replicación no autorizada. Esto revela el miedo de una industria que ve cómo su activo principal puede ser clonado sin permiso, y anuncia un mundo donde proteger tu identidad podría parecerse más a proteger una franquicia.
La pregunta incómoda es esta: ¿vamos a normalizar que nuestra voz y nuestro rostro solo estén seguros si los registramos como propiedad industrial?
Si la ley todavía no alcanza a la tecnología, algunos ya están usando el derecho existente como chaleco antibalas. Marcas, derechos de autor y contratos conforman un arsenal jurídico para delimitar un perímetro de consentimiento.
Hay algo inteligente y algo profundamente preocupante en esa estrategia. Lo inteligente es que intenta darle forma jurídica a un daño moderno. Cuando un deepfake usa tu voz, no solo te roban reputación: te roban agencia, la capacidad de decidir sobre tu propia representación pública.
Lo preocupante es que ese camino puede consolidar una desigualdad peligrosa. Seamos francos: no todo mundo puede pagar abogados y registros.
El deepfake no necesita celebridades; le basta con material que todos regalamos a la red:
- una nota de voz en WhatsApp;
- un video breve en redes sociales;
- una entrevista en un evento;
- un TikTok donde te ríes.
Y entonces viene el golpe: una llamada con “tu voz” pidiendo dinero a un familiar o una imagen “tuya” en un contexto delictivo.
Por ello, para quienes tienen una alta exposición pública, periodistas, servidoras y servidores públicos, activistas o creadores de contenido, hoy vale la pena explorar medidas de protección, por lo que creo que deberíamos tener un marco regulatorio mínimo:
- Consentimiento verificable: La voz y el rostro deben tratarse como datos biométricos, no como material disponible para entrenar máquinas.
- Vías de tutela rápidas: Órdenes de retiro inmediato de contenido sintético dañino.
- Responsabilidad de plataformas: Quienes despliegan herramientas de IA deben cargar con obligaciones cuando facilitan la suplantación.
La era del deepfake convirtió la identidad en un campo probatorio: ya no basta con decir “yo no dije eso”, ahora hay que demostrarlo. Cuando la tecnología puede hablar por ti, tu silencio o tu falta de protección deja de ser neutral.