La Agencia Española de Protección de Datos (AEPD) ha dado un paso importante para frenar los abusos en el uso de tecnologías invasivas como el reconocimiento facial. Recientemente, ha sancionado a la Universitat Internacional Valenciana (VIU) por utilizar sistemas de inteligencia artificial y biometría para vigilar a su alumnado durante exámenes online.
¿Qué significa esto? Que la universidad obligaba a los estudiantes a usar su webcam, grabar su cara, su voz, movimientos oculares y del teclado para que un sistema automático detectara si hacían trampas. Todo esto sin ofrecer una alternativa y sin una justificación válida. La AEPD ha dejado claro que esto es excesivo y vulnera gravemente nuestros derechos como personas.
¿Qué son los datos biométricos y por qué son tan delicados?
Los datos biométricos son aquellos que permiten identificarte de forma única: tu rostro, tus huellas dactilares, tu voz, el patrón de tus ojos o incluso cómo te mueves. Estos datos no son como una dirección de correo electrónico que puedes cambiar. Si alguien abusa de tu huella o de tu cara, el daño puede ser permanente.
Por eso, la ley los considera categorías especiales de datos y exige una protección mucho mayor. En general, solo pueden tratarse si:
Tú has dado tu consentimiento explícito.
Existe un interés público muy claro y justificado.
Se aplican garantías técnicas y legales estrictas.
En el caso de la VIU, no se cumplía ninguna de estas condiciones. Se estaba exigiendo al alumnado un sacrificio desproporcionado de su privacidad solo para hacer un examen, cuando existían alternativas menos invasivas.
¿Qué riesgos implica el uso de IA y biometría sin control?
Cuando estas tecnologías se utilizan sin límites, se abre la puerta a:
Errores automatizados: sistemas de IA que malinterpretan un gesto, una mirada o una pausa como un intento de copiar.
Vigilancia masiva encubierta: el uso de datos personales para control, más allá del propósito declarado.
Pérdida de control sobre tu identidad digital: no puedes “cambiar de cara” si esa información se filtra o se usa mal.
Discriminación algorítmica: muchos sistemas de IA tienen sesgos que perjudican a ciertos grupos por su color de piel, acento, edad o discapacidad.
¿Qué puedes hacer para protegerte?
Desde Legitec, queremos darte algunas claves prácticas para que sepas cómo actuar ante este tipo de situaciones:
1. Infórmate antes de aceptar
Antes de participar en exámenes, procesos de selección, accesos a edificios o cualquier otro sistema que implique grabarte o reconocer tu rostro, pide información clara y comprensible:
- ¿Quién va a tratar tus datos?
- ¿Durante cuánto tiempo?
- ¿Con qué finalidad?
- ¿Qué base legal lo justifica?
2. Exige alternativas
Nadie puede obligarte a ceder tus datos biométricos sin una justificación muy sólida. Tienes derecho a negarte y pedir alternativas razonables (por ejemplo, un examen oral con una persona, en lugar de vigilancia automática con IA).
3. Denuncia los abusos
Si te obligan a ceder tus datos o te discriminan por no hacerlo, puedes presentar una reclamación ante la AEPD. Y, por supuesto, también puedes consultarnos a nosotros para ayudarte a valorar si tus derechos están siendo vulnerados.
4. No normalices lo inaceptable
Que una empresa, centro educativo o aplicación diga que «todo el mundo lo hace» no lo convierte en legal. La tecnología debe estar al servicio de las personas, no al revés.
En Legitec trabajamos cada día para que personas, organizaciones y administraciones públicas cumplan con la ley, pero sobre todo, respeten la privacidad como un derecho esencial.
Si eres estudiante, profesional, empresario o trabajas en una entidad que maneja datos personales, podemos ayudarte a:
- Revisar el uso de tecnologías de reconocimiento o videovigilancia.
- Redactar políticas de protección de datos claras y efectivas.
- Implementar medidas de seguridad para cumplir el RGPD.
- Formarte a ti o a tu equipo en privacidad y ciberseguridad.