La inteligencia artificial ya no solo procesa datos, sino que podría interpretar emociones y conductas humanas en tiempo real. Mientras tanto, la legislación permanece anclada en conceptos del pasado, según revela una investigación de Leire Escajedo San-Epifanio, profesora de Derecho Constitucional en la Universidad del País Vasco.

Este desfase entre la innovación tecnológica y la regulación jurídica plantea interrogantes sobre la protección de derechos fundamentales y la transparencia en el uso de sistemas biométricos no identificantes. El estudio, titulado Tratamientos biométricos no identificantes mediante inteligencia artificial, expone cómo las tecnologías actuales son capaces de deducir estados emocionales y patrones de comportamiento a partir de señales corporales, sin que la persona lo haya expresado de forma directa.

La investigación advierte que la normativa europea, tanto el Reglamento General de Protección de Datos como el Reglamento Europeo de Inteligencia Artificial, aún no aborda de manera adecuada estos nuevos escenarios. Teléfonos móviles, asistentes virtuales, plataformas de atención al cliente y videojuegos utilizan tecnologías relacionadas con la biometría que, en lugar de identificar a la persona, buscan interpretar su estado anímico y su comportamiento en cada momento.

Estos sistemas pueden detectar si una persona está atenta, muestra interés o cansancio, cuánto tiempo se detiene ante determinado contenido y cómo reacciona a los estímulos digitales. La información recogida se utiliza para personalizar la experiencia del usuario, ajustando desde vídeos hasta anuncios o mensajes destinados a captar la atención e incluso influir en la toma de decisiones.

A diferencia de las aplicaciones tradicionales de la biometría, como el reconocimiento de huellas dactilares o el desbloqueo facial, en este caso el objetivo no es la identificación, sino la interpretación del comportamiento humano y de los estados emocionales. El salto tecnológico consiste en pasar de registrar datos explícitos proporcionados por el usuario a deducir información íntima y subjetiva sin mediación consciente.

La IA podría detectar el estado de ánimo.

La investigación de Escajedo San-Epifanio identifica riesgos sustanciales en el uso de tecnologías biométricas no identificantes. Uno de los principales es la posibilidad de influir en las decisiones individuales mediante la adaptación continua del entorno digital, basada en el comportamiento observado. Esto compromete la libertad personal, ya que el usuario puede ser guiado o condicionado sin ser plenamente consciente de cómo ocurre ese proceso.

Además, la clasificación automática de las personas según su comportamiento introduce problemas de desigualdad, al crear perfiles que pueden ser utilizados para discriminar o segmentar a los usuarios. El estudio alerta de la falta de transparencia respecto a qué datos se generan, cómo se utilizan y con qué fines.

El consentimiento informado, en la práctica, resulta insuficiente: aceptar términos y condiciones no equivale a comprender el alcance real de la información recopilada ni las formas en que puede condicionar las decisiones cotidianas. Estos riesgos no suelen manifestarse de manera inmediata. En lugar de una decisión única y concreta, los sistemas introducen pequeños ajustes continuos que, acumulados en el tiempo, pueden modificar el comportamiento de los usuarios.

Este fenómeno dificulta la detección y el control de los efectos sobre la autonomía y la privacidad. El desfase entre el avance de la IA y la lentitud del Derecho en adaptarse es una de las principales conclusiones del estudio. La legislación vigente fue concebida para contextos en los que la recogida de datos era puntual y explícita, o para decisiones automatizadas claramente identificables.

El Reglamento Europeo no ha otorgado relevancia a estas aplicaciones.

Sin embargo, los sistemas actuales operan de manera continua, extrayendo conclusiones sobre el comportamiento sin encajar en las categorías jurídicas existentes. El Reglamento General de Protección de Datos, aprobado en 2016, se centraba en la identificación de las personas mediante biometría, pero no anticipó el uso de estas tecnologías para interpretar emociones o modular la conducta.

Por su parte, el Reglamento Europeo de Inteligencia Artificial, aún reciente, no ha otorgado suficiente relevancia a estas aplicaciones, a pesar del impacto que tienen en la vida diaria. La investigación subraya que el problema no se soluciona exclusivamente con informar al usuario.

Es necesario evaluar los riesgos de estos sistemas antes de su implantación, identificar el tipo de información que generan y establecer límites claros cuando puedan afectar derechos fundamentales. El estudio propone pautas prácticas para que empresas y autoridades actúen de manera preventiva, asegurando la transparencia y el respeto a la autonomía personal.

T/Agencias