— Agencias 11/05/2026
Investigación advierte vacíos legales ante tecnologías capaces de interpretar conductas humanas en tiempo real constantemen.
Sistemas biométricos evolucionan más allá de identificación
La inteligencia artificial ya no solo recopila datos o reconoce rostros. Actualmente, diversos sistemas tecnológicos son capaces de interpretar emociones, comportamientos y estados anímicos mediante señales corporales y patrones digitales.
Una investigación encabezada por Leire Escajedo San-Epifanio advierte que este avance tecnológico está superando la capacidad de respuesta de las legislaciones actuales.
El estudio, centrado en tratamientos biométricos no identificantes mediante inteligencia artificial, analiza cómo estas herramientas pueden deducir información emocional sin necesidad de que el usuario la exprese directamente.
A diferencia de tecnologías biométricas tradicionales —como reconocimiento facial o huellas digitales—, estos sistemas no buscan identificar personas, sino interpretar conductas y reacciones psicológicas.
Plataformas digitales ya interpretan comportamiento humano
Teléfonos móviles, asistentes virtuales, videojuegos y plataformas de atención al cliente ya incorporan herramientas capaces de analizar comportamientos en tiempo real.
Estos sistemas detectan señales como nivel de atención, cansancio, interés o reacción emocional frente a determinados contenidos digitales.
La información obtenida permite personalizar anuncios, recomendaciones, videos y mensajes con el objetivo de mantener la atención del usuario o influir en sus decisiones.
Especialistas advierten que el cambio tecnológico más relevante radica en que las plataformas ya no dependen únicamente de datos entregados voluntariamente, sino que comienzan a inferir estados emocionales e información subjetiva mediante comportamiento digital cotidiano.
Expertos alertan riesgos para privacidad y autonomía
La investigación identifica riesgos significativos relacionados con privacidad, autonomía personal y derechos fundamentales.
Uno de los principales problemas señalados es la capacidad de estas tecnologías para influir gradualmente en decisiones individuales mediante ajustes constantes en el entorno digital.
Según el análisis, los usuarios pueden ser condicionados sin plena conciencia sobre cómo operan estos mecanismos algorítmicos.
Además, la clasificación automática basada en comportamiento podría facilitar prácticas discriminatorias o segmentaciones invasivas de usuarios.
El estudio también cuestiona la efectividad del consentimiento tradicional mediante términos y condiciones, argumentando que la mayoría de las personas desconoce realmente qué información emocional o conductual está siendo recopilada y utilizada.
Legislación avanza más lento que la tecnología
La investigación sostiene que tanto el Reglamento General de Protección de Datos como el reciente Reglamento Europeo de Inteligencia Artificial resultan insuficientes frente a estas nuevas aplicaciones.
Las leyes actuales fueron diseñadas para contextos donde la recopilación de datos era puntual y explícita, no para sistemas capaces de analizar comportamiento continuamente y deducir estados emocionales en tiempo real.
Especialistas consideran que informar al usuario ya no es suficiente como medida de protección.
El estudio propone que empresas y autoridades implementen evaluaciones preventivas de riesgo, mecanismos de transparencia y límites claros para impedir afectaciones a la autonomía individual.
La discusión abre un nuevo debate global sobre hasta qué punto la inteligencia artificial podrá interpretar y moldear emociones humanas antes de que existan regulaciones capaces de controlar su impacto social.
Instala la nueva aplicación de El Tiempo MX