Inteligencia artificial ya interpreta emociones y conductas

La inteligencia artificial evoluciona hacia el análisis emocional y conductual, mientras expertos advierten que las leyes actuales no alcanzan a regular estos sistemas.
Una investigación de Universidad del País Vasco alertó sobre el desfase entre el avance de la inteligencia artificial y las normas jurídicas actuales, ante el crecimiento de tecnologías biométricas capaces de interpretar emociones y conductas humanas en tiempo real.
IA y biometría transforman la interacción digital
El estudio elaborado por Leire Escajedo San-Epifanio analiza cómo los sistemas de inteligencia artificial utilizan señales corporales y patrones de comportamiento para deducir estados emocionales sin que las personas los expresen directamente.
Actualmente, teléfonos móviles, asistentes virtuales, videojuegos y plataformas digitales emplean tecnologías biométricas no identificantes para detectar atención, interés, cansancio y reacciones frente a contenidos digitales.
A diferencia de herramientas tradicionales como el reconocimiento facial o de huellas, estos sistemas no buscan identificar a la persona, sino interpretar su comportamiento y adaptar la experiencia digital en tiempo real.
Riesgos para la privacidad y la autonomía
La investigación advierte que estas tecnologías pueden influir en las decisiones individuales mediante ajustes constantes en el entorno digital.
Los sistemas recopilan datos sobre hábitos y reacciones para modificar anuncios, mensajes y contenidos, lo que podría afectar la autonomía personal y la libertad de decisión de los usuarios.
El estudio también señala riesgos de discriminación y segmentación derivados de la clasificación automática de personas según sus comportamientos digitales.
Además, cuestiona la eficacia del consentimiento informado tradicional, ya que aceptar términos y condiciones no implica comprender plenamente el alcance de la recopilación de datos ni sus posibles consecuencias.
Legislación europea enfrenta rezago tecnológico
La investigación sostiene que el marco legal europeo todavía no responde adecuadamente a estas nuevas aplicaciones de inteligencia artificial.
El Reglamento General de Protección de Datos fue diseñado principalmente para contextos de identificación biométrica y no contempló tecnologías enfocadas en interpretar emociones o conductas.
Por su parte, el Reglamento Europeo de Inteligencia Artificial aún no otorga suficiente relevancia a los impactos cotidianos de estos sistemas.
La autora subraya que los efectos de estas tecnologías suelen producirse mediante pequeños cambios acumulativos difíciles de detectar, lo que complica el control sobre la privacidad y los derechos fundamentales.
Expertos piden controles preventivos
El estudio propone que empresas y autoridades implementen evaluaciones de riesgo antes de desplegar sistemas biométricos basados en inteligencia artificial.
También plantea la necesidad de establecer límites claros sobre el tipo de información recopilada y reforzar la transparencia para garantizar el respeto a los derechos fundamentales y la libertad individual.
La investigación concluye que el reto principal será adaptar la regulación a tecnologías que evolucionan más rápido que las leyes actuales.
Tecnología: ¿Cada cuánto debes reiniciar tu iPhone? Esto recomiendan los expertos
Reiniciar el iPhone periódicamente mejora su rendimiento, soluciona fallas y protege el dispositivo. Reiniciar un iPhone sirve para solucionar fallas en el sistema, aumentar su rendimiento, mejorar las conexiones WiFi o Bluetooth y hasta protegerlo de amenazas, -- leer más
Noticias del tema