La Unión Europea alcanzó un acuerdo provisional para la primera Ley de IA; conoce los ámbitos que busca regular
El pasado viernes la Unión Europea alcanzó un acuerdo provisional para la primera Ley de Inteligencia Artificial, con la cual se pretende regular el uso de la IA.
“El viernes, los negociadores del Parlamento y del Consejo llegaron a un acuerdo provisional sobre la Ley de Inteligencia Artificial. Este reglamento tiene como objetivo garantizar que los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad ambiental estén protegidos contra la IA de alto riesgo, al tiempo que impulsa la innovación y convierte a Europa en líder en este campo”, se informó a través del sitio oficial del Parlamento Europeo.
En X (antes Twitter), Thierry Breton, comisario europeo de Mercado Interno y responsable por temas digitales, también dio a conocer la noticia.
“¡Histórico! La UE se convierte en el primer continente en establecer normas claras para el uso de la IA”, señaló el comisario en su publicación.
Este proyecto de legislación aún debe ser aprobado por ambas partes, aunque el acuerdo ya es un gran avance para la Unión Europea para por fin regular la aplicación de la IA en diferentes contextos.
El primer borrador de la ley fue presentado en 2021 y desde entonces las discusiones sobre la negociación han acaparado la atención en este tema.
Los sistemas que se plantean en la ley, estarían sujetos a una serie de obligaciones fundamentales y se sancionará monetariamente a aquellos que no las cumplan.
Por el momento, se espera que la ley sea efectiva entre 2025 y 2026.
¿Qué busca prohibir la primera Ley de IA?
La primera Ley de IA se ha centrado en algunos puntos clave para prohibir el uso de esta herramienta en ámbitos que afecten a los ciudadanos, además que las implementaciones de la IA deben respetar los requisitos de transparencia.
Los puntos clave de esta ley son:
Reconocimiento facial
Uno de los principales temas que se retoman en la primera Ley de Inteligencia Artificial, es respecto a la categorización biométrica, la cual es una “amenaza potencial para los derechos de los ciudadanos y la democracia”.
Las prohibiciones que plantea el acuerdo son:
- Los sistemas de categorización biométrica que utilizan características sensibles como creencias políticas, religiosas, orientación sexual, raza, entre otras.
- La obtención de imágenes de internet o cámaras CCTV para algún propósito en específico y la creación de puntuación social.
- Reconocimiento de emociones en el lugar de trabajo e instituciones educativas.
Vale la pena señalar que en este punto, existen algunas excepciones para el uso de sistemas de identificación biométrica. Cuando el uso de esta se aplique para fines policiales para la búsqueda selectiva de víctimas, prevención de amenaza terroristas o localización / identificación de una persona sospechosa de haber cometido algún delito en específico, ésta podrá usarse.
Sistemas de alto riesgo
Dentro de la ley se ha incluido una "evaluación obligatoria del impacto (de la IA) sobre los derechos fundamentales", la cual también será aplicable en sectores como el bancario o el de seguros.
El acuerdo señala que "los ciudadanos tendrán derecho a presentar quejas sobre los sistemas de IA y recibir explicaciones sobre las decisiones basadas en sistemas de IA de alto riesgo que afecten a sus derechos". De acuerdo con la Ley, hay cuatro niveles de riesgo: riesgo mínimo, alto riesgo, transparencia específico y riesgo inaceptable.
Transparencia en sistemas de IA
El acuerdo de la Unión Europea también destacó que los sistemas de IA de propósito general, tales como ChatGPT o Gemini, "tendrán que cumplir con los requisitos de transparencia". Es decir, tendrán que someterse a una serie de pruebas para mitigar riesgos . Además, tendrán que dar aviso sobre incidentes graves con el fin de garantizar la ciberseguridad e informar sobre su eficiencia.
Algunos ámbitos en los que se aplicará esta ley son: la elaboración de documentación técnica, cumplimiento de la ley de derechos de autor de la UE, así como la difusión de resúmenes sobre el contenido utilizado para la formación.
Además, los eurodiputados instaron a que "hasta que se publiquen normas armonizadas de la UE, las GPAI con riesgo sistémico pueden depender de códigos de práctica para cumplir con la regulación".
Apoyo a la innovación y pymes
La ley no limita el uso de la IA, más bien busca regularla y fomentar su uso para la innovación. Por ello, en uno de los puntos clave de la ley, se destaca que los eurodiputados buscan garantizar a las empresas, especialmente pymes, que puedan "desarrollar soluciones de inteligencia artificial sin presiones indebidas por parte de los gigantes de la industria que controlan la cadena de valor", señala la publicación del Parlamento Europeo.
Con ello buscan promover los entornos de pruebas regulatorios y pruebas en el mundo real para desarrollar y entrenar a la inteligencia artificial antes de su comercialización.
¿Qué pasará si no cumplen con la Ley de IA?
De acuerdo con la publicación del Parlamente Europeo, "el incumplimiento de las normas puede dar lugar a multas que van desde 35 millones de euros o el 7% del volumen de negocios global hasta 7,5 millones o el 1,5% del volumen de negocios, dependiendo de la infracción y el tamaño de la empresa".