La Comisión Europea ha dado un paso histórico con la implementación de la primera Ley de Inteligencia Artificial del mundo, que entrará en vigor el 1 de agosto de 2024. Este reglamento es el primer marco jurídico integral sobre inteligencia artificial (IA) y tiene como objetivo fomentar una IA fiable en Europa y más allá, garantizando que los sistemas de IA respeten los derechos fundamentales, la seguridad y los principios éticos.
El foco de esta ley es abordar los riesgos asociados con la IA, especialmente aquellos generados por modelos muy potentes e impactantes. Aunque la mayoría de los sistemas de IA presentan un riesgo limitado o nulo y pueden ayudar a resolver numerosos desafíos sociales, existen determinados sistemas que generan riesgos y deben ser regulados para evitar resultados indeseables.
Normas clave de la Ley de Inteligencia Artificial
Algunas de las normas propuestas en esta ley incluyen abordar riesgos específicos creados por aplicaciones de IA, establecer requisitos claros para los sistemas de IA en aplicaciones de riesgo, determinar una lista de aplicaciones de alto riesgo, exigir una evaluación de conformidad antes de que un sistema de IA se ponga en servicio o se introduzca en el mercado, y aplicar medidas de cumplimiento una vez que el sistema de IA esté en el mercado.
La ley también impide ciertas aplicaciones de inteligencia artificial que violan los derechos de los ciudadanos, como los sistemas de clasificación biométrica basados en características delicadas y la recolección masiva de imágenes faciales de internet o grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial. Además, se prohibirá el reconocimiento de emociones en el ámbito laboral y en las escuelas, los sistemas de puntuación ciudadana, la acción policial predictiva y la IA que manipule el comportamiento humano o aproveche las vulnerabilidades de las personas.
Clasificación de riesgos y transparencia
La Ley de Inteligencia Artificial se basa en un enfoque centrado en el riesgo asociado con la IA. El marco regulador establece cuatro niveles de riesgo para los sistemas de IA: mínimo, limitado, moderado e inaceptable.
Los sistemas de alto riesgo incluyen aquellos que utilizan tecnología de IA en infraestructuras críticas, como el transporte, que podrían poner en peligro la vida de los ciudadanos. También abarcan la formación educativa o profesional, que puede determinar el acceso a la educación y el curso profesional de una persona, y componentes de seguridad de productos, como la aplicación de IA en cirugía asistida por robots. Otros ejemplos incluyen el empleo, la gestión de trabajadores y el acceso al trabajo autónomo, como un software de clasificación de CV para procedimientos de contratación.
Los sistemas de riesgo limitado están asociados con la falta de transparencia en el uso de la IA. La Ley de IA introduce obligaciones específicas de transparencia para garantizar que los seres humanos estén informados cuando sea necesario, fomentando la confianza. Los proveedores tendrán que garantizar que el contenido generado por la IA sea identificable y etiquetar el contenido generado artificialmente.
Un enfoque preparado para el futuro
Finalmente, el sistema de riesgo bajo o nulo autoriza el uso libre de aplicaciones de IA de riesgo bajo. Esto abarca videojuegos con características de IA o filtros antispam. La gran mayoría de los sistemas de IA empleados actualmente en la UE se ajustan a esta categoría.
La Ley de IA es una respuesta a la rápida evolución de la tecnología y se basa en un enfoque preparado para el futuro, permitiendo que las normas se adapten al cambio tecnológico. Al implementar estas regulaciones, Europa busca garantizar que la IA se utilice de manera que beneficie a la sociedad, promoviendo la innovación y protegiendo los derechos fundamentales.
Para obtener más información sobre la Ley de Inteligencia Artificial, visite el sitio oficial de la Comisión Europea.