- junio 4, 2024
- Autor: Delta13Sec
- Categoría: Ciberseguridad
En un mundo cada vez más digitalizado, la inteligencia artificial (IA) está jugando un papel crucial en diversos sectores, desde la salud hasta las infraestructuras críticas. En este contexto, la Unión Europea ha presentado un marco regulatorio pionero, conocido como la Acta de Inteligencia Artificial (AI Act), diseñado para asegurar el desarrollo y uso seguro y ético de la IA.
Un enfoque basado en el riesgo
El AI Act, introducido el 21 de abril de 2021, clasifica las aplicaciones de IA en cuatro niveles de riesgo: inaceptable, alto, limitado y mínimo. Esta categorización es crucial para garantizar que las aplicaciones de IA se desarrollen y utilicen de manera que protejan tanto a los individuos como a la sociedad en general.
Las aplicaciones de alto riesgo, como las utilizadas en sectores críticos como la infraestructura, la educación y la salud, deberán cumplir con estrictos requisitos antes de ser comercializadas (AI Watch) (AI Watch).
Requisitos para sistemas de IA de alto riesgo
Las aplicaciones de IA de alto riesgo están sujetas a un riguroso proceso de conformidad antes de su entrada en el mercado
Las aplicaciones de IA de alto riesgo están sujetas a un riguroso proceso de conformidad antes de su entrada en el mercado. Este proceso incluye la obtención del marcado CE, un símbolo de cumplimiento que indica que un producto ha sido evaluado y cumple con los requisitos de seguridad, salud y protección del medio ambiente de la UE.
Esta medida asegura que solo los productos que cumplen con altos estándares técnicos, legales y éticos puedan ser comercializados en el Espacio Económico Europeo (EEE) (Futurium) (Futurium).
Innovación y flexibilidad: cajas de arena regulatorias
Para fomentar la innovación y evitar que la regulación estrangule el desarrollo de nuevas tecnologías, el AI Act introduce el concepto de cajas de arena regulatorias.
Estos entornos controlados permiten a las empresas probar sus innovaciones bajo la supervisión de las autoridades reguladoras, lo que proporciona un espacio seguro para experimentar y desarrollar nuevas aplicaciones de IA sin comprometer la seguridad o la ética (Futurium).
Un marco sofisticado de seguridad de productos
El marco de seguridad del producto del AI Act se basa en una sofisticada estructura de evaluación de riesgos, conocida como la “pirámide de criticidad”. Este enfoque asegura que las aplicaciones de IA con riesgos mínimos estén sujetas a un régimen legal más liviano, mientras que las aplicaciones con riesgos inaceptables sean prohibidas.
Las aplicaciones de alto riesgo, por otro lado, deben cumplir con estrictas normativas antes de ser aprobadas para su uso (Futurium).
Supervisión y cumplimiento
El cumplimiento del AI Act será supervisado tanto a nivel de la UE como a nivel nacional. A nivel de la UE, se establecerá la Junta Europea de Inteligencia Artificial (EAIB), que trabajará junto con supervisores nacionales para asegurar que las normativas se apliquen de manera uniforme en todos los estados miembros.
Las violaciones a estas normativas pueden resultar en multas de hasta el 6% del volumen de negocios global.
El nuevo marco regulatorio de la UE para la Inteligencia Artifical es un hito significativo en la regulación de tecnologías emergentes. Al equilibrar la seguridad, la confianza y la innovación, la UE está estableciendo un estándar global para el desarrollo responsable de la inteligencia artificial.
Este enfoque no solo protege a los consumidores y a las empresas, sino que también fomenta un entorno en el que la IA puede prosperar de manera ética y segura. Desde Delta13Sec os seguiremos informando acerca de las novedades de estas nuevas legislaciones en materia de IA.