El Parlamento Europeo ha llegado a un acuerdo con el Consejo para sacar adelante la IA Act, la llamada Ley de Inteligencia Artificial -que realmente es un Reglamento Europeo que será de aplicación directa a los estados de la Unión Europea- que regulará el desarrollo e implementación de sistemas de inteligencia artificial una vez sea aprobado formalmente.
Definición de sistema IA
La definición se ha basado en la actualización de este mismo año de la OCDE y se puede resumir como un sistema que se desarrolla empleando técnicas de aprendizaje, lógica, programación inductiva, estadísticas, entre otras, y que puede, para un conjunto determinado de objetivos definidos por seres humanos, generar información de salida como contenidos, predicciones, recomendaciones o decisiones que influyan en los entornos con los que interactúa.
¿Cuáles son las principales novedades de la Ley de IA?
El reglamento en sí es una gran novedad ya que somos de los primeros estados en regular la producción, implementación y uso de los sistemas de inteligencia artificial.
Tras años de negociación, en los que el texto ha debido adecuarse a los rápidos cambios que se están produciendo constantemente, se ha tratado de buscar un equilibrio entre la capacidad de seguir fomentando la innovación a la vez que se garantizan los derechos fundamentales de los ciudadanos.
El enfoque de este reglamento como otros anteriores como el de protección de datos y otros, se basa en el enfoque en el riesgo.
¿Qué riesgos específicos para las personas se buscan mitigar con la Ley de IA y qué beneficios esperan lograr?
Los riesgos en el Reglamento se clasifican como inaceptable, alto riesgo, limitado y mínimo.
Cualquier sistema inaceptable estará prohibido como explicamos en el punto siguiente.
Para los sistemas de IA clasificados como de alto riesgo (debido a su significativo daño potencial para la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de Derecho) se obliga a la realización de una evaluación de impacto, entre otros requisitos, aplicable también a los sectores de seguros y banca. Los sistemas de inteligencia artificial utilizados para influir en el resultado de las elecciones y en el comportamiento de los votantes también se clasifican como de alto riesgo. Los ciudadanos tendrán derecho a presentar quejas sobre los sistemas de IA y a recibir explicaciones sobre las decisiones basadas en sistemas de IA de alto riesgo que afecten a sus derechos.
¿Usos prohibidos de la IA por la nueva ley?
Directamente prohíbe el uso de IA para:
- categorización en base a datos especialmente sensibles como creencias políticas, religiosas, filosóficas, orientación sexual o raza.
- la captación general o creación de bases de datos de imágenes de internet o CCTV para su reconocimiento.
- El reconocimiento de emociones en el lugar de trabajo o instituciones educativas.
- La puntuación basada en el comportamiento social o características personales.
- Cualquier sistema de IA que trate de manipular el comportamiento humano limitando su libertad.
- aquellas que exploten las vulnerabilidades de las personas en base a su edad, discapacidad, situación social o económica.
¿Cómo va a afectar a las empresas que están desarrollando modelos de inteligencia artificial?
El reglamento será aplicable a:
- Los proveedores de IA que introduzcan en el mercado o pongan en servicio sistemas de IA en la Unión Europea con independencia de su localización o domicilio.
- Los usuarios de sistemas IA que se encuentren en la UE.
- Los proveedores y usuarios que encontrándose fuera de la UE generen información de salida que se utilice en la UE.
Los modelos de IA son muy diversos y esto aplicará a todos los ellos, pero de distintas formas atendiendo al riesgo evaluado.
Riesgo inaceptable y por tanto prohibidos
Aquellos que traten sistemas de puntuación social, que amenacen a la seguridad, medio ambiente y derechos fundamentales o que traten de manipular comportamientos humanos.
Alto riesgo.
Algunos ejemplos serán el reconocimiento facial remoto, usados en educación (puntuación de exámenes, …), que afecten a la salud (asistencia en cirugías, decisiones médicas, …), empleo (clasificación de CVs, …), servicios públicos o esenciales (clasificación crediticia), afección a derechos fundamentales o administración de justicia (validez de pruebas).
En estos casos los requisitos a aplicar serán altos. Entre otros:
- Sistemas de evaluación y mitigación de riesgos
- Garantías de la calidad de los conjuntos de datos de entrenamiento
- Garantías de trazabilidad de los resultados.
- Documentación técnica detallada sobre el sistema y su propósito que permita la evaluación de su cumplimiento.
- Información clara al usuario para aumentar la transparencia.
- Medidas apropiadas de supervisión humana para minimizar riesgos
- Alto nivel de robustez, seguridad y precisión.
Riesgo limitado
En esta clasificación puede recaer los Chatbot y sistemas IA que interactúan con personas.
Tendrán obligación de transparencia informando por ejemplo de la interacción con una IA.
Riesgo mínimo
Sería el caso de videojuegos con IA, filtros de SPAM o antimalware. En este caso no aplicarán medidas adicionales.
EL CASO ESPECIAL DE LA IA GENERAL O IA GENERATIVA.
Para la IA de propósito general y las IAs Generativas, tendrán que cumplir estrictos requisitos de transparencia. Estos incluyen la elaboración de documentación técnica, el cumplimiento de la legislación de la UE sobre derechos de autor y la difusión de resúmenes detallados sobre los contenidos utilizados para el entrenamiento de estos sistemas.
Para las IA de propósito general de alto impacto con riesgo sistémico se establecen obligaciones más estrictas. Si estos modelos cumplen ciertos criterios, tendrán que llevar a cabo evaluaciones de modelos, evaluando y mitigando los riesgos, informar a la Comisión sobre incidentes graves, garantizar la ciberseguridad e informar sobre su eficiencia energética. Los eurodiputados también insistieron en que, hasta que se publiquen las normas armonizadas de la UE, estas IAs podrán basarse en códigos de buenas prácticas para cumplir el reglamento.
¿El impacto será igual en las grandes que en las pequeñas?
Evidentemente el impactos será distinto, no solo por el tamaño de la empresa sino por la distinción entre aquellos que provean sistemas de IA y aquellos que sean meros usuarios de la misma.
En el caso de usuarios de la IA tendrán ciertas obligaciones como usar los sistemas de IA de acuerdo con las instrucciones y para los propósitos previstos por los proveedores y en atención a su nivel de riesgo. Además, deben asegurarse de que cualquier uso de estos sistemas se realice en conformidad con las normativas aplicables, incluyendo la transparencia, protección de datos y la privacidad al respecto de lo cual la Agencia Española de Protección de datos ya desarrolló guías de buenas prácticas al respecto.
¿Se multará a quien infrinja la ley?
El incumplimiento de las normas puede acarrear multas que oscilan:
- entre los 35 millones de euros o el 7% del volumen de negocios global para el uso de IA Prohibida
- 15 millones de euros o el 3% del volumen de negocios global para la mayoría de casos
- y los 7,5 millones o el 1,5% del volumen de negocios, por aportar información incorrecta,
todo ello en en función de la infracción y el tamaño de la empresa.
¿Qué efecto real puede tener la nueva Ley de IA en los usuarios?
¿Qué desafíos plantea legislar la inteligencia artificial?
Legislar una tecnología floreciente y en continuo crecimiento siempre es un reto difícil de llevar a cabo. En este caso especialmente porque el conocimiento al respecto es pequeño y la repercusión en cambio es enorme ya que afecta a sectores de innovación que van a ser esenciales en los próximos años. Seguro que veremos modificaciones legislativas a corto plazo que ajusten a las necesidades de cada momento la aplicación del actual Reglamento.
¿Qué pasos quedan por delante en este proceso y cuándo veremos aplicar la Ley?
Previsiblemente entrará formalmente en vigor en 2026 pero será de aplicación paulatinamente.
Es muy probable que las empresas necesiten asesoramiento profesional como en nuestro para poner en marcha estas actuaciones.