La Ley de Inteligencia Artificial (IA) de la Unión Europea entró oficialmente en vigor el 1 de agosto de 2024, un momento decisivo para la regulación mundial de la IA.
Esta amplia legislación clasifica los sistemas de IA en función de sus niveles de riesgo, imponiendo diferentes grados de supervisión que varían según la categoría de riesgo.
La ley prohibirá por completo algunas formas de IA de “riesgo inaceptable”, como las diseñadas para manipular el comportamiento de las personas.
Mientras que el Acto Ahora es ley en los 27 estados miembros de la UE, la gran mayoría de sus disposiciones no entran en vigor de inmediato.
Más bien, esta fecha marca el comienzo de una fase de preparación tanto para los reguladores como para las empresas.
Sin embargo, las ruedas están en movimiento y la Ley seguramente dará forma al futuro de cómo se desarrollan, implementan y gestionan las tecnologías de IA, tanto en la UE como a nivel internacional.
El cronograma de implementación es el siguiente:
- febrero 2025: Entran en vigor las prohibiciones sobre prácticas de IA de “riesgo inaceptable”. Estos incluyen sistemas de puntuación social, raspado de imágenes faciales no dirigido y el uso de tecnología de reconocimiento de emociones en lugares de trabajo y entornos educativos.
- agosto 2025: Entran en vigor los requisitos para los modelos de IA de uso general. Esta categoría, que incluye grandes modelos de lenguaje como GPT, deberá cumplir con reglas sobre transparencia, seguridad y mitigación de riesgos.
- agosto 2026: Las regulaciones para los sistemas de IA de alto riesgo en sectores críticos como la salud, la educación y el empleo se vuelven obligatorias.
La Comisión Europea se está preparando para hacer cumplir estas nuevas reglas.
El portavoz de la Comisión, Thomas Regnier, explicó que unos 60 empleados existentes serán redirigidos a la nueva Oficina de IA y el próximo año se contratarán 80 empleados externos más.
Además, cada estado miembro de la UE debe establecer autoridades nacionales competentes para supervisar y hacer cumplir la Ley antes de agosto de 2025.
El cumplimiento no se producirá de la noche a la mañana. Si bien cualquier gran empresa de IA habrá estado preparándose para la Ley durante algún tiempo, los expertos estiman que implementar los controles y prácticas puede llevar seis meses o más.
Hay mucho en juego para las empresas atrapadas en el punto de mira de la Ley. Las empresas que lo incumplan podrían enfrentar multas de hasta 35 millones de euros o el 7% de sus ingresos anuales globales, lo que sea mayor.
Eso es más alto que el GPDR, y la UE no tiende a hacer amenazas vanas, recopilando más de 4 mil millones de euros de las multas del RGPD hasta la fecha.
Impactos internacionales
Como primera regulación integral de IA del mundo, la Ley de IA de la UE establecerá nuevos estándares en todo el mundo.
Los principales actores como Microsoft, Google, Amazon, Apple y Meta estarán entre los más afectados por las nuevas regulaciones.
Como Charlie Thompson de Appian le dijo a CNBC“La Ley de IA probablemente se aplicará a cualquier organización con operaciones o impacto en la UE, independientemente de dónde tenga su sede”.
Algunas empresas estadounidenses están tomando medidas preventivas. Meta, por ejemplo, ha restringido la disponibilidad de sus Modelo de IA LLaMa 400B en Europacitando la incertidumbre regulatoria. OpenAI amenazó con limitar los lanzamientos de productos en Europa en 2023, pero rápidamente dio marcha atrás.
Para cumplir con la ley, es posible que las empresas de inteligencia artificial deban revisar los conjuntos de datos de capacitación, implementar una supervisión humana más sólida y proporcionar a las autoridades de la UE documentación detallada.
Esto va en contra de cómo opera la industria de la IA. Modelos de IA propietarios de OpenAI, Google, etc. son reservados y muy cautelosos.
Los datos de capacitación son excepcionalmente valiosos y revelarlos probablemente expondría grandes cantidades de material protegido por derechos de autor.
Hay preguntas difíciles de responder si se quiere que el desarrollo de la IA progrese al mismo ritmo que lo ha hecho hasta ahora.
Algunas empresas están bajo presión para actuar antes que otras
La Comisión de la UE estima que alrededor del 85% de las empresas de IA caen dentro del “riesgo mínimo”, que requiere poca supervisión, pero las reglas de la Ley, de todos modos, afectan las actividades de las empresas en sus categorías superiores.
Los recursos humanos y el empleo son un área etiquetada como parte de la categoría de “alto riesgo” de la ley.
Los principales proveedores de software empresarial como SAP, Oracle, IBM, Workday y ServiceNow han lanzado aplicaciones de recursos humanos mejoradas con IA que incorporan IA en la selección y gestión de candidatos.
Jesper Schleimann, director de IA de SAP para EMEA, dijo a The Register que la empresa ha establecido procesos sólidos para garantizar el cumplimiento de las nuevas reglas.
De manera similar, Workday ha implementado un programa de IA responsable dirigido por altos ejecutivos para alinearse con los requisitos de la ley.
Otra categoría bajo el cosh son los sistemas de inteligencia artificial utilizados en infraestructura crítica y servicios públicos y privados esenciales.
Esto abarca una amplia gama de aplicaciones, desde la IA utilizada en redes de energía y sistemas de transporte hasta aquellas empleadas en servicios financieros y de salud.
Las empresas que operan en estos sectores deberán demostrar que sus sistemas de inteligencia artificial cumplen con estrictos estándares de seguridad y confiabilidad. También se les exigirá que realicen evaluaciones de riesgos exhaustivas, implementen sistemas de monitoreo sólidos y garanticen que sus modelos de IA sean explicables y transparentes.
Si bien la Ley de IA prohíbe rotundamente ciertos usos de la identificación y la vigilancia biométrica, hace concesiones limitadas en contextos de aplicación de la ley y seguridad nacional.
Esta ha demostrado ser un área fértil para el desarrollo de la IA, con empresas como Palantir construyendo sistemas avanzados de predicción del crimen susceptible de contradecir el acto.
El Reino Unido ya ha experimentado intensamente con Vigilancia impulsada por IA. Aunque el Reino Unido está fuera de la UE, es casi seguro que muchas empresas de inteligencia artificial con sede allí tendrán que cumplir con la ley.
La incertidumbre se avecina
La respuesta a la ley ha sido mixta. Numerosas empresas de la industria tecnológica de la UE han expresado su preocupación por su impacto en la innovación y la competencia.
En junio, más de 150 ejecutivos de grandes empresas como Renault, Heineken, Airbus y Siemens se unieron en una carta abierta, expresando sus preocupaciones sobre el impacto de la regulación en los negocios.
Jeannette zu Fürstenberg, una de las firmantes y socia fundadora del fondo de capital riesgo con sede en Berlín La Famiglia VC, expresó que la Ley de IA podría tener “implicaciones catastróficas para la competitividad europea”.
France Digitale, que representa a las nuevas empresas tecnológicas en Europa, criticó las reglas y definiciones de la ley y afirmó: “Pedimos no regular la tecnología como tal, sino regular los usos de la tecnología. La solución adoptada hoy por Europa equivale a regular las matemáticas, lo cual no tiene mucho sentido”.
Sin embargo, los partidarios argumentan que la Ley también presenta oportunidades para la innovación en el desarrollo responsable de la IA. La postura de la UE es clara: si se protege a las personas de la IA, se creará una industria más integral y ética.
Regnier dijo a Euro News: “Lo que se escucha en todas partes es que lo que hace la UE es pura regulación (…) y que esto bloqueará la innovación. Esto no es correcto”.
“La legislación no está ahí para impedir que las empresas lancen sus sistemas, sino todo lo contrario. Queremos que operen en la UE, pero queremos proteger a nuestros ciudadanos y proteger nuestras empresas”.
Si bien el escepticismo reina, hay motivos para el optimismo. SEstablecer límites al reconocimiento facial, la puntuación social y el análisis de comportamiento impulsados por IA está diseñado para proteger las libertades civiles de los ciudadanos de la UE, que durante mucho tiempo han tenido prioridad sobre la tecnología en las regulaciones de la UE.
A nivel internacional, la Ley puede ayudar a generar confianza pública en las tecnologías de IA, calmar temores y establecer estándares más claros para el desarrollo y uso de la IA.
Generar confianza a largo plazo en la IA es vital para que la industria siga avanzando, por lo que la ley podría tener algunas ventajas comerciales, aunque se necesitará paciencia para que llegue a buen término.