La Comisión Europea ha iniciado su proyecto para desarrollar el primer Código de prácticas de IA de uso general, y está estrechamente vinculado con la Ley de IA de la UE recientemente aprobada.
El Código tiene como objetivo establecer algunas reglas básicas claras para modelos de IA como ChatGPT y Google Gemini, especialmente en lo que respecta a aspectos como transparencia, derechos de autor y gestión de los riesgos que plantean estos poderosos sistemas.
En una reciente sesión plenaria en línea, casi 1.000 expertos del mundo académico, la industria y la sociedad civil se reunieron para ayudar a dar forma a cómo será este Código.
El proceso está liderado por un grupo de 13 expertos internacionales, entre ellos Yoshua Bengio, uno de los ‘padrinos’ de la IA, que se hace cargo del grupo centrado en los riesgos técnicos. Bengio ganó el Premio Turing, que es efectivamente el Premio Nobel de Computación, por lo que sus opiniones tienen un peso merecido.
Las opiniones pesimistas de Bengio sobre el riesgo catastrófico que la poderosa IA representa para la humanidad dan pistas sobre la dirección que tomará el equipo que encabeza.
Estos grupos de trabajo se reunirán periódicamente para redactar el Código y se espera que la versión final esté lista para abril de 2025. Una vez finalizado, el Código tendrá un gran impacto en cualquier empresa que busque implementar sus productos de IA en la UE.
El TENGO actuar establece un marco regulatorio estricto para los proveedores de IA, pero el Código de Práctica será la guía práctica que las empresas deberán seguir. El Código abordará cuestiones como hacer que los sistemas de IA sean más transparentes, garantizar que cumplan con las leyes de derechos de autor y establecer medidas para gestionar los riesgos asociados con la IA.
Los equipos que redacten el Código deberán equilibrar la forma en que se desarrolla la IA de manera responsable y segura, sin sofocar la innovación, algo por lo que ya se está criticando a la UE. Los últimos modelos y funciones de IA de Meta, Apple y OpenAI no se están implementando por completo en la UE debido a las estrictas leyes de privacidad GDPR.
Las implicaciones son enormes. Si se hace correctamente, este Código podría establecer estándares globales para la seguridad y la ética de la IA, otorgando a la UE un papel de liderazgo en la forma en que se regula la IA. Pero si el Código es demasiado restrictivo o poco claro, podría frenar el desarrollo de la IA en Europa, empujando a los innovadores a otros lugares.
Si bien la UE sin duda acogería con agrado la adopción global de su Código, esto es poco probable ya que China y Estados Unidos parecen estar más a favor del desarrollo que reacios al riesgo. El veto del proyecto de ley de seguridad de la IA SB 1047 de California es un buen ejemplo de los diferentes enfoques de la regulación de la IA.
Es poco probable que la AGI surja de la industria tecnológica de la UE, pero también es menos probable que la UE sea la zona cero de cualquier posible catástrofe impulsada por la IA.