Las empresas de IA en California dieron un suspiro colectivo de alivio cuando el gobernador Gavin Newsom vetó el proyecto de ley de seguridad de la IA SB 1047 que el Senado estatal aprobó a principios de este mes.
El controvertido proyecto de ley exigiría controles de seguridad adicionales para los modelos de IA que crucen un umbral de cálculo o costo de entrenamiento si se convierte en ley. Estos modelos requerirían un “interruptor de apagado” e incurrirían en fuertes multas para los fabricantes de los modelos si se utilizaran para causar “daños críticos”.
En su carta al Senado del estado de California, Newsom explicó los motivos de su decisión de vetar el proyecto de ley.
Señaló que una de las razones por las que California alberga 32 de las 50 principales empresas de inteligencia artificial del mundo es el “cultivo de espíritu libre de la libertad intelectual” por parte del estado. No mencionó el riesgo de que algunas de estas empresas abandonen California, pero insinuó el impacto que el proyecto de ley tendría sobre ellas.
Newsom dijo que la razón principal para vetar el proyecto de ley fue que era demasiado amplio y que el umbral de regulación no abordaba los riesgos reales.
Dijo: “Al centrarse sólo en los modelos más caros y de mayor escala, la SB 1047 establece un marco regulatorio que podría dar al público una falsa sensación de seguridad sobre el control de esta tecnología de rápido movimiento. Modelos más pequeños y especializados pueden surgir como igual o incluso más peligrosos que los modelos a los que apunta la SB 1047, a costa de restringir la innovación misma que impulsa el avance a favor del bien público”.
Newsom dijo que la regulación de los riesgos de la IA era necesaria, pero que centrarse en las aplicaciones riesgosas en lugar del enfoque general de la SB 1047 era una mejor opción.
“La SB 1047 no tiene en cuenta si un sistema de Al se implementa en entornos de alto riesgo, implica la toma de decisiones críticas o el uso de datos confidenciales. En cambio, el proyecto de ley aplica estándares estrictos incluso a las funciones más básicas, siempre que las implemente un sistema grande. No creo que este sea el mejor enfoque para proteger al público de las amenazas reales que plantea la tecnología”, explicó Newsom.
Si bien Newsom se negó a firmar la SB 1047, señaló otras regulaciones de IA que firmó este mes como evidencia de que está tomando en serio los riesgos asociados con la IA.
Resumió su compromiso con la seguridad y el avance de la IA diciendo: “Teniendo en cuenta lo que está en juego (proteger contra amenazas reales sin frustrar innecesariamente la promesa de esta tecnología de promover el bien público), debemos hacerlo bien”.
Es comprensible que el senador Scott Weiner estuviera descontento porque Newsom se negó a firmar el proyecto de ley que había escrito.
Weiner dijo: “Este veto es un revés para todos los que creen en la supervisión de corporaciones masivas que están tomando decisiones críticas que afectan la seguridad y el bienestar del público y el futuro del planeta… Este veto nos deja con la preocupante realidad de que las empresas que buscan “Crear una tecnología extremadamente poderosa no enfrenta restricciones vinculantes por parte de los responsables políticos estadounidenses, particularmente dada la continua parálisis del Congreso en torno a la regulación de la industria tecnológica de manera significativa”.
Mientras Weiner lamentaba el fracaso del proyecto de ley, Yann LeCun de Meta y el capitalista de riesgo Marc Andreesen agradecieron públicamente a Newsom por el veto.
Tendremos que esperar para ver si la decisión de Newsom es un ejemplo de liderazgo con visión de futuro o un motivo de arrepentimiento.