¿Regulación o innovación? Ahí está el debate sobre la Inteligencia Artificial en California. El gobernador de estado, Gavin Newsom, veta el disputado proyecto de ley sobre seguridad de la IA después de que la industria tecnológica planteara objeciones. El texto pretendía establecer requisitos para que los desarrolladores de modelos avanzados de IA establecieran protocolos de seguridad. Pero el proyecto de ley tendrá que ser revisado. Newsom dice que si se hubiera sacado adelante se hubiese dado falsa sensación de seguridad.
¿Qué hay tras el veto del gobernador de California, Gavin Newsom, al disputado proyecto de ley sobre seguridad de la inteligencia artificial?
Los centros de datos, ¿una segunda vida para las centrales nucleares?
El Gobernado de California ha explicado para justificar su veto que el proyecto de ley "no tiene en cuenta si un sistema de IA se implementa en entornos de alto riesgo, implica la toma de decisiones críticas o el uso de datos confidenciales" y aplicaría "estándares estrictos incluso a las funciones más básicas, siempre que un sistema grande lo implementa".
Newsom ha pedido a destacados expertos en IA generativa que ayuden a California a "desarrollar barreras de seguridad viables" que se centren "en el desarrollo de un análisis de trayectoria empírico y basado en la ciencia".
Por su parte el autor del proyecto de ley, el senador estatal demócrata Scott Wiener, dijo que la legislación era necesaria para proteger al público antes de que los avances en IA se volvieran difíciles de manejar o incontrolables.