El gobernador Gavin Newsom ha generado una gran controversia al vetar el proyecto de ley SB 1047 el pasado domingo 29 de septiembre de 2024. Este proyecto de ley, que fue impulsado por el senador Scott Wiener (demócrata de San Francisco), buscaba imponer controles sobre el desarrollo de inteligencia artificial avanzada para evitar posibles catástrofes. Sin embargo, la decisión de Newsom ha dejado a muchos preocupados por la falta de regulación frente a una tecnología que avanza demasiado rápido. Silicon Valley, donde las principales empresas tecnológicas como Meta y OpenAI tienen sus sedes, había visto esta legislación como una amenaza a la innovación.
Gavin Newsom argumentó que la legislación podría dar una falsa sensación de seguridad, ya que se enfocaba solo en los modelos grandes y costosos, sin considerar los sistemas más pequeños y especializados. En su mensaje de veto, Newsom señaló que la ley “no tiene en cuenta si un sistema de IA se despliega en entornos de alto riesgo, involucra toma de decisiones críticas o el uso de datos sensibles”. Además, mencionó que imponer estándares estrictos a cualquier sistema que supere ciertos límites de computación podría sofocar el desarrollo de la tecnología, incluso en sus funciones más básicas.
El proyecto de ley contaba con el respaldo de figuras importantes como Elon Musk y varios investigadores prominentes de IA, incluyendo a Geoffrey Hinton y Yoshua Bengio, quienes han abogado durante mucho tiempo por una regulación más estricta de la IA. A pesar del apoyo, también enfrentó una fuerte oposición de empresas como Meta y representantes políticos, incluidos la congresista Nancy Pelosi (demócrata de San Francisco). Los defensores de la ley argumentaban que era esencial establecer límites antes de que las tecnologías de IA causaran daños irreparables, mientras que los detractores afirmaban que estas restricciones podrían frenar la innovación y perjudicar la competitividad del estado.

Gavin Newsom y las preocupaciones sobre la regulación de la IA
La decisión de Gavin Newsom de vetar el proyecto se enmarca en un contexto más amplio de regulación tecnológica, donde las medidas preventivas parecen quedar rezagadas respecto a la velocidad de los avances. En el evento Dreamforce, realizado en San Francisco a principios de este mes, Newsom mencionó que la ley SB 1047 había “creado su propio sistema meteorológico”, reflejando la polarización que genera cualquier intento de regular la IA. Mientras algunos sectores buscan un enfoque racional y medido, otros temen que cualquier restricción limite la capacidad de las empresas para innovar y competir, algo fundamental para la economía del estado de California.
¿Qué significa el veto de Gavin Newsom para el futuro de la IA?
El veto de Gavin Newsom representa una gran victoria para las grandes empresas tecnológicas, que habían argumentado que la ley podría hacer inviable el desarrollo de IA avanzada debido al costo de las pruebas de seguridad. Meta, Google y otros actores clave del sector se opusieron firmemente a la medida, argumentando que los usuarios que empleen la tecnología de forma maliciosa deberían ser responsables, no los desarrolladores. Esta visión resuena con la filosofía de que la tecnología es neutral y que su uso depende de la ética de cada individuo, como señaló Newsom en una entrevista con The Times a inicios de septiembre de 2024.
Por otro lado, el senador Scott Wiener describió el veto como una oportunidad perdida para que California liderara la regulación de tecnologías emergentes. La ley habría requerido que los desarrolladores presentaran planes de seguridad al fiscal general y los habría hecho responsables de los daños causados. Wiener afirmó que confiar solo en compromisos voluntarios de las empresas raramente resulta en una verdadera protección del público. “Este veto es un revés para todos los que creemos en la supervisión de las corporaciones masivas que toman decisiones críticas que afectan la seguridad y el bienestar del público”, escribió Wiener en redes sociales el 30 de septiembre.
Gavin Newsom aseguró que continuará trabajando en medidas que regulen el despliegue de IA, pero de manera más específica y adaptada a cada caso. Anunció que su administración colaborará con expertos de renombre, como Fei-Fei Li, co-directora del Instituto de IA Centrada en el Ser Humano de Stanford, para crear “barreras de protección viables”. Este enfoque busca evitar que regulaciones excesivas limiten las oportunidades que presenta la IA, mientras se intenta minimizar los riesgos. Sin embargo, muchos cuestionan si estas medidas serán suficientes sin una legislación concreta que imponga responsabilidades claras.
El hecho de que Hollywood también se involucrara en el debate, con figuras como J.J. Abrams y más de 120 actores y productores instando a Newsom a firmar el proyecto, subraya el impacto cultural y social de la IA. Celebridades como Mark Hamill y Fran Drescher se unieron para instar al gobernador a que aprobara la ley, señalando que es fundamental proteger a la sociedad de los riesgos potenciales de esta tecnología. A pesar de estas presiones, la preocupación de los gigantes tecnológicos y el temor de que una regulación prematura afecte la competitividad del estado terminó inclinando la balanza.
La discusión sobre la regulación de la IA es más relevante que nunca y está claro que encontrar el equilibrio entre seguridad e innovación no será sencillo. En mi libro, “¡Esto No Es Juego! 10 Consejos Para Crear Prompts Increíbles y Hackear tu Productividad”, exploro cómo los prompts de IA pueden revolucionar la forma en que trabajamos, pero siempre bajo la premisa de usarlos de manera ética y responsable. Si quieres aprender más sobre cómo aprovechar esta tecnología sin dejar que te deje atrás, puedes comprar mi libro aquí. Además, ya viene mi próximo taller sobre inteligencia artificial, donde te enseñaré cómo escribirle a las plataformas de IA generativa y aumentar tu productividad. No dejes que alguien más ocupe tu trabajo; toda la información está aquí.
¿Qué se pierde tras el veto de esta ley en California?
- Falta de regulación clara: Sin la ley SB 1047, no existen restricciones vinculantes para el desarrollo de modelos avanzados de IA, lo que podría poner en riesgo la seguridad pública.
- Vacío en responsabilidad: Los desarrolladores de IA no estarán obligados a establecer protocolos de seguridad ni a asumir responsabilidad por los daños causados por sus modelos.
- Oportunidad perdida de liderazgo: California pierde la oportunidad de ser pionera en la regulación de tecnologías emergentes, dejando un vacío que otras jurisdicciones podrían aprovechar.