🚨 ¡Grandes noticias desde California! El gobernador Gavin Newsom acaba de vetar un importante proyecto de ley de seguridad de IA, y todos están hablando de ello. El Proyecto de Ley del Senado 1047, también conocido como la Ley de Innovación Segura y Protegida para Modelos de Inteligencia Artificial Fronteriza, tenía como objetivo establecer controles sobre los modelos avanzados de IA antes de que lleguen al público. Pero Newsom dijo, \\"¡No!\\"
El proyecto fue presentado por el senador Scott Wiener y habría requerido que los modelos de IA de alto nivel (estamos hablando de modelos que cuestan más de $100 millones en desarrollarse) pasaran por pruebas de seguridad para prevenir cualquier \\"daño catastrófico.\\" Incluso proponía responsabilizar a los desarrolladores por cualquier daño que sus IA pudieran causar. Suena serio, ¿verdad?
¿La razón del gobernador Newsom? Cree que el proyecto de ley aplicaba un enfoque único que no consideraba los diferentes riesgos en distintos entornos. Quiere un método más \\"empírico y basado en la ciencia\\" para regular la IA. Está recibiendo opiniones de los principales expertos para encontrar la mejor manera de avanzar. 🧠
La industria tecnológica está bastante contenta con el veto. Grupos como la Cámara de Progreso, que incluye grandes nombres como Google, Meta y OpenAI, piensan que el proyecto de ley podría haber frenado la innovación y perjudicado la posición de Estados Unidos en la carrera global de IA. Están totalmente a favor de mantener la escena tecnológica de California competitiva y abierta. 🚀
Pero no todos están emocionados. El senador Wiener y otros defensores del proyecto de ley están decepcionados, diciendo que sin regulación, los desarrolladores de potentes IA pueden hacer lo que quieran, lo que podría hacer las cosas menos seguras. Argumentan que confiar en los compromisos voluntarios de seguridad de la industria no es suficiente.
Algunas figuras importantes como Elon Musk están a favor de regular la IA para mantener las cosas responsables. Por otro lado, expertos en IA como Fei-Fei Li de Stanford están de acuerdo con Newsom, apoyando un enfoque equilibrado que mitigue los riesgos pero aún fomente la innovación.
¡El debate está en llamas! 🔥 ¿Qué opinas? ¿Debería regularse estrictamente el desarrollo de IA o debería la innovación llevar el control? ¡Cuéntanos! 🗣️
Reference(s):
California governor vetoes AI safety bill amid industry pushback
cgtn.com