¡Noticias emocionantes en el mundo de la tecnología! OpenAI y Anthropic, dos líderes en innovación de IA, están uniéndose al gobierno de EE.UU. para asegurar que sus modelos de IA sean lo más seguros posible.
Estos dos gigantes tecnológicos han aceptado que el Instituto de Seguridad en IA de EE.UU., parte del Instituto Nacional de Estándares y Tecnología (NIST), pruebe sus últimos modelos de IA. Esto significa más controles de seguridad antes de que estos modelos se lancen al público.
Desde que ChatGPT se convirtió en un nombre familiar, ha habido mucho revuelo sobre cómo regular la IA. Mientras que algunos gobiernos están adoptando regulaciones estrictas, EE.UU. está tomando un camino diferente, permitiendo que las empresas innoven mientras monitorean la seguridad a través de acuerdos voluntarios como este.
Elizabeth Kelly, directora del Instituto de Seguridad en IA de EE.UU., llamó a estos acuerdos \"un hito importante mientras trabajamos para ayudar a manejar de manera responsable el futuro de la IA.\" Todo se trata de asegurarse de que la IA se desarrolle de una manera que sea beneficiosa y segura para todos.
Jack Clark de Anthropic agregó que trabajar con el Instituto de Seguridad en IA de EE.UU. \"fortalece nuestra capacidad para identificar y mitigar riesgos, avanzando en el desarrollo responsable de IA.\" Es como tener un par de ojos expertos adicionales para asegurarse de que todo esté bajo control.
Esta colaboración es parte de esfuerzos relacionados con una orden ejecutiva sobre IA de la Casa Blanca de 2023, que tiene como objetivo apoyar la innovación mientras se garantiza la seguridad. A diferencia del enfoque más estricto de la Unión Europea, EE.UU. está interesado en permitir que las empresas tecnológicas tengan más libertad para explorar y crear.
Sin embargo, no todos están en la misma sintonía. Los legisladores en California acaban de aprobar un proyecto de ley estatal sobre seguridad en IA, que necesita la aprobación del gobernador. El CEO de OpenAI, Sam Altman, insinuó su preferencia por la regulación nacional en lugar de las leyes estatales, diciendo que es \"importante\" que la regulación se realice a nivel nacional.
¿Qué significa esto para nosotros? ¡Más desarrollos emocionantes en IA están en el horizonte, con la seguridad como máxima prioridad! Así que mantente atento a lo que viene en el mundo de la IA.
Reference(s):
OpenAI and Anthropic to share AI models with U.S. government
cgtn.com