¡Hola, amigos! Un grupo de empleados actuales y anteriores de gigantes de la IA como OpenAI y Google DeepMind están levantando la voz sobre los peligros de la inteligencia artificial sin control.
Once empleados actuales y anteriores de OpenAI, junto con un empleado actual y uno anterior de Google DeepMind, publicaron una carta abierta expresando que la naturaleza enfocada en las ganancias de las empresas de IA está impidiendo una supervisión efectiva.
Afirman: \"No creemos que las estructuras personalizadas de gobernanza corporativa sean suficientes para cambiar esto.\"
La carta advierte sobre los riesgos de la IA no regulada, que van desde la difusión de desinformación hasta la pérdida de sistemas de IA independientes y el agravamiento de las desigualdades existentes, lo que podría resultar en \"la extinción humana.\"
Los investigadores han descubierto que los generadores de imágenes de empresas como OpenAI y Microsoft han producido fotos con desinformación relacionada con el voto, ¡a pesar de las políticas contra dicho contenido!
El grupo dice que las empresas de IA tienen \"obligaciones débiles\" para compartir información con los gobiernos sobre las capacidades y limitaciones de sus sistemas, y que no se puede confiar en que estas empresas compartan dicha información voluntariamente.
Han instado a las empresas de IA a facilitar un proceso para que los empleados actuales y anteriores puedan expresar preocupaciones relacionadas con riesgos y a no imponer acuerdos de confidencialidad que prohíban críticas.
Mientras tanto, OpenAI informó que interrumpió cinco operaciones de influencia encubierta que buscaban usar sus modelos de IA para \"actividad engañosa\" en internet.
¡Es hora de prestar atención a estas advertencias y mantenerse informados sobre cómo la IA podría impactar nuestro futuro!
Reference(s):
OpenAI, Google DeepMind's current and former staff warn of AI risks
cgtn.com