¡Hola, amigos! 📢 Un grupo de empleados actuales y anteriores de gigantes de la IA como OpenAI y Google DeepMind están levantando la voz sobre los peligros de la inteligencia artificial sin control. 😱
Once empleados actuales y anteriores de OpenAI, junto con un empleado actual y uno anterior de Google DeepMind, publicaron una carta abierta expresando que la naturaleza enfocada en las ganancias de las empresas de IA está impidiendo una supervisión efectiva. 💰🚫👁️
Afirman: \"No creemos que las estructuras personalizadas de gobernanza corporativa sean suficientes para cambiar esto.\" 😕
La carta advierte sobre los riesgos de la IA no regulada, que van desde la difusión de desinformación 🤥 hasta la pérdida de sistemas de IA independientes y el agravamiento de las desigualdades existentes, lo que podría resultar en \"la extinción humana.\" 😳🌍
Los investigadores han descubierto que los generadores de imágenes de empresas como OpenAI y Microsoft han producido fotos con desinformación relacionada con el voto, ¡a pesar de las políticas contra dicho contenido! 🗳️❌
El grupo dice que las empresas de IA tienen \"obligaciones débiles\" para compartir información con los gobiernos sobre las capacidades y limitaciones de sus sistemas, y que no se puede confiar en que estas empresas compartan dicha información voluntariamente. 🤐
Han instado a las empresas de IA a facilitar un proceso para que los empleados actuales y anteriores puedan expresar preocupaciones relacionadas con riesgos y a no imponer acuerdos de confidencialidad que prohíban críticas. 🙋♀️🙋♂️
Mientras tanto, OpenAI informó que interrumpió cinco operaciones de influencia encubierta que buscaban usar sus modelos de IA para \"actividad engañosa\" en internet. 🕵️♀️💻
¡Es hora de prestar atención a estas advertencias y mantenerse informados sobre cómo la IA podría impactar nuestro futuro! 🚀
Reference(s):
OpenAI, Google DeepMind's current and former staff warn of AI risks
cgtn.com