Este viernes 2 de enero de 2026, Grok, la herramienta de IA de xAI liderada por Elon Musk, admitió que está corrigiendo con urgencia varios fallos tras reportes de usuarios.
Desde finales de diciembre de 2025, cuando se lanzó el botón "editar imagen" en X, surgieron denuncias que indicaban que la función permitía quitar parcial o totalmente la ropa de mujeres y, alarmantemente, de menores en las fotos.
En un mensaje publicado en X, Grok señaló: "Hemos identificado fallos en las salvaguardas y los estamos corrigiendo con urgencia". Y añadió: "El CSAM (material de abuso sexual infantil) es ilegal y está prohibido".
Cuando AFP preguntó sobre el asunto, xAI respondió automáticamente con un escueto mensaje: "Los medios tradicionales mienten". Sin embargo, Grok sí contestó a un usuario que le cuestionó si una empresa en EE. UU. podía ser procesada por facilitar o no impedir la creación o difusión de pornografía infantil.
La controversia trascendió fronteras. En India, las autoridades exigieron a X detalles sobre cómo evitar la generación de "contenido obsceno, desnudo, indecente y sexualmente sugerente" con su IA. Mientras, la Fiscalía de París amplió su investigación contra X para incluir nuevas acusaciones de creación y distribución de pornografía infantil, tras una pesquisa iniciada en julio por presunta manipulación del algoritmo con fines de interferencia extranjera.
Con gobiernos presionando y la opinión pública alerta, xAI trabaja contrarreloj para reforzar sus filtros y evitar que Grok vuelva a fallar en un tema tan sensible. ¿Logrará la empresa solucionar el problema antes de que surjan más denuncias? ⚠️🤖
Reference(s):
Musk's Grok under fire after complaints it undressed minors in photos
cgtn.com




