Imagina hablar con un amigo y de repente empieza a inventar cosas que nunca dijiste. ¡Eso es lo que está pasando con la herramienta de transcripción de OpenAI, Whisper!
¿Qué está pasando?
Whisper, promocionada por OpenAI como \"de robustez y precisión casi a nivel humano,\" se supone que transcribe audio a texto. Pero los expertos están descubriendo que tiende a \"alucinaciones\": inventar fragmentos de texto o incluso oraciones completas que nunca se dijeron.
¿Por qué importa?
Estas transcripciones inventadas no son solo errores aleatorios. Pueden incluir cosas graves como comentarios racistas, lenguaje violento o incluso consejos médicos falsos. Y Whisper se está usando en todas partes: desde generar subtítulos para videos hasta transcribir entrevistas importantes.
¿En centros médicos también?
Sí. Algunos hospitales están utilizando herramientas basadas en Whisper para transcribir consultas entre pacientes y médicos, a pesar de que OpenAI advierte que no se use en \"dominios de alto riesgo.\" ¡Imagina recibir una transcripción médica que sugiere tratamientos que nunca discutiste!
¿Qué tan grande es el problema?
Es enorme. Los investigadores encontraron alucinaciones en 8 de cada 10 transcripciones que revisaron. Otro ingeniero encontró problemas en casi cada una de las 26,000 transcripciones que creó. Incluso en clips de audio claros y cortos, los problemas persisten.
¿Qué significa esto para nosotros?
A medida que la IA se integra más en nuestra vida diaria, es importante mantenerse informado y ser crítico con la tecnología que usamos. Recuerda, no todo lo que genera una IA es preciso. ¡Mantente curioso y sigue cuestionando!
Reference(s):
AI-powered transcription tool invents things no one ever said
cgtn.com