En un estudio revolucionario, equipos de investigación chinos del Instituto de Automatización y el Instituto de Neurociencias de la Academia de Ciencias de China han revelado que los modelos avanzados de lenguaje grande multimodal (LLMs) pueden desarrollar espontáneamente representaciones de conceptos de objetos similares a la cognición humana. Publicado en Nature Machine Intelligence el 9 de junio, este estudio muestra cómo la IA puede entender los objetos no solo por características físicas, sino también a través de conceptos abstractos como función, emoción y significado cultural.
Du Changde, el primer autor, explicó que estas representaciones multidimensionales están en el núcleo de la comprensión humana. Los investigadores recopilaron 4.7 millones de juicios tripartitos mapeando 1,854 objetos naturales en un espacio de 66 dimensiones, descubriendo que, mientras los humanos combinan pistas visuales y semánticas, los modelos se apoyaron intensamente en etiquetas semánticas para llegar a resultados cognitivos similares.
El autor correspondiente, He Huiguang, destacó que este trabajo marca un salto de un simple reconocimiento de máquinas a una auténtica comprensión por parte de las máquinas 🤖. Este avance abre el camino para futuros sistemas de IA diseñados para interactuar de maneras más parecidas a los humanos en diversos campos, desde la innovación empresarial hasta la cultura digital.
A medida que la IA continúa evolucionando, estos descubrimientos inspiran una exploración más profunda sobre cómo las máquinas pueden reflejar los procesos de pensamiento humano. ¡Mantente atento para más actualizaciones emocionantes sobre el mundo siempre cambiante de la inteligencia artificial! 🚀
Reference(s):
Chinese Scientists Reveal AI’s Capacity for Human-Like Object Cognition
globaltimes.cn