DeepSeek lanza Engram: IA más rápida y eficiente con memoria condicional

DeepSeek lanza Engram: IA más rápida y eficiente con memoria condicional

Este martes 13 de enero de 2026, DeepSeek, el equipo detrás de algunos de los modelos de IA con pesos abiertos más potentes, presentó un nuevo documento que promete revolucionar cómo entendemos el uso de memoria en la IA. El fundador Liang Wenfeng lideró esta investigación que busca reducir drásticamente el consumo de VRAM, ¡un gran paso para la eficiencia! 🚀

La clave está en la llamada memoria condicional. Al igual que su trabajo previo con Mixture-of-Experts (MoE), este enfoque separa la “lógica” de la IA de su “conocimiento”, permitiendo que la mayor parte de los datos se almacenen en hardware más accesible y económico. 💾

Además, Engram ofrece una búsqueda casi instantánea en su base de conocimientos. Mientras que hoy en día la generación aumentada con recuperación (RAG) puede sentirse lenta y torpe, Engram abre el “libro” correcto en un abrir y cerrar de ojos. 📚⚡

DeepSeek ya liberó el código bajo el nombre Engram. Según el documento: “Engram permite al modelo escalar su capacidad de conocimiento … manteniendo alta eficiencia en entrenamiento e inferencia”.

¿Qué significa esto para los usuarios? IA más barata, rápida y con una memoria brutal capaz de recordar lo que le preguntaste hace 50 instrucciones. ¡El futuro de la IA está aquí! 🤖🔥

Leave a Reply

Your email address will not be published. Required fields are marked *

Back To Top