Tag
#llm
2 posts
- LLM context windows: por qué tu feature de IA es más lento de lo que necesita ser5 ago 2025
El tamaño del contexto afecta directamente latencia y costo. Cómo medir qué estás enviando realmente, cuándo chunking vs summarization vs retrieval, y por qué streaming cambia el UX aunque el tiempo total sea el mismo.
- DeepSeek R1 y lo que el momento open-source en LLMs realmente significa4 mar 2025
DeepSeek R1 llegó el 20 de enero de 2025 y rompió el supuesto de que los modelos de razonamiento frontier requieren clusters de $100M. Qué cambió, qué no, y qué significa para developers.