Appearance
Posts sobre
Inteligencia Artificial

Un archivo llms.txt es el equivalente de robots.txt pero para modelos de lenguaje. Te explicamos qué es, cómo implementarlo y por qué deberías tenerlo en tu sitio web hoy mismo.

Anthropic publica la guía definitiva para crear Skills, carpetas de instrucciones que enseñan a Claude a ejecutar flujos de trabajo específicos. Desde la estructura técnica hasta la distribución, cubrimos todo lo que necesitas saber.

Don Knuth, leyenda viva de la informática, reconoce que Claude Opus 4.6 de Anthropic resolvió un problema abierto sobre descomposición de ciclos dirigidos en digrafos que él llevaba semanas investigando.

Qwen3.5-9B es un modelo causal de 9 mil millones de parámetros con visión integrada, arquitectura híbrida Gated Delta Networks + MoE disperso y una ventana de contexto nativa de 262K tokens ampliable a más de un millón.

Un desarrollador construyó OpenLoop, una plataforma SaaS completa de recopilación de feedback, usando exclusivamente agentes de IA autónomos. Cero líneas de código humano, 15 dólares en tokens y 5 días de emails con una IA que trabajaba 24/7.

La mayoría de los equipos se obsesionan con modelos, prompts y orquestación, pero ignoran el verdadero desafío de la IA agentiva: una arquitectura de memoria por capas que garantice continuidad, trazabilidad y gobernanza empresarial.

Los agentes de IA autónomos representan un cambio de paradigma: ya no son herramientas pasivas, sino una fuerza de trabajo digital capaz de gestionar flujos completos, operar sin supervisión humana y transformar industrias enteras. Exploramos los principales casos de uso, la arquitectura detrás de estos sistemas y sus implicaciones.

Guía visual y estructurada sobre los fundamentos matemáticos detrás de los modelos de lenguaje: tokenización, embeddings, perceptrones, backpropagation, atención y la arquitectura Transformer.

Un nuevo método llamado Attention Matching comprime la caché KV de los LLMs hasta un 90-95%, 50 veces más rápido que el estado del arte anterior, haciendo viable el uso de contextos largos en producción sin pérdida significativa de calidad.

Los Modelos Recursivos de Lenguaje (RLM) de MIT proponen un cambio de paradigma radical: en lugar de forzar millones de tokens dentro de una ventana fija, descargan el contexto a un entorno programable externo, logrando razonamiento ilimitado sin disparar los costes de cómputo.