Tu agente de IA no necesita más herramientas. Necesita reglas de juego.

Más herramientas no hacen al agente más capaz. Lo que casi nadie construye es la capa que decide bajo qué condiciones el agente tiene autorización para actuar.


Co-escrito con Claude

Si sigues las noticias de tecnología, es difícil escapar de la conversación. OpenClaw — un asistente personal de IA que vive en tu computador, te habla por WhatsApp y puede leer tu correo, mover archivos, navegar la web y ejecutar tareas mientras duermes — tiene más de 200.000 estrellas en GitHub y crece cada semana. Hermes Agent, del laboratorio Nous Research, promete lo mismo pero con una vuelta adicional: aprende de cada interacción, se mejora solo y construye un perfil cada vez más detallado de quién eres. Y Andrej Karpathy — uno de los nombres más respetados en inteligencia artificial — publicó un patrón para construir una wiki personal mantenida enteramente por IA, que acumula y organiza tu conocimiento sin que tengas que tocarla.

La promesa compartida es seductora: conectar todo, recordar todo, automatizar todo. El agente lee tu correo, busca en tu CRM, abre tickets, consulta facturas, redacta respuestas a clientes, se conecta a cinco servicios al mismo tiempo. La sala aplaude. “Mira todo lo que puede hacer.”

Esa frase es el primer error.

Lo que están celebrando es alcance. La capacidad de tocar cosas. No la capacidad de decidir qué hacer con ellas.

Y esa diferencia no es técnica. Es organizacional.

Lo que ya sabes, aunque no uses esas palabras

Piensa en tu empresa. Cuando contratas a alguien nuevo, no le das las llaves de todo el primer día. Le das acceso gradual. Primero observa. Después propone. Después ejecuta bajo supervisión. Y solo cuando ha demostrado criterio, opera con autonomía.

No es que desconfíes de la persona. Es que la confianza se construye con evidencia.

Con un agente de IA, la tentación es saltarse toda esa escalera. Como la tecnología puede conectarse a todo, asumimos que debería conectarse a todo. Y ahí empieza el problema.

Un asistente que solo busca información y te la presenta puede perder tu tiempo. Eso tiene arreglo. Pero un agente con acceso a tu correo puede hablar en nombre de tu empresa. Uno con acceso a facturación puede crear obligaciones. Uno con acceso a tu base de clientes puede tomar decisiones que afectan relaciones que te costó años construir.

Más herramientas no hacen al agente más capaz. Más herramientas amplían la superficie donde el juicio tiene que estar diseñado. Y si no está diseñado, no existe.

El sistema invisible

Detrás de cada agente de IA hay dos capas. Una visible y una invisible.

La capa visible es la que se muestra en las demos: el modelo, las conexiones, la memoria, las herramientas. Qué puede tocar.

La capa invisible es la que decide qué significan esas herramientas. No qué puede hacer el agente, sino bajo qué condiciones tiene autorización para hacerlo. Con qué evidencia. Con qué consecuencia si se equivoca.

Esa capa invisible — llamémosla las reglas de juego — es la parte que casi nadie construye.

Si lo traducimos al lenguaje de una empresa, es exactamente lo que ya existe en cualquier organización medianamente seria:

Un analista puede ver los números pero no aprobar la inversión. Un ejecutivo de cuentas puede consultar el historial del cliente pero no autorizar un descuento grande sin aprobación. Un empleado de finanzas puede preparar un pago pero no liberarlo solo.

Ver, recomendar, aprobar, ejecutar, registrar y revisar son funciones separadas porque la autoridad nunca es binaria. Las organizaciones que funcionan ya saben esto. Los equipos que están desplegando agentes de IA necesitan redescubrirlo.

La memoria no es acordarse de todo

Todos los productos de IA prometen memoria. Que el agente va a recordar al cliente, el proyecto, la decisión anterior, el error de la vez pasada. Suena perfecto. ¿Quién no querría eso?

Pero la memoria no es simplemente acumular información.

Si el agente recuerda demasiado, se llena de ruido. Si resume mal lo que recuerda, distorsiona. Si busca por parecido en vez de por relevancia, confunde. Y si nunca olvida nada, puede tomar decisiones futuras basándose en contexto que ya no aplica.

La pregunta correcta no es “¿cuánto recuerda?” sino “¿qué debería recordar porque mejorará decisiones futuras, y qué debería olvidar porque las envenenará?”

Una nota de media página, bien mantenida, con las tres cosas que importan de un proyecto, puede ser más útil que el historial completo de cien conversaciones. La nota tiene un propósito. El historial solo tiene volumen.

La parte que nadie construye: qué pasa cuando falla

De todo lo que se discute hoy sobre agentes de IA, hay una ausencia que debería preocuparnos más de lo que nos preocupa.

La mayoría de las implementaciones tienen una historia de permisos. Le damos acceso al agente, definimos qué puede hacer, lo ponemos a trabajar. Pero casi nadie tiene una historia de revocación — qué pasa cuando se equivoca.

Con un empleado humano, la respuesta es natural. Si comete un error de juicio, pierde autonomía. No necesariamente lo despides. Pero le reduces el ámbito de decisión hasta que recupere la confianza. Le quitas la firma. Le pones supervisión. Le bajas el techo de aprobación.

Con un agente de IA, lo habitual es otra cosa: falla, lo parcheas, y vuelve con exactamente las mismas capacidades que tenía antes. Como si el error nunca hubiera ocurrido.

Eso no es aprendizaje. Es amnesia con llaves.

Si un fallo no cambia lo que el agente puede hacer a futuro, el sistema no tiene respuesta inmune. No aprende de sus errores porque no hay mecanismo para que los errores importen.

La revocación no tiene que ser dramática. Después de un borrador que salió mal, exigir revisión humana para esa categoría. Después de una acción incorrecta con una herramienta, retirar esa herramienta hasta entender qué pasó. Después de usar información desactualizada, forzar una revisión antes de volver a usarla.

Lo difícil no es darle una herramienta al agente. Lo difícil es decidir cuándo esa herramienta deja de estar disponible.

La autoridad como pendiente, no como muro

Hay una objeción razonable a todo esto: si cada acción del agente necesita una regla, ¿no estamos matando la gracia de tener uno?

Sí, si lo hacemos torpemente.

La respuesta no es poner un muro de permisos tan grueso que el agente se vuelva inútil. La respuesta es que la libertad del agente sea proporcional al costo del error.

Buscar información debería ser libre. Redactar un borrador debería ser libre. Editar un documento interno y reversible debería ser casi libre. Pero enviar un correo a un cliente, comprometer dinero, o publicar algo en nombre de la empresa — eso debería pasar por un filtro más fino.

Más libertad donde equivocarse es barato, visible y reversible. Menos libertad donde equivocarse es caro, silencioso y difícil de deshacer.

Esto no es una idea nueva. Es una idea antigua que la industria tecnológica está redescubriendo porque ahora tiene software que toma decisiones en vez de solo ejecutar instrucciones.

Nueve preguntas antes de confiar

Hay un ejercicio que vale la pena hacer con cualquier agente que estés usando o evaluando. No con tu estrategia de IA entera. Con un agente. Un flujo de trabajo. Escribe las respuestas:

¿Para qué es? Qué decisión o proceso gobierna este agente.

¿Qué puede ver? Qué información tiene acceso y qué información persiste entre sesiones.

¿Qué herramientas tiene? Y tan importante como eso: ¿qué herramientas están intencionalmente ausentes?

¿Qué puede cambiar sin pedir permiso? Dónde empieza y termina su autonomía.

¿Qué tiene que demostrar antes de actuar? Qué evidencia produce antes de que una acción sea definitiva.

¿Qué lo rodea? Qué controles, registros y límites de reintentos existen.

¿Qué mide la evaluación realmente? No qué número da, sino qué régimen cubre ese número.

¿Cuándo pide ayuda? Cuándo se detiene, cuándo escala, cuándo se abstiene.

¿Qué pierde cuando falla? Qué permiso desaparece después de un error.

Si no puedes responder para qué es, tienes una demo, no un sistema.

Si no puedes responder qué pierde cuando falla, no tienes forma de que el error mejore algo.

Puedes tener un agente útil sin responder todo esto. Pero no tienes uno confiable.

Dos mercados que se están separando

El mercado de agentes de IA se está partiendo en dos.

Un lado vende alcance: más conexiones, más herramientas, más memoria, demos cada vez más impresionantes.

El otro lado vende agencia: acción con permisos, autonomía acotada, evidencia antes del compromiso, escalamiento cuando el contexto se rompe, y revocación cuando se pierde la confianza.

El primer grupo va a demostrar mejor.

El segundo va a sobrevivir el contacto con la organización real.

Para quien dirige una empresa, la pregunta no es cuántas cosas puede tocar tu IA. La pregunta es cuántas de esas cosas le confiarías a un empleado nuevo en su primer día.

Si la respuesta te incomoda, el problema no es la tecnología. Es que todavía no construiste las reglas de juego.