Circo Studio · Ensayos del Laboratorio
Ensayo · Por qué NRI
Circo Studio Laboratorio de Ideas
Ensayo abierto Por qué NRI
Un idioma viejo para un problema nuevo

Software ejecuta.
Agentes deciden.

Cuando una IA resume un mail, nadie se pregunta quién es responsable: el texto es plausible o no lo es. Pero cuando esa misma IA escribe a un cliente, ejecuta un pago o toma una decisión que antes tomaba una persona, la pregunta deja de ser técnica. Y ahí descubrimos que no tenemos lenguaje para responderla. Este ensayo es sobre por qué delegar IA necesita un contrato — y por qué ese contrato ya existe, en otro rincón de la disciplina que conocemos hace veinte años.

Un software ejecuta; un agente decide

La diferencia entre un software tradicional y un sistema de IA no es potencia ni sofisticación. Es otra cosa. Un software ejecuta: recibe una entrada, aplica reglas, devuelve un resultado predecible. Si dos veces le damos la misma entrada, dos veces obtenemos la misma salida. Si falla, falla de la misma manera — y por eso sabemos repararlo.

Un agente de IA no hace eso. Un agente interpreta. Ante la misma entrada, puede producir dos salidas distintas. Ante una entrada ambigua, elige una lectura. Ante un vacío en el contexto, completa. Esa capacidad de completar es exactamente lo que lo hace útil — y lo que introduce un problema que el software tradicional no tenía: la pregunta de quién es responsable de la decisión que el agente tomó.

Durante décadas, desplegar software fue un acto técnico con responsabilidad clara: el humano escribía las reglas, la máquina las ejecutaba. La cadena se cerraba ahí. Un sistema de IA rompe esa cadena. El humano define el prompt, establece el scope, instala salvaguardas — pero la decisión concreta la toma el modelo. Y esa decisión puede estar bien o mal por razones que no estaban en las reglas que escribimos.

Software tradicional

"Ejecuta reglas que alguien escribió"

ComportamientoDeterminista
Misma entradaMisma salida
FallaReproducible, auditable
ResponsabilidadEl autor de la regla
Agente de IA

"Decide dentro de un contexto que interpreta"

ComportamientoProbabilístico
Misma entradaSalidas posibles
FallaContextual, variable
Responsabilidad— por definir —

Esa última celda sin completar es el problema que este ensayo quiere nombrar. No es una cuestión filosófica: es operativa. Si el agente ejecuta una acción con consecuencias, alguien tiene que poder responder por ella. Con el lenguaje y los instrumentos que tenemos hoy, ese alguien a veces no existe.

Un software que falla deja un log. Un agente que decide mal deja una consecuencia.

Lo que en infraestructura ya resolvimos

Hay un lugar en la disciplina donde el problema de la delegación se trabajó durante veinte años hasta volverse rutinario. Se llama control de acceso basado en roles — RBAC en Azure, IAM en AWS, RBAC en Kubernetes, con variantes en cada plataforma. La idea de fondo es austera: nadie tiene permisos ilimitados por defecto. Todo permiso se otorga explícitamente, con un alcance acotado, por un tiempo determinado, dejando rastro auditable de quién lo usó y cuándo.

El arquitecto que despliega producción en Azure no lo hace con su cuenta personal. Asume un rol — contributor en cierta subscription, reader en cierta otra — y cada acción queda registrada como ejecución de ese rol en ese scope. Si algo sale mal, la cadena de responsabilidad es reconstruible: qué rol hizo qué acción, dónde, bajo qué aprobación, con qué condiciones.

El NRI toma esa misma lógica y la aplica al agente de IA. No porque la IA sea infraestructura — es otra cosa — sino porque el problema de fondo es el mismo: cómo delegar capacidad sin delegar responsabilidad. RBAC lo resolvió para la nube. El NRI lo propone para el agente. No es innovación: es continuidad. Es traer al dominio de la IA un idioma que ya funciona en el dominio vecino.

Metáfora de trabajo

Un agente de IA sin contrato de autonomía explícito es como un pasante al que le dieron credenciales de administrador. Capaz. Probablemente bien intencionado. Sin historia previa, sin contexto suficiente, sin alguien designado para revisar lo que firma. Cuando una acción suya rompe algo, la pregunta que nadie quiere hacerse es también la única importante: ¿quién lo autorizó a ejecutar eso?

El problema no es la capacidad del pasante. Es la falta de contrato. En una organización sana, un pasante con talento tiene scope acotado, supervisión clara y aprobaciones para lo crítico. No por desconfianza: por diseño. El mismo talento, con contrato, es un activo; sin contrato, es un riesgo. Con el agente de IA vale exactamente la misma regla.

Cinco niveles, un lenguaje común

El NRI propone cinco niveles escalonados de autonomía. No son categorías morales ni filosóficas: son scopes operativos acordados explícitamente entre quien delega y quien recibe la delegación. Cada nivel define qué puede hacer el agente, sobre qué dominio, con qué supervisión, y con qué rastro auditable.

Niveles de Responsabilidad IA

N1
Observación y consulta El agente lee, resume, responde. No ejecuta, no modifica, no comunica hacia afuera. El humano conserva toda la agencia operativa.
N2
Asistencia supervisada El agente propone acciones; el humano las valida antes de ejecutarlas. Cada output crítico pasa por un ojo humano nombrado.
N3
Colaboración acotada El agente ejecuta dentro de un dominio específico y auditado: acciones reversibles, scope nombrado, límites duros. El humano valida el patrón, no cada acción.
N4
Autonomía delegada El agente ejecuta en su dominio sin pre-aprobación humana por acción. La supervisión es por muestreo y por alertas. Requiere contratos de auditoría más exigentes, no menos.
N5
Autonomía plena con accountability compartida El agente opera end-to-end con responsabilidad formalmente distribuida entre el sistema, su operador y la organización. Es el nivel que más infraestructura de gobernanza exige — no el que más libertad da.

La elección del nivel no es técnica: es de negocio. Depende del costo del error, de la reversibilidad de la acción, de la madurez del equipo humano que lo supervisa, de la tolerancia regulatoria del sector. Elegir N4 para una tarea que requiere N2 es imprudente. Elegir N2 para una tarea que admite N4 es desperdicio — de capacidad, de contexto, de tiempo humano. El NRI no empuja hacia arriba ni hacia abajo: empuja hacia la proporción correcta.

La autonomía se delega; jamás se presume.

El contrato no es todo

Un contrato de autonomía dice qué puede hacer el agente. No dice cómo debería hacerlo, ni cuánto cuesta que lo haga. El NRI responde la primera pregunta. Las otras dos tienen sus propios marcos en el Laboratorio, y operan en capas sobre el mismo contrato.

Simbiosis Digital describe la calidad de la colaboración dentro del contrato — cuatro pilares: complementariedad, transparencia, trazabilidad, aprendizaje mutuo. Un agente en N3 mal colaborando es peor que un agente en N1 bien integrado. El nivel no garantiza la calidad; apenas la habilita.

Huella Cognitiva mide el costo de esa colaboración. Cada interacción consume tokens, energía y cómputo, y el nivel de autonomía elegido debe ser proporcional al valor que genera. Un N4 para una pregunta que resuelve un formulario validado es una huella mal gastada. La eficiencia técnica no es virtud decorativa: es parte del contrato.

Los tres marcos articulan un único sistema operativo de delegación. NRI fija el alcance. Simbiosis fija la calidad. Huella fija el costo. El manifiesto del Laboratorio los enuncia como convicciones — breve, declarativo, sin argumentar — porque un manifiesto toma posición, no persuade.

Este ensayo describe por qué. El manifiesto NRI describe desde dónde. Uno argumenta, el otro declara — y así deben leerse: uno al lado del otro, no uno en lugar del otro.
Circo Studio Laboratorio de Ideas
Ensayo · Por qué NRI
Circo Studio