Un software ejecuta; un agente decide
La diferencia entre un software tradicional y un sistema de IA no es potencia ni sofisticación. Es otra cosa. Un software ejecuta: recibe una entrada, aplica reglas, devuelve un resultado predecible. Si dos veces le damos la misma entrada, dos veces obtenemos la misma salida. Si falla, falla de la misma manera — y por eso sabemos repararlo.
Un agente de IA no hace eso. Un agente interpreta. Ante la misma entrada, puede producir dos salidas distintas. Ante una entrada ambigua, elige una lectura. Ante un vacío en el contexto, completa. Esa capacidad de completar es exactamente lo que lo hace útil — y lo que introduce un problema que el software tradicional no tenía: la pregunta de quién es responsable de la decisión que el agente tomó.
Durante décadas, desplegar software fue un acto técnico con responsabilidad clara: el humano escribía las reglas, la máquina las ejecutaba. La cadena se cerraba ahí. Un sistema de IA rompe esa cadena. El humano define el prompt, establece el scope, instala salvaguardas — pero la decisión concreta la toma el modelo. Y esa decisión puede estar bien o mal por razones que no estaban en las reglas que escribimos.
"Ejecuta reglas que alguien escribió"
"Decide dentro de un contexto que interpreta"
Esa última celda sin completar es el problema que este ensayo quiere nombrar. No es una cuestión filosófica: es operativa. Si el agente ejecuta una acción con consecuencias, alguien tiene que poder responder por ella. Con el lenguaje y los instrumentos que tenemos hoy, ese alguien a veces no existe.
Lo que en infraestructura ya resolvimos
Hay un lugar en la disciplina donde el problema de la delegación se trabajó durante veinte años hasta volverse rutinario. Se llama control de acceso basado en roles — RBAC en Azure, IAM en AWS, RBAC en Kubernetes, con variantes en cada plataforma. La idea de fondo es austera: nadie tiene permisos ilimitados por defecto. Todo permiso se otorga explícitamente, con un alcance acotado, por un tiempo determinado, dejando rastro auditable de quién lo usó y cuándo.
El arquitecto que despliega producción en Azure no lo hace con su cuenta personal. Asume un rol — contributor en cierta subscription, reader en cierta otra — y cada acción queda registrada como ejecución de ese rol en ese scope. Si algo sale mal, la cadena de responsabilidad es reconstruible: qué rol hizo qué acción, dónde, bajo qué aprobación, con qué condiciones.
El NRI toma esa misma lógica y la aplica al agente de IA. No porque la IA sea infraestructura — es otra cosa — sino porque el problema de fondo es el mismo: cómo delegar capacidad sin delegar responsabilidad. RBAC lo resolvió para la nube. El NRI lo propone para el agente. No es innovación: es continuidad. Es traer al dominio de la IA un idioma que ya funciona en el dominio vecino.
El problema no es la capacidad del pasante. Es la falta de contrato. En una organización sana, un pasante con talento tiene scope acotado, supervisión clara y aprobaciones para lo crítico. No por desconfianza: por diseño. El mismo talento, con contrato, es un activo; sin contrato, es un riesgo. Con el agente de IA vale exactamente la misma regla.
Cinco niveles, un lenguaje común
El NRI propone cinco niveles escalonados de autonomía. No son categorías morales ni filosóficas: son scopes operativos acordados explícitamente entre quien delega y quien recibe la delegación. Cada nivel define qué puede hacer el agente, sobre qué dominio, con qué supervisión, y con qué rastro auditable.
Niveles de Responsabilidad IA
La elección del nivel no es técnica: es de negocio. Depende del costo del error, de la reversibilidad de la acción, de la madurez del equipo humano que lo supervisa, de la tolerancia regulatoria del sector. Elegir N4 para una tarea que requiere N2 es imprudente. Elegir N2 para una tarea que admite N4 es desperdicio — de capacidad, de contexto, de tiempo humano. El NRI no empuja hacia arriba ni hacia abajo: empuja hacia la proporción correcta.
El contrato no es todo
Un contrato de autonomía dice qué puede hacer el agente. No dice cómo debería hacerlo, ni cuánto cuesta que lo haga. El NRI responde la primera pregunta. Las otras dos tienen sus propios marcos en el Laboratorio, y operan en capas sobre el mismo contrato.
Simbiosis Digital describe la calidad de la colaboración dentro del contrato — cuatro pilares: complementariedad, transparencia, trazabilidad, aprendizaje mutuo. Un agente en N3 mal colaborando es peor que un agente en N1 bien integrado. El nivel no garantiza la calidad; apenas la habilita.
Huella Cognitiva mide el costo de esa colaboración. Cada interacción consume tokens, energía y cómputo, y el nivel de autonomía elegido debe ser proporcional al valor que genera. Un N4 para una pregunta que resuelve un formulario validado es una huella mal gastada. La eficiencia técnica no es virtud decorativa: es parte del contrato.
Los tres marcos articulan un único sistema operativo de delegación. NRI fija el alcance. Simbiosis fija la calidad. Huella fija el costo. El manifiesto del Laboratorio los enuncia como convicciones — breve, declarativo, sin argumentar — porque un manifiesto toma posición, no persuade.