Circo Studio · Ensayos del Laboratorio
Manifiesto NRI · v1.1
Circo Studio Laboratorio de Ideas
Manifiesto abierto · v1.1 Niveles de Responsabilidad IA
Un manifiesto del Laboratorio

Niveles de Responsabilidad IA

Un marco de gobernanza para la colaboración entre humanos e inteligencia artificial. Cinco niveles. Tres pilares. Una convicción — la autonomía se delega, jamás se presume.

Preámbulo

Estamos descubriendo formas mejores de trabajar con inteligencia artificial, haciéndolo y ayudando a otros a hacerlo.

A través de este trabajo, hemos llegado a valorar ciertas cosas sobre otras. Lo que sigue no es una metodología ni una norma — es una declaración de principios, pensada para quienes diseñan, implementan, auditan o gobiernan sistemas de inteligencia artificial dentro de organizaciones reales.

Este documento articula tres frameworks complementarios desarrollados en el Laboratorio de Ideas de Circo Studio, a partir del trabajo en arquitectura cloud, gobernanza empresarial y transformación digital en el sector energético de América Latina.

Nota sobre la forma

Este documento toma la estructura del Manifesto for Agile Software Development (2001) — preámbulo, valores en pares "X sobre Y", principios. La elección es deliberada y requiere tres asteriscos honestos antes de leer lo que sigue.

I Diferencia de estatuto
El Manifiesto Ágil fue descriptivo: sus diecisiete firmantes articularon lo que ya hacían, con años de práctica consolidada detrás. Este documento nace también de la práctica — ya gobernamos implementaciones de IA con esta lógica — pero sin la escala ni la consolidación de aquel precedente. Su pretensión es más modesta: ser un mapa, no una guía perfecta. Declara rutas que reconocemos, no recorridos cerrados.
II Diferencia de escala
Ágil se ocupó de equipos haciendo trabajo. Este documento se ocupa de organizaciones gobernando sistemas. La forma aguanta el préstamo, pero los niveles de preocupación no son simétricos — lo que en Ágil es una práctica de ingeniería, en NRI es una decisión de gobernanza con consecuencias regulatorias, contractuales y reputacionales.
III Ambigüedad de época
Para una parte de la audiencia, Agile hoy evoca tanto el espíritu original como su burocratización posterior — frameworks industrializados, certificaciones, agile theater. Asumimos esa carga a sabiendas. La alternativa — inventar una forma nueva para no contaminarse — sería peor: el lector reconocería el préstamo igual, sin que lo hayamos declarado.

Valoramos

Valoramos —
Responsabilidad trazable sobre autonomía asumida
Simbiosis humano–IA sobre automatización pura
Eficiencia cognitiva proporcional al valor sobre capacidad técnica máxima
Adopción gradual y verificable sobre despliegue rápido y ambicioso
Esto es — aunque lo segundo tiene valor, nosotros valoramos más lo primero.
Nota — los contra-valores no son caricaturas. Automatización pura, capacidad técnica máxima y despliegue rápido y ambicioso tienen valor en ciertos contextos; nosotros elegimos lo primero para gobernanza empresarial con stakes reales.
La autonomía se delega; jamás se presume.

Los diez principios

Detrás de estos valores hay diez principios que los traducen en decisiones operativas. No son mandamientos — son convicciones que usamos para discutir proyectos reales con clientes reales.

01
La responsabilidad nunca se delega de golpe. Se gradúa según madurez, criticidad y confianza verificada.
02
Toda acción de una IA en un sistema productivo debe ser atribuible, auditable y reversible en proporción a su nivel.
03
El humano que delega sigue siendo responsable. La IA no es un escudo legal ni ético.
04
Antes de preguntar qué puede hacer la IA, preguntamos qué debe hacer y bajo qué controles.
05
El nivel de autonomía se determina por el proceso, no por la tecnología. El mismo modelo puede operar en N1 para un flujo y N4 para otro.
06
Subir de nivel requiere evidencia — telemetría, trazabilidad, mecanismos de rollback y revisión ética documentada.
07
La colaboración humano-IA es simbiótica cuando cada parte aporta lo que la otra no puede, no cuando una reemplaza a la otra.
08
El contexto de negocio precede a la arquitectura técnica. No se diseña gobernanza en abstracto.
09
Cada interacción con IA consume tokens, energía y cómputo. El consumo debe ser proporcional al valor generado, no al deseo de exhibir capacidad.
10
La IA sin gobernanza no es innovación — es deuda técnica y reputacional diferida.
Circo Studio · Ensayos del Laboratorio
Manifiesto NRI · Apéndices
Circo Studio Laboratorio de Ideas
Manifiesto NRI · Hoja 2 Apéndices operativos

Cómo se usa.

Lo que sigue traduce las convicciones del manifiesto en instrumentos operativos — los cinco niveles, los tres frameworks que los articulan, y los términos con los que los equipos los discuten.

Cinco niveles, un lenguaje común

El NRI estructura la relación humano-IA en cinco niveles escalonados, análogos al modelo Azure RBAC. Lo que RBAC hace con permisos sobre recursos, NRI lo hace con decisiones y acciones cognitivas — define qué puede hacer la IA, en qué scope, con qué auditoría.

Niveles de Responsabilidad IA

N1
Observación · consulta Humano decide y ejecuta. La IA solo sugiere.
Exploración, adopción temprana, prompts puntuales.
N2
Asistencia supervisada Revisión humana de cada output antes de acción.
Drafts, análisis inicial, copy, código asistido.
N3
Colaboración acotada Ejecución dentro de guardrails. Auditoría por muestreo.
Agentes con políticas, Claude Code en repos acotados.
N4
Autonomía delegada Intervención humana solo ante excepciones.
Procesos end-to-end con telemetría y rollback.
N5
Autonomía plena Accountability compartida. Controles sistémicos continuos.
Procesos críticos con gobernanza multi-capa.

Criterios para escalar de nivel

  1. Historial operativo documentado en el nivel actual.
  2. Telemetría disponible y revisada.
  3. Mecanismo de rollback probado.
  4. Revisión ética y de compliance.
  5. Aprobación formal del propietario del proceso.

Los tres frameworks

El manifiesto articula tres marcos complementarios. Cada uno responde una pregunta distinta. Ninguno es suficiente en aislado.

Framework I
NRI · Niveles de Responsabilidad IA

Estructura la relación humano-IA en cinco niveles escalonados, análogos al modelo Azure RBAC. Lo que RBAC hace con permisos sobre recursos, NRI lo hace con decisiones y acciones cognitivas. Responde la pregunta del alcance: qué puede hacer la IA, en qué scope, con qué auditoría.

Framework II
Simbiosis Digital

Marco filosófico-operativo de la colaboración humano-IA, estructurado en cuatro pilares. Responde la pregunta de la calidad: cómo debería operar esa colaboración dentro del contrato de autonomía.

  • Complementariedad — cada parte aporta lo distintivo.
  • Transparencia — el humano sabe qué hace la IA y por qué.
  • Trazabilidad — toda decisión asistida queda reconstruible.
  • Aprendizaje mutuo — la interacción mejora los outputs y los procesos humanos.

Evita los dos modos caricaturescos de la adopción — el reemplazo acrítico, donde se automatiza sin entender lo que se delega, y el uso decorativo, donde la IA aparece en presentaciones pero no en el flujo de trabajo real.

Framework III
Huella Cognitiva

Principio de eficiencia y responsabilidad ambiental. Cada interacción con un modelo de lenguaje consume tokens, energía y cómputo. Esos recursos tienen costo económico, ecológico y cognitivo. La huella cognitiva se mide y se optimiza como cualquier otro recurso de infraestructura.

Responde la pregunta del costo: el nivel NRI elegido debe ser proporcional al valor generado. Un proceso que admite N2 no se ejecuta en N4 solo porque el modelo lo permite.

Los tres frameworks operan en capas. NRI define el contrato de autonomía. Simbiosis Digital define la calidad de la colaboración dentro de ese contrato. Huella Cognitiva define el costo admisible de esa colaboración. Los tres, juntos, conforman una gobernanza completa.

Uso operativo

En la práctica con clientes, el NRI funciona como lenguaje común entre áreas de negocio, IT y compliance. Permite discutir qué procesos son candidatos a qué nivel, qué controles se requieren para escalar, y qué evidencia se necesita producir.

No es un modelo de madurez organizacional — una misma organización puede operar N1 en procesos críticos y N4 en procesos acotados, simultáneamente. El nivel es del proceso, no de la empresa.

Tampoco es un marco normativo externo. Se integra con estándares existentes — ISO/IEC 42001, NIST AI RMF, EU AI Act — aportando el lenguaje operativo que esos marcos dejan a interpretación de cada organización.

Términos

Accountability
Responsabilidad trazable por una acción o decisión. En el NRI, la accountability nunca es de la IA — siempre recae en un humano o una estructura organizacional identificable.
Guardrail
Restricción técnica o política que limita el rango de acciones posibles de un sistema de IA dentro de un scope definido. Prerequisito de los niveles N3 en adelante.
Huella cognitiva
Costo total — en tokens, energía, latencia y atención humana — asociado a una interacción con IA. Métrica central del tercer pilar del framework.
NRI
Niveles de Responsabilidad IA. Modelo de cinco niveles que gradúa la autonomía delegada a sistemas de IA según criticidad, madurez y evidencia operativa.
Rollback
Mecanismo documentado y probado para revertir una acción ejecutada por una IA. Requisito duro para niveles N3 a N5.
Scope
Dominio delimitado — temporal, funcional o de datos — dentro del cual un sistema de IA opera en un nivel determinado. Fuera del scope, el nivel no aplica.
Simbiosis digital
Modo de colaboración humano-IA basado en complementariedad, transparencia, trazabilidad y aprendizaje mutuo. Segundo pilar del framework.
Telemetría
Registro continuo de inputs, outputs, latencias, errores y decisiones de un sistema de IA en operación. Condición habilitante para los niveles N3 en adelante.
Trazabilidad
Propiedad de una acción o decisión que permite reconstruir, post-hoc, qué agente la ejecutó, con qué input, bajo qué política y con qué resultado.

Marcos y fuentes relacionadas

  1. Beck, K. et al. Manifesto for Agile Software Development. agilemanifesto.org, 2001. Inspiración estructural de este documento — ver Nota sobre la forma.
  2. ISO/IEC 42001:2023 — Information technology — Artificial intelligence — Management system. Estándar internacional de gestión de sistemas de IA.
  3. NIST AI Risk Management Framework (AI RMF 1.0). National Institute of Standards and Technology, 2023.
  4. Regulation (EU) 2024/1689 — Artificial Intelligence Act. Reglamento europeo sobre IA, clasificación basada en riesgo.
  5. Microsoft Azure — Role-Based Access Control (RBAC). Modelo de referencia para la estructura escalonada del NRI.
  6. Anthropic — Responsible Scaling Policy. Marco de referencia sobre escalamiento gradual y evaluación de capacidades.
  7. Circo Studio, Laboratorio de Ideas — Serie académica: Simbiosis Digital, Programación 3.0, Organizaciones 3.0. Documentos internos, 2025.
La autonomía se delega; jamás se presume. Este documento existe para que esa delegación sea — cada vez — una decisión discutible, reversible y con nombre propio.
Circo Studio Laboratorio de Ideas Buenos Aires · Argentina · MMXXVI circostudio.io
Documento abierto a revisión.
Manifiesto NRI · v1.1
Hoja 2 / 2
Circo Studio