Los sistemas de IA agencial extienden los grandes modelos de lenguaje más allá de la generación de texto de un solo turno hacia el uso de herramientas, ejecución de tareas, planificación, retroalimentación ambiental e interacción iterativa con sistemas externos. A medida que estos sistemas se orientan más a la acción, surge un problema central de control: los agentes deben decidir no solo qué pueden hacer, sino qué tipo de operación es apropiada para un estado dado de la tarea. Las arquitecturas de agentes actuales a menudo dependen de bucles procedurales, heurísticas de selección de herramientas o indicaciones específicas para tareas, pero no siempre proporcionan una estructura explícita para determinar cuándo un agente debería buscar, recuperar memoria, razonar, ejecutar, pedir aclaraciones, revisar su plan, detenerse o redirigir su comportamiento. Este artículo propone el marco Ontology–Process–Trajectory como una capa de control cognitivo para IA agencial. OPT conceptualiza la cognición como propagación de señales basada en rutas entre fuentes generativas y sumideros de estabilización. En el contexto de agentes de IA, este marco no se usa para afirmar conciencia de máquina ni para describir los mecanismos neuronales internos de los modelos de lenguaje. Más bien, se propone como una capa externa de orquestación que puede clasificar estados de tarea, limitar el uso de herramientas, guiar el razonamiento y modos de acción, definir condiciones de parada y generar trazas interpretables del comportamiento del agente. Desde esta perspectiva, el comportamiento del agente no se trata como una secuencia plana de llamadas a herramientas, sino como un proceso de estabilización basado en rutas. Diferentes estados de tarea pueden requerir rutas distintas: responder a retroalimentación externa actual, reconstruir contexto previo, inferir una estructura subyacente, generar soluciones posibles, adaptar la comunicación a una audiencia o comprobar la alineación con la meta original del usuario. Estas rutas pueden guiar cuándo un agente debe actuar, cuándo debe retrasar la acción, cuándo debe cambiar de modo y cuándo la tarea ha sido suficientemente estabilizada. El artículo desarrolla una arquitectura conceptual para agentes guiados por OPT, incluyendo clasificación de rutas, mapeo de políticas de ruta a herramientas, ajuste de rutas basado en retroalimentación, condiciones específicas de parada por ruta, registro de rutas y posibles extensiones para orquestación multi-agente. El marco se presenta como un diseño teórico más que un sistema implementado. Su objetivo es explorar si la IA agencial puede volverse más transparente, acotada y estructuralmente interpretable al hacer explícito su proceso de decisión externo.
Building similarity graph...
Analyzing shared references across papers
Loading...
Eve Liu
Building similarity graph...
Analyzing shared references across papers
Loading...
Eve Liu (vie,) estudió esta cuestión.
www.synapsesocial.com/papers/69f6e67c8071d4f1bdfc729b — DOI: https://doi.org/10.5281/zenodo.19954668
Synapse has enriched 5 closely related papers on similar clinical questions. Consider them for comparative context: