Agentic AI, un enfoque de inteligencia artificial que busca desarrollar sistemas capaces de operar como agentes autónomos, con la habilidad de interactuar con su entorno, tomar decisiones de forma independiente

MEXICALI.- Desde leer los correos, hasta recomendar los artículos más novedoso, los asistentes virtuales no son simples chatbot; pertenece a una nueva generación de sistemas a la que la comunidad académica llama IA agéntica o Agentic AI, un enfoque de inteligencia artificial (IA) que busca desarrollar sistemas capaces de operar como agentes autónomos, con la habilidad de interactuar con su entorno, tomar decisiones de forma independiente, aprender a partir de la experiencia y alcanzar metas específicas con poca o nula intervención humana.

De herramienta reactiva a aliado proactivo

Durante años, la inteligencia artificial fue concebida como una herramienta de consulta, similar a un motor de búsqueda sofisticado, señala el Mtro. Sergio Ernesto Hernández Moreno, docente de la Escuela de Administración y Negocios de CETYS Universidad Campus Mexicali. Se le proporcionaba un prompt y se obtenía una respuesta puntual. La IA agéntica, sin embargo, transforma este enfoque al comportarse más como un colaborador que como un software convencional. La diferencia radica en tres elementos esenciales: objetivos, memoria y acción. Un agente no solo responde; planifica, recuerda lo ocurrido y —lo más inquietante— decide por sí mismo cuál será el siguiente paso.

El experto CETYS dio como ejemplo el de una profesora de Historia Económica. Cada semestre enfrentaba la misma  maratón de corrección de ensayos: subrayar ideas vagas, anotar fuentes faltantes, devolver  borradores… Ahora utiliza un agente que lee los textos, aplica rúbricas personalizadas y  genera retroalimentación detallada. Pero lo valioso no es la corrección automática; es que  el sistema aprende el estilo de la maestra.. Al cuarto ensayo ya anticipa sus comentarios favoritos  (“cita la fuente primaria”, “explica el contexto en México”) y la maestra dedica su energía a  conversar sobre el argumento, no a cazar errores o faltas de ortografía.

¿De qué está hecho un agente?

Si pudiéramos abrir la “caja negra”, veríamos un modelo de lenguaje poderoso —el mismo  que alimenta chat-bots—, que contiene tres órganos vitales:

Un planificador que divide una meta (por ejemplo, programar una conferencia) en  subtareas lógicas. Un sistema de memoria que recuerda desde las preferencias de cada  alumno hasta los correos que enviaste hace unas semanas. Un set de herramientas con  acceso a APIs, navegadores, bases de datos e incluso robots físicos.

“Ese trío convierte a la IA en agente: percibe, reflexiona y actúa, creando un ciclo continuo de  mejora. Si la analogía sirve, hemos pasado de tener un chatGPT a contratar un ayudante  académico que lee, experimenta y ajusta el método sobre la marcha”, explicó el Mtro. Hernández Moreno.

¿Todo es tan perfecto?

No. Los agentes todavía pierden el hilo en conversaciones largas; el experto CETYS menciona que la memoria a largo plazo  está en sus inicios y basta un cambio en la API de un proveedor para que el sistema tropiece.  Además, un ligero matiz en el “prompt” puede desviar el resultado como una brújula  descompuesta.

Y surge la pregunta incómoda: ¿puede un agente equivocarse de forma peligrosa? La  respuesta es sí. Un algoritmo que reprograma citas médicas podría priorizar mal si no  entiende la urgencia médica. Por eso, los expertos insisten en mantener un humano en el  ciclo en escenarios de alto riesgo, registrar cada decisión para auditarla y proteger los datos  con el mismo cuidado que se protege un laboratorio biológico.

Un futuro que se escribe hoy

Los gigantes tecnológicos ya experimentan con ecosistemas de agentes que colaboran entre sí. A medida que estas piezas comiencen a integrarse plenamente, será posible contar con agentes capaces de acompañar proyectos de principio a fin.

El Mtro. Hernández Moreno, señala que ante este panorama, la cuestión no es únicamente si se está listo, sino cómo las personas pueden estar preparadas. Iniciar con proyectos piloto, documentar tanto los aciertos como los errores, abrir el debate ético en el aula y, sobre todo, fomentar una actitud de curiosidad constante, serán pasos clave.