Desde centros de investigación hasta empresas tecnológicas, Chile comienza a posicionarse en el desarrollo de agentes de inteligencia artificial autónomos. Estas soluciones, capaces de tomar decisiones y ejecutar tareas de manera independiente, están transformando la forma en que las organizaciones abordan la automatización, la eficiencia operativa y la innovación en procesos críticos.
Sebastián Cifuentes, Tech Lead de CENIA, analiza el avance del desarrollo de agentes de IA en Chile, destacando su creciente autonomía, las plataformas que los habilitan y los desafíos éticos y técnicos que enfrentan las organizaciones al incorporarlos en sus procesos.
Índice de temas
¿Cómo definiría a los agentes de IA?
En términos generales, un agente de IA es un modelo de lenguaje con la capacidad para “tomar decisiones” de manera autónoma para la resolución de un problema. Se diferencian de modelos tradicionales porque apuntan a la resolución autónoma de problemas determinados.
¿Qué es la IA agéntica y por qué se la considera una evolución de los agentes clásicos?
La IA agéntica busca el desarrollo de sistemas basados en agentes autónomos para la resolución de ciertas tareas complejas. Se diferencian de los agentes clásicos en apuntar al desarrollo de sistemas donde los agentes cuenten con autonomía y coordinación para la búsqueda de soluciones, en lugar de usar un único agente con altas capacidades.
¿Cuáles son los ejemplos más relevantes de agentes de IA que hoy se están utilizando?
Hoy en día Claude Code es un ejemplo importante de agentes de desarrollo de código. Asimismo, funcionalidades de algunas plataformas de LLM, como Deep Research, ejecutan lógicas agénticas, por ejemplo, para exploración de información automatizada.
¿Qué capacidades técnicas diferencian a un agente de IA?
Principalmente, para tener un agente de IA, este debe cumplir con tres capacidades:
• Entendimiento de lenguaje natural
• Capacidades de razonamiento y entendimiento instruccional
• Uso de herramientas externas al modelo
Con esto, el modelo es capaz de adaptarse a distintos contextos y extender sus limitaciones mediante el uso de herramientas que faciliten la resolución del problema que ataca.
¿Qué avances están habilitando el desarrollo de agentes cada vez más autónomos?
Cada día vemos modelos de inteligencia artificial más avanzados, con una capacidad creciente para razonar y ejecutar tareas complejas. Al mismo tiempo, se están desarrollando modelos más compactos y eficientes, que logran rendimientos comparables a los grandes modelos actuales, lo que abre nuevas posibilidades para agentes más autónomos y especializados.
Ahora bien, en lo relacionado a frameworks, tanto la comunidad Open Source como los proveedores de Nube están disponibilizando entornos de desarrollo para facilitar la creación de agentes. Ejemplo de esto es AgentBuilder (GCP) o AI Agents (AWS). De igual forma, entornos como LangGraph facilitan la implementación de lógicas agénticas, mientras que frameworks como Llama Agents apuntan a abstraer y simplificar la creación de agentes y facilitar su implementación.
¿Cuáles son los principales riesgos que ven en la adopción de agentes de IA?
El principal riesgo es el uso no controlado de esta tecnología. Específicamente con “control” me refiero a métricas de desempeño que determinen qué tan bien, o mal, un agente está realizando una tarea determinada. Particularmente, al ceder la toma de decisiones a un modelo de lenguaje se asume un riesgo importante, el cual es confiar en el “criterio” interno del modelo.
Éticamente hablando, podemos enfrentarnos a situaciones donde instituciones o personas no tomen responsabilidad por sus acciones y en su lugar lo externalicen al sistema. Vale decir, una ejecución incorrecta o una decisión mal tomada podría afectar gravemente a alguien y quedar en el espacio de responsabilidad nula, debido a que fue un modelo de lenguaje quien tomó la decisión. En ese sentido, es necesario establecer que las responsabilidades de una implementación tecnológica siempre deben recaer en las personas o instituciones encargadas de su ejecución.
¿Dónde ven el mayor impacto potencial de los agentes de IA en los próximos años?
Hoy estamos viendo una alta demanda transversal en la automatización de procesos relativos a la gestión documental. Lectura, extracción de información, generación de resúmenes o validación automática son procesos que están siendo foco de implementaciones basadas en agentes, pues pueden reducirse a tareas puntuales y acotadas, donde un agente de lenguaje puede actuar con las capacidades que hoy tiene.
¿Qué deberían hacer las compañías que quieren prepararse para esta nueva generación de IA?
Capacitarse es la recomendación principal. No es necesario que todas las personas entiendan por completo el funcionamiento de estas tecnologías, pero sí es necesario que comprendan sus capacidades, riesgos y limitaciones.
En el contexto chileno, avanzar en la formación en inteligencia artificial, la implementación responsable de agentes y el fortalecimiento del ecosistema tecnológico nacional será clave para impulsar el desarrollo de agentes de IA en Chile.