You are opening our Spanish language website. You can keep reading or switch to other languages.

Plataforma de IA agentiva para una gran empresa en solo 5 meses: habilitando la adopción segura de IA a escala

Descripción general

Un grupo financiero global con sede en el Reino Unido, que atiende a millones de personas en banca, seguros y open finance, se enfrentaba a un desafío empresarial común. La exploración de IA estaba en todas partes, pero carecía de una propiedad clara, un ROI medible y una ruta para escalar:

  • Los científicos de datos trabajaban en entornos fragmentados para desarrollar y probar.
  • Los ingenieros ponían en marcha herramientas de IA aisladas, sin estándares compartidos.
  • Las unidades de negocio no contaban con un canal seguro para la experimentación a gran escala.
  • La dirección veía cómo aumentaban los costos de tokens sin un ROI claro.

El resultado fue un conjunto fragmentado de iniciativas, costos en aumento y un riesgo creciente.

El desafío

Una auditoría interna de desempeño realizada por el equipo del cliente reveló un desafío estratégico: un uso extendido pero no gobernado de herramientas de IA. Los equipos duplicaban esfuerzos y los despliegues de modelos carecían de gobernanza.

La auditoría confirmó lo que algunos líderes ya sospechaban: la IA estaba madurando más rápido que la infraestructura y las políticas diseñadas para respaldarla. Los ejecutivos reconocieron la urgencia: sin intervención, la organización corría el riesgo de sobrepasar los costos previstos y frenar la innovación.

La solución

Para garantizar una entrega de IA coherente y bien gobernada en todos los equipos, el cliente necesitaba un modelo seguro y estandarizado para uso tanto de negocio como de desarrollo. Recurrieron a DataArt para crear una plataforma interna de IA que reuniera estas iniciativas en un único ecosistema seguro.

Esta plataforma dio soporte a 73.000 usuarios, proporcionando acceso controlado a capacidades de IA. Los usuarios de negocio podían consultar documentos, extraer insights y automatizar la recuperación de información mediante una interfaz sencilla. Los equipos de desarrollo obtuvieron un entorno gobernado para experimentar de forma segura con LLMs, probar casos de uso y crear prototipos sin duplicar infraestructura. Una capa personalizada de optimización de memoria redujo los costos de tokens al evitar el procesamiento redundante, y toda la plataforma se implementó dentro de la infraestructura del cliente, eliminando la exposición externa.

Con capacidad de auditoría integrada, integración con OLAP y preparación para sistemas empresariales, el cliente ahora cuenta con una base escalable y segura para impulsar la innovación en IA en todas las funciones, sin sacrificar visibilidad, gobernanza ni control de costos.

Beneficios clave para el negocio

  • Optimización de costos: la gestión personalizada de memoria redujo drásticamente el consumo innecesario de tokens de LLM, disminuyendo los costos operativos mientras mantenía el rendimiento.
  • Toma de decisiones más rápida: los usuarios no técnicos ahora pueden cargar documentos de forma segura, hacer preguntas y extraer insights, reduciendo horas de trabajo manual a minutos.
  • Seguridad de nivel empresarial: la plataforma opera completamente dentro de la infraestructura del cliente, garantizando una alineación total con las políticas de seguridad y los requisitos regulatorios.
  • Gobernanza unificada de IA: todas las interacciones son trazables, auditables y se gobiernan mediante controles centralizados, cubriendo las necesidades de cumplimiento, riesgo y supervisión de TI.
  • Adopción rápida con baja fricción: la interfaz intuitiva y el backend integrado permitieron un uso transversal acelerado, con más de 3.500 usuarios activos diarios a las pocas semanas del lanzamiento.
  • Infraestructura preparada para el futuro: el sistema se integra con repositorios de conocimiento empresariales (por ejemplo, Confluence) e incluye una capa interna de enrutamiento para la orquestación flexible de modelos.

Aspectos técnicos de la solución

Arquitectura

Backend: Python + FastAPI
Frontend: React.js

Bases de datos

Postgres y VectorDB para el historial de chat y el almacenamiento de documentos.

Gestión de memoria

Sistema personalizado de “shadow history” para optimizar los prompts de LLM y reducir los costos de tokens.

Seguridad

Integración con OLAP, controles estrictos de acceso a datos y medidas de gobernanza.

Enrutamiento de modelos

La plataforma incluye un gateway interno que actúa como un router seguro de LLM, permitiendo flexibilidad de modelos mientras mantiene una gobernanza estricta de los datos.

Compartir
Contáctanos
Por favor, deja tus datos y te contactaremos a la brevedad.