El panorama de la IA está cambiando rápidamente. Nuevos y potentes modelos de IA como Sora, Mistral Next y Gemini 1.5 Pro superan los límites de lo posible. Los negocios en todas partes están deseando aprovechar estos avances para crear experiencias jamás vistas para sus clientes.

En New Relic, comprendemos el inmenso potencial de la IA generativa y por esa razón hemos creado New Relic AI, una solución de IA generativa que fue diseñada para democratizar la observabilidad. Nuestra vasta experiencia en desarrollar New Relic AI nos permite gozar de una perspectiva profunda de los desafíos inherentes a los que nos enfrentamos y la necesidad crítica de contar con soluciones robustas de monitoreo de IA. Por eso hemos introducido el monitoreo New Relic AI, la primera solución de monitoreo del rendimiento de aplicaciones (APM) de la industria para IA que ofrece una visibilidad sin igual de todo el stack de aplicaciones de IA.

Pero el monitoreo New Relic AI no es solo para nosotros, ¡es para todo el mundo! Queremos que todas las organizaciones de todos los tamaños tengan la oportunidad de abrirse camino en la IA con plena confianza. Por eso tenemos el gusto de anunciar que el monitoreo New Relic AI ya está disponible para todos. Esta poderosa y nueva adición a las más de 30 capacidades de la plataforma de New Relic te da la oportunidad de monitorear, administrar y optimizar tus aplicaciones de IA en relación al rendimiento, la calidad y los costos.

En esta publicación del blog, utilizaremos un servicio de chat sencillo diseñado con los modelos de lenguaje extensos (LLM) de OpenAI y LangChain para demostrar el poder del monitoreo New Relic AI. Vamos a explorar sus características y te explicaremos cómo aprovecharlo para depurar errores en la respuesta de tu aplicación de IA.

Instrumentación e integración sencillas

Gracias a las capacidades de instrumentación automática de New Relic, integrar el monitoreo de IA en tu flujo de trabajo es sencillo e intuitivo. Si usas frameworks de IA populares como OpenAI o Amazon Bedrock, nuestros agentes proporcionan una instrumentación impecable en los lenguajes Python, Node.js, Ruby, Go y .NET. A través de un proceso de instalación guiada, puedes configurar la instrumentación para monitorear tu aplicación de chat con solo unos clics, asegurándote de que estarás equipado para monitorear tus aplicaciones de IA desde el primer momento. 

Veamos, por ejemplo, el sencillo servicio de chat. Puedes comenzar de esta manera:

  • Ve a Add Data en New Relic y selecciona AI Monitoring.
  • En AI Monitoring, elige el framework que deseas instrumentar, por ejemplo, OpenAI Observability.
  • Selecciona el agente de instrumentación —en este caso, Python— y luego sigue paso a paso las instrucciones claras para completar la instrumentación.

Visibilidad de todo el stack para las aplicaciones de IA

Una vez que tu aplicación de IA está instrumentada, el monitoreo New Relic AI ofrece una visibilidad sin igual de su rendimiento y comportamiento. El monitoreo New Relic AI trasciende el monitoreo del rendimiento de aplicaciones (APM) tradicional porque se integra a la perfección con APM 360. Esta combinación poderosa proporciona una vista unificada del ecosistema de IA, lo que te da no solo las métricas de APM estándar (tiempo de respuesta, rendimiento, tasa de errores) que esperas, sino que también te proporciona métricas exclusivas de IA como el total de solicitudes, el promedio del tiempo de respuesta y el uso de tokens, elementos todos que son clave para optimizar tu aplicación de IA. De esta manera podrás monitorear todo tu entorno de IA eficazmente en una sola interfaz. 

Veámoslo en acción para el servicio de chat. 

  • En New Relic, ve a AI Monitoring.
  • Haz clic en AI Entity y luego selecciona tu servicio de chat.
  • La vista Summary muestra las métricas de la aplicación y de IA lado a lado.

Bajo el widget de respuesta de IA en la vista Summary, puedes ver que el servicio de chat ha procesado un total de 2.830 respuestas con un tiempo de respuesta promedio de 7.1 segundos y un promedio de uso de tokens de 858 tokens por respuesta.

Identifica los valores atípicos rápidamente en las respuestas de IA

Comprender y analizar las respuestas de IA es una tarea sencilla gracias al monitoreo New Relic AI. Gracias a la vista de respuestas de IA consolidada, puedes identificar rápidamente los valores atípicos y las tendencias en las respuestas de LLM, lo que te permitirá hacer los ajustes necesarios en tu aplicación para optimizar el rendimiento, la calidad y los costos. 

Aquí podemos analizar los comentarios y el sentimiento para cada respuesta de IA, además de filtrar usando distintos criterios como solicitud, respuesta, errores y más. 

La vista AI Response se puede acceder de dos maneras:

  • En el resumen de servicio: haz clic en el widget AI Response para acceder a una vista enfocada.
  • Vista global: haz clic en la navegación principal de AI Response para acceder a una vista consolidada en todas las entidades de IA.

Para el servicio de chat, vamos a hacer clic en el widget de AI Response en la vista Summary. En la página AI Response, vamos a filtrar por error y vamos a ver todas las respuestas de IA que tienen un error para el servicio de chat.

Hacer clic en una de las respuestas de IA con un error te lleva a la vista de rastreo de la respuesta donde puedes profundizar más en busca de la causa raíz.

Identifica la causa raíz más rápido con información de rastreo profunda

Con el monitoreo New Relic AI no tienes que estar adivinando a la hora de depurar aplicaciones de IA complejas. Nuestra vista de rastreo de respuesta deja ver todo el recorrido de la solicitud de IA, desde la entrada inicial del usuario hasta la respuesta final. El monitoreo New Relic AI también captura diversos metadatos asociados con cada solicitud. Al hacer clic en los spans, puedes acceder a los metadatos como el recuento de tokens, la información del modelo y también ver los mensajes intercambiados durante las llamadas del modelo, lo que permite una depuración minuciosa.

Nuestra integración con LangChain permite contar con un rastreo paso a paso, demostrando cómo se procesa la entrada a través de los distintos componentes de IA y cómo se generan las salidas. Esta capacidad de depuración tan detallada es invaluable para detectar problemas en aplicaciones de IA complejas.

¿Recuerdas el escenario de error en nuestro servicio de chat? Hacer clic en el span problemático dentro de la traza revela información minuciosa sobre el error. Eso te permite diagnosticar y resolver rápidamente la causa raíz del problema y hacer que tu aplicación de IA reanude sus funciones sin perder tiempo.

Optimiza el rendimiento y los costos en todos los modelos

Elegir el modelo de IA idóneo para tu aplicación es un paso fundamental. Pero como todos los días aparecen más opciones, ¿cómo podemos asegurarnos de elegir la mejor opción? Aquí es donde la comparación de modelos de IA del monitoreo New Relic AI resulta útil, porque proporciona información valiosa sobre el rendimiento y los costos de los distintos modelos de inteligencia artificial para ayudarte a tomar decisiones bien fundadas a la hora de elegir el modelo que mejor se ajuste a tus necesidades.  

Para la aplicación de chat sencilla, así es como se puede utilizar la comparación de modelos de IA con solo unos cuantos clics:

  • En New Relic, ve a AI Monitoring.
  • Bajo la sección de capacidad, haz clic en Compare Models.
  • Elige los modelos que deseas comparar, por ejemplo, GPT-4 frente a Bedrock.
  • Haz clic en See the comparison para ver los resultados detallados y seleccionar el modelo más conveniente para tu servicio de chat.

Mejor seguridad de datos y privacidad del usuario

En New Relic, comprendemos la importancia de proteger los datos confidenciales. Por eso es que el monitoreo New Relic AI ofrece características de seguridad sólidas que sirven para garantizar el cumplimiento de las normas establecidas y la privacidad de los usuarios. Gracias a la funcionalidad de filtros de eliminación, puedes excluir del monitoreo los tipos de datos que tú decidas (como la información de identificación personal o PII). Por otro lado, nuestra opción para darse de baja completamente te da el control máximo de la transmisión de datos porque te permite desactivar el envío de invitaciones y respuestas a través de la configuración de agente.

Configurar los filtros de eliminación es fácil. Solo ve a la sección Drop Filters en la capacidad AI Monitoring. Ahí puedes crear filtros usando las consultas de New Relic Query Language (NRQL) para excluir determinados tipos de datos dentro de los seis eventos que se ofrecen.