Le paysage de l'IA évolue rapidement. De nouveaux modèles d'IA puissants comme Sora, Mistral Next et Gemini 1.5 Pro repoussent les limites du possible. Les entreprises du monde entier sont désireuses d'utiliser ces avancées et de créer des expériences novatrices pour leurs clients.

Chez New Relic, nous comprenons l'immense potentiel de l'IA générative et c'est pourquoi nous avons développé New Relic AI — une solution d'IA générative conçue pour démocratiser l'observabilité. Notre vaste expérience dans le développement de New Relic AI nous a apporté une profonde compréhension des difficultés inhérentes à cet environnement et le besoin crucial d'avoir des solutions de monitoring de l'IA qui soient robustes. C'est pourquoi, nous avons lancé New Relic AI Monitoring — la première solution de monitoring des performances des applications (APM) pour l'IA qui fournit une visibilité inégalée sur tout le stack d'applications d'IA.

Mais la solution New Relic AI Monitoring n'est pas seulement faite pour nous, elle l'est pour tout le monde ! Nous voulons donner aux organisations de toute taille la capacité de suivre la voie de l'IA en toute confiance. C'est pourquoi nous sommes ravis d'annoncer la disponibilité pour tous de New Relic AI Monitoring. Ce nouveau module vient s'ajouter au plus de 30 capacités de la plateforme New Relic et vous permet de monitorer, gérer et optimiser les performances, la qualité et le coût de vos applications d'IA.

Dans ce billet de blog, nous nous servirons d'un simple service de chat développé avec les grands modèles de langage (LLM) d'OpenAI et LangChain pour vous montrer la puissance de New Relic AI Monitoring. Nous explorerons ses fonctionnalités et nous vous guiderons dans son utilisation pour déboguer les erreurs au niveau de la réponse de votre application d'IA.

Instrumentation et onboarding sans effort

Avec les capacités d'instrumentation automatisées de New Relic, l'intégration du monitoring de l'IA dans vos workflows est simple et intuitive. Que vous utilisiez des frameworks d'IA populaires comme OpenAI ou Amazon Bedrock, nos agents fournissent une instrumentation sans effort dans Python, Node.js, Ruby, Go et .NET. Grâce à l'installation guidée, vous pouvez paramétrer l'instrumentation pour le monitoring de votre application de chat en quelques clics seulement, ce qui garantit que vous êtes bien équipé pour monitorer vos applications d'IA dès le départ. 

Prenons en exemple le simple service de chat. Voici comment vous pouvez vous lancer :

  • Dans New Relic, naviguez jusqu'à Add Data (Ajouter des données), puis sélectionnez AI Monitoring.
  • Sous AI Monitoring, choisissez le framework que vous voulez instrumenter, OpenAI Observability, par exemple.
  • Sélectionnez l'agent d'instrumentation — Python dans ce cas — puis suivez les instructions détaillées pour terminer l'instrumentation.

Visibilité full-stack pour les applications d'IA

Une fois que votre application d'IA est instrumentée, New Relic AI Monitoring fournit une visibilité inégalée sur ses performances et son comportement. New Relic AI Monitoring va au-delà du monitoring des performances des applications (APM) classiques en s'intégrant en toute transparence à APM 360. Cette combinaison puissante fournit une vue unifiée et uniformisée de votre écosystème d'IA, ce qui vous donne non seulement les métriques de l'APM standard dont vous avez l'habitude (temps de réponse, débit, taux d’erreur), mais aussi les métriques spécifiques à l'IA — comme le nombre total de demandes, le temps de réponse moyen et l'utilisation des jetons — qui sont toutes essentielles à l'optimisation de votre application d'IA. Vous pouvez ainsi réaliser le monitoring de tout votre environnement d'IA efficacement et dans une seule et même interface. 

Voyons cela à l'œuvre pour le service de chat. 

  • Depuis New Relic, naviguez jusqu'à AI Monitoring.
  • Cliquez sur AI Entity, puis sélectionnez votre service de chat.
  • La vue de synthèse affiche les métriques de l'application et de l'IA côte à côte.

Sous le widget de réponse de l'IA dans la vue de synthèse, vous pouvez voir que le service de chat a traité 2 830 réponses au total avec un temps de réponse moyen de 7,1 secondes et une utilisation moyenne de 858 jetons par réponse.

Identifiez rapidement les valeurs hors norme dans les réponses de l'IA

La compréhension et l'analyse des réponses de l'IA sont très simples grâce à New Relic AI Monitoring. Avec la vue consolidée des réponses de l'IA, vous pouvez rapidement identifier les valeurs hors norme et les tendances dans les réponses des LLM, ce qui vous permet d'affiner votre application pour obtenir des performances, une qualité, et un coût optimums. 

Nous pouvons ici analyser le feedback et le ressenti pour chaque réponse de l'IA, et également filtrer en fonction de divers critères, tels que les demandes, les réponses, les erreurs, etc. 

Vous pouvez accéder à la vue AI Response de deux façons :

  • À partir de la synthèse du service : cliquez sur le widget AI Response pour obtenir une vue focalisée.
  • Vue globale : pour une vue consolidée sur toutes les entités, cliquez sur le menu de navigation AI Response principal.

Pour le service de chat, cliquez sur le widget AI Response dans la vue de synthèse. Dans la page de réponse de l'IA, filtrez en fonction des erreurs et observez toutes les réponses de l'IA qui présentent une erreur pour le service de chat.

En cliquant sur l'une des réponses de l'IA avec une erreur, vous ouvrez le tracing de la réponse et vous pouvez l'explorer plus en détail pour trouver la cause profonde.

Trouvez la cause profonde plus rapidement avec les informations détaillées sur les traces

New Relic AI Monitoring élimine les approximations des applications d'IA complexes. Notre vue du tracing des réponses révèle tout le parcours de votre demande d'IA, de la saisie par l'utilisateur d'origine jusqu'à la réponse finale. New Relic AI Monitoring capture également diverses métadonnées associées avec chaque demande. En cliquant sur les spans, vous pouvez accéder aux métadonnées comme le nombre de jetons, les informations sur le modèle et les messages échangés au cours des appels de modèle, ce qui permet un débogage granulaire.

Notre intégration avec LangChain permet le tracing étape par étape, montrant le traitement de la saisie sur les différents composants de l'IA ainsi que la génération des sorties. Cette capacité de débogage très fin est inestimable pour le dépannage d'applications d'IA complexes.

Vous souvenez-vous du scénario d'erreur dans notre service de chat ? Si vous cliquez sur le span problématique au sein de la trace vous trouverez les informations détaillées sur l'erreur. Ceci vous permet de rapidement diagnostiquer et résoudre la cause profonde du problème et de remettre sur les rails votre application d'IA en un rien de temps.

Optimisez les performances et les coûts sur tous vos modèles

Le choix du bon modèle d'IA pour votre application est crucial. Mais avec un nombre croissant d'options, comment pouvez-vous être sûr de faire le meilleur choix ? Heureusement, le comparatif des modèles d'IA de New Relic AI Monitoring est là pour vous guider, en vous fournissant des informations détaillées et précieuses sur les performances et le coût des différents modèles d'IA, et ainsi vous aider à prendre des décisions éclairées sur le modèle qui répond le mieux à vos besoins.  

Pour la simple application de chat, voici comment utiliser le comparatif des modèles d'IA en quelques clics :

  • Depuis New Relic, naviguez jusqu'à AI Monitoring.
  • Dans le menu des capacités sur la gauche, cliquez sur Compare Models.
  • Choisissez les modèles que vous souhaitez comparer, GPT-4 et Bedrock, par exemple.
  • Cliquez sur See the Comparison (Voir la comparaison) pour afficher les résultats détaillés et sélectionnez le bon modèle pour votre service de chat.

Amélioration de la sécurité des données et de la confidentialité des utilisateurs

Chez New Relic, nous comprenons l'importance de la protection des données sensibles. C'est pourquoi New Relic AI Monitoring offre des fonctionnalités de sécurité robustes pour assurer la conformité et la confidentialité des utilisateurs. La fonctionnalité de filtres de suppression (Drop Filters) vous permet d'exclure de manière sélective certains types de données (telles que les renseignements personnels) du monitoring, alors que notre option d'opt-out complet vous donne le contrôle final sur la transmission des données et vous permet ainsi de désactiver l'envoi de prompts et de réponses via la configuration de l'agent.

Le paramétrage des filtres de suppression est simple. Depuis AI Monitoring, naviguez simplement jusqu'au menu des capacités sur la gauche, et cliquez sur la section Drop Filters. Vous pouvez alors créer des filtres en utilisant des requêtes dans le langage NRQL de New Relic pour cibler des types de données spécifiques parmi les six événements proposés.