New Relic Now Start training on Intelligent Observability February 25th.
Save your seat.

Engineering-Teams sehen sich heute zwei großen Herausforderungen gegenüber: Der Verwaltung komplexer Technologie-Stacks und der Gewährleistung einer kontinuierlichen Uptime. Wird auf Probleme erst reagiert, nachdem sie aufgetreten sind, kommt es häufig zu kostspieliger Downtime, was wiederum zu frustrierten Kund:innen führt. Die Lösung? Proaktives Performance-Monitoring. Mit New Relic AI wird proaktives statt nur reaktives Monitoring möglich: Mithilfe von KI lassen sich Probleme bereits im Vorfeld erkennen, Trends werden deutlich und Probleme können schneller behoben werden.

New Relic AI ist der erste GenAI-Observability-Assistent, der führende Large Language Models (LLMs) mit der New Relic Datenplattform kombiniert, um sowohl Ihr System als auch die New Relic Plattform selbst zu verstehen und tiefere Einblicke aus Massen von Telemetriedaten in Alltagssprache zu bieten.

In diesem Blogbeitrag erfahren Sie, wie Sie New Relic AI für Folgendes nutzen können:

  • Performance-Trends analysieren
  • Anomalien erkennen 
  • Monitoring-Lücken erkennen
  • Synthetic-Monitore einrichten

Erste Schritte mit NRAI

Obwohl NRAI derzeit nur im Preview erhältlich ist, lässt es sich einfach aktivieren. Klicken Sie dazu oben rechts auf einer beliebigen Seite auf Ask AI und dann auf Get started

Sie werden aufgefordert, die Nutzungsbedingungen für generative KI zu lesen. Wenn Sie die New Relic Richtlinie für Pre-Releases noch nicht zuvor akzeptiert haben, werden Sie hier dazu aufgefordert. Klicken Sie auf Accept. Sobald dies erledigt ist, sollte ein Chatfenster angezeigt werden. 

Jetzt können Sie mit dem KI-Assistenten interagieren, der Sie bei der Überwachung und Fehlerbehebung Ihres Systems unterstützt.

Performance-Trends analysieren

Proaktives Monitoring beginnt mit dem Verständnis der historischen Performance Ihrer Services. Durch die Analyse von Trends im Zeitverlauf können Sie Bereiche erkennen, die möglicherweise Aufmerksamkeit erfordern, bevor sie zu größeren Problemen werden.

Zu Beginn können Sie NRAI bitten, die Performance eines bestimmten Service über einen bestimmten Zeitraum zusammenzufassen.

Wie war die Performance des Katalogservice in der letzten Stunde?

NRAI ruft relevante Performance-Metriken ab, darunter Transaktionen, durchschnittliche Dauer und Fehlerquote, und bietet Ihnen so einen schnellen Überblick über die Integrität des Service, wie im folgenden Beispiel gezeigt.

Im obigen Beispiel zeigt NRAI die Performance des Katalogservice, einschließlich der Transaktionen, der durchschnittlichen Dauer und der Fehlerquote. Sie können NRAI auch bitten, sich auf eine bestimmte Metrik wie die Fehlerquote zu konzentrieren.

Gab es Fehler bei diesem Service?

NRAI ist in der Lage, den Kontext beizubehalten, und versteht, dass Sie die Transaktionsfehler der letzten Stunde in „catalogue-service“ abrufen möchten. Es konvertiert die natürliche Sprache in eine Abfrage in der New Relic Query Language (NRQL) und zeigt an, ob in Ihrem Service Fehler aufgetreten sind. 

Darüber hinaus können Sie eine detaillierte Erklärung dieser Fehler anfragen und auch deren zugrunde liegende Ursachen untersuchen.

Hier zeigt New Relic AI die Liste aller Fehler im Katalogservice (catalogue-service) zusammen mit allen zugehörigen Attributen. Sie können jeden Fehler genauer untersuchen. Sie müssen nur die richtige Frage stellen.

Ein weiterer interessanter Punkt ist, dass die im Rahmen der Performance-Analyse angezeigten Metriken je nach dem analysierten Service variieren. Zum Beispiel: 
 

​​Wie war die Performance des Frontend-Service in den letzten 24 Stunden?

Da wir nun nach einer Browseranwendung fragen, ruft NRAI die mit der Browseranwendung verbundenen Metriken ab.

Im obigen Beispiel ruft NRAI die Metriken für die durchschnittliche Frontend-Dauer, den durchschnittlichen ersten Contentful Paint und den durchschnittlichen First Paint der letzten 24 Stunden ab.

Um langfristige Stabilität sicherzustellen, können Sie die Performance über verschiedene Zeiträume hinweg vergleichen. Dadurch lassen sich Trends erkennen, die auf zukünftige Probleme hinweisen könnten.

Wie war die Performance des Frontend-Service in den letzten 24 Stunden im Vergleich zur letzten Woche?

Damit hilft Ihnen unser GenAI-Assistent zu erkennen, ob die Performance allmählich nachlässt oder ob Spikes zunehmen, was auf tiefer liegende Probleme hinweisen könnte.

In diesem Beispiel hat sich die durchschnittliche Frontend-Dauer um 2 % verbessert, was eine allgemeine Verbesserung zeigt.

Anomalien erkennen

Nachdem Sie die Performance-Trends analysiert haben, ist der nächste Schritt beim proaktiven Monitoring die Erkennung von Anomalien – ungewöhnliche Muster oder Vorgänge, die auf ein Problem hinweisen könnten. Bitten Sie NRAI einfach, aktuelle Anomalien hervorzuheben. Sie können damit beginnen, dass Sie New Relic AI bitten, ungewöhnliche Aktivitäten oder Spikes bei wichtigen Metriken wie Fehlerquote oder Antwortzeit zu finden oder sogar einen Überblick über Anomalien in Ihrem Stack zu liefern.

Gab es in den letzten 24 Stunden bei einem meiner Services Anomalien?

Nachdem NRAI Ihren Stack gescannt hat, gibt es alle Anomalien in Ihren Services zurück, z. B. plötzliche Spikes, Rückgang der E/A-Vorgänge, Fehlerquoten oder andere unregelmäßige Muster.

Im obigen Beispiel hat New Relic AI zwei Anomalien erkannt: 

  • Rückgang der Lese- und Schreibvorgänge
  • Erhöhung der Schreibzeit

Darüber hinaus wird der Kontext der Anomalien angegeben und es werden umsetzbare Schritte zur Lösung damit verbundener Performance-Probleme gezeigt. 

Synthetic-Monitore einrichten

Synthetic Monitoring simuliert Benutzerinteraktionen mit Ihren Anwendungen, um potenzielle Probleme zu erkennen, bevor sie sich auf echte Benutzer:innen auswirken. NRAI kann Ihnen beispielsweise dabei helfen, einen Synthetic-Monitor einzurichten, der die Verfügbarkeit Ihrer Services in regelmäßigen Abständen testet. Dadurch wird sichergestellt, dass Performance-Einbußen frühzeitig erkannt werden. 

Als Erstes können Sie New Relic AI um Empfehlungen zum Synthetic Monitoring bitten.

Im obigen Beispiel scannt NRAI den Stack, um die Entities mit Anomalien zu identifizieren, und schlägt vor, Synthetic-Monitore für sie einzurichten. Standardmäßig erstellt NRAI Ping-Checks für Ihre Services und Anwendungen. Es kann Ihnen jedoch dabei helfen, einen umfassenderen Synthetic-Monitor einzurichten, beispielsweise einen Scripted Browser- oder einen API-Test. Diese Arten von Monitoren ermöglichen es Ihnen, Benutzerinteraktionen oder API-Aufrufe zu simulieren, um sicherzustellen, dass Ihre Anwendung nicht nur erreichbar ist, sondern auch ordnungsgemäß funktioniert.

Durch die Einrichtung von Synthetic-Monitoren können Sie Probleme erkennen, bevor sie sich auf echte Benutzer:innen auswirken. So wird für alle, die mit Ihren Services interagieren, ein reibungsloses Erlebnis sichergestellt.

Monitoring-Lücken erkennen

Proaktives Monitoring besteht zum Großteil darin sicherzustellen, dass Ihr gesamter Stack durch Alerts und Monitoring-Tools abgedeckt ist. Eine fehlende Abdeckung in wichtigen Bereichen kann dazu führen, dass Sie von Problemen völlig überrascht werden. Um nicht überwachte Services zu identifizieren, können Sie zunächst den Assistenten bitten, die Lücken in Ihrem Stack zu finden. Oder genauer gesagt: Sie können nach Bereichen in Ihrem Stack fragen, die derzeit nicht durch Alerts abgedeckt sind.

Zeig mir alle meine Entities an, die nicht von einem Alert abgedeckt sind.

Oder Sie können NRAI auch bitten, Abdeckungslücken in Ihrem Stack zu finden.

Kannst du die Abdeckungslücke in meinem Stack finden?

Der obige Prompt wird wahrscheinlich eine Liste mit Entities ohne Alert-Abdeckung generieren. So wissen Sie, welche Teile Ihres Systems mehr Aufmerksamkeit benötigen, um Teams über aktuelle Probleme zu informieren. 

Wie im Beispiel vorgeschlagen, können Sie Ihre Suche eingrenzen, indem Sie den Anwendungstyp angeben, auf den Sie sich konzentrieren möchten. 

Die obigen Beispiele zeigen die Liste der Application-Performance-Monitoring(APM)-Services, die nicht von Alert-Bedingungen abgedeckt sind. Sobald Sie diese Lücken identifiziert haben, können Sie die Einrichtung von Alerts für die wichtigsten Services priorisieren. Sie können auch noch einen Schritt weitergehen und New Relic AI um Empfehlungen bitten, welche Alerts auf der Grundlage vergangener Incidents eingerichtet werden sollten.

Dadurch wird sichergestellt, dass Ihre wichtigsten Services immer überwacht werden und schwerwiegende Probleme nicht unbemerkt bleiben.

Fazit

New Relic AI verändert die Art und Weise, wie Sie Ihren Stack überwachen, und erleichtert die Erkennung von Problemen, bevor diese eskalieren. Durch die Verwendung des KI-gestützten Assistenten zum Alerting, Analysieren von Trends, Untersuchen von Fehlern und Einrichten von Synthetic-Monitoren können Sie von einem reaktiven zum proaktiven Monitoring wechseln und so für reibungslosere Abläufe und weniger Incidents sorgen.