Auch bei gängigen verschreibungspflichtigen Medikamenten kommt es in der Apotheke bekanntermaßen zu unerwarteten Zuzahlungen. Obwohl als Grund dafür häufig die hohen Kosten für Forschung und Entwicklung angeführt werden, sind es die klinischen Studien –langjährige Untersuchungen zu Sicherheit und Wirksamkeit von Behandlungen – die Preise teils in die Höhe schnellen lassen.
Groß angelegte klinische Studien werden oft parallel in mehreren Ländern und unter Beteiligung Tausender Patienten durchgeführt. Hierbei müssen enorme Datenmengen genau überwacht werden. Wenig verwunderlich also, dass für die Einführung neuer Medikamente teils Investitionen von mehr als 2 Milliarden US-Dollar und 12 Jahre vonnöten sind. Ebenso wenig überrascht es, dass klinische Studien ein Drittel der Gesamtkosten in der Arzneimittelentwicklung ausmachen.
Mit seiner Gründung im Jahr 1997 hat es sich Phlexglobal zur Aufgabe gemacht, Unternehmen aus der Biowissenschaft bei der Rationalisierung dieses Prozesses zu unterstützen. So hilft es ihnen etwa, alle Abläufe rund um Trial Master Files (TMF) besser zu verwalten. Eine äußerst wichtige Aufgabe, handelt es sich dabei doch um die vollständige Dokumentation zu einer klinischen Studie. Ein strukturiert und akkurat geführter TMF dokumentiert den gesamten Ablauf und ist ein entscheidendes Mosaikstück beim Nachweis, dass alle gesetzlichen und Branchenvorschriften umgesetzt wurden. Auch leitet und verbessert er die Zusammenarbeit zwischen den vielen Partnern, die eine klinische Studie letztlich möglich machen.
Dienstleister mit Technologie oder Technologieanbieter mit Dienstleistungen?
Seine Anfänge hat Phlexglobal als Dienstleister: Die Mitarbeiter des Unternehmens unterstützten klinische Studien in administrativer Funktion und verhalfen dabei ihren Kunden zu besser geführter TMF-Dokumentation und effizienten Prozessen. Zum damaligen Zeitpunkt geschah all dies vornehmlich in Papierform. Der Regelfall waren somit unaufhörlich wachsende Mengen an mit Strichcodes versehenen Akten, verstaut in ganzen Räumen, die rein aus Unterlagensammlungen bestanden.
Mit der Zeit wurden aus diesen papierbasierten Abläufen elektronische Vorgänge, und so veröffentlichte Phlexglobal 2007 PhlexEview. Dabei handelt es sich um eine gehostete Lösung für eTMFs – elektronische TMFs also – zur effizienten Umsetzung dieser neuen Prozessrealität. Im Zeitalter fortschreitender Digitalisierung wird die Plattform immer mehr zum Herzstück des Gesamtangebots von Phlexglobal.
Barry Sacks, Chief Technology Officer von Phlexglobal, hierzu: „Die Möglichkeiten, die sich aus unserer eTMF-Plattform ergeben, sind auch für Phlexglobal selbst aus geschäftlicher Hinsicht signifikant. Umso wichtiger ist es für uns also, sie weiter verstärkt in den Business-Fokus zu rücken, denn letztendlich wird sie sich auch bei unserer eigenen Transformation als entscheidend erweisen: vom Dienstleister mit Technologie zum Technologieanbieter mit Dienstleistungen.“
Sacks verfolgt genau diese Vision als strategisches Hauptziel. Gleich nach Aufnahme seiner Tätigkeit bei Phlexglobal 2017 begann er, die IT-Infrastruktur von einer über mehrere Rechenzentren verteilten On-Premise-Umgebung in ein hybrides Setting mit Microsoft Azure Cloud als Dreh- und Angelpunkt zu transformieren. Schon wenig später führte Phlexglobal zudem ein DevOps-Modell für Continuous Development und Integration sowie Kubernetes-Containertechnologie ein. Hiermit sollten Verwaltung, Skalierung und Deployment für die stetig wachsende Anzahl an Microservices automatisiert werden.
Performance auf Rezept: Pro-aktives unternehmensweites Monitoring
Phlexglobal hatte in nur kurzer Zeit nicht nur seine digitale Transformation auf den Weg gebracht, sondern eine Vielzahl von On-Premise-Silos in eine kohärente Hybrid-Cloud-Architektur konvertiert. Um seine Evolution zum agilen Unternehmen zu vollenden, benötigte man jetzt nur noch eine Zutat: pro-aktives Monitoring mittels vollständiger Performance-Transparenz für alle System- und Anwendungsbereiche.
Liam Corkhill, Head of Development bei Phlexglobal, erinnert sich: „Zum damaligen Zeitpunkt standen uns ausschließlich Informationen aus langsamen Abfrageprotokollen und der Datenbank zur Verfügung. Einige der Probleme, die wir zu lösen versuchten, waren daher von Kunden an uns herangetragen worden. Das war natürlich denkbar ungünstig, da so Kunden bereits über Performance-Probleme unserer Anwendung verärgert waren, bevor wir überhaupt selbst Kenntnis davon hatten.“
Doch Sacks hatte genau das richtige Gegenmittel: „New Relic Monitoring hatte mir beim Einsatz in meinem eigenen SaaS-Unternehmen große Erfolge beschert. Als ich erfuhr, dass Phlexglobal über keine derartige Technologie verfügte, beschloss ich, dem mit der New Relic Plattform Abhilfe zu schaffen.“
Die Monitoring-Plattform erwies sich schon nach kurzer Zeit als äußerst wertvoll: Phlexglobal konnte seine Migration von einer On-Premise-Umgebung in die Hybrid Cloud weiter planmäßig umsetzen, nun auch stets mit allen Performance-Daten im Blick. Dieser neue Vorteil machte sich auch bald für die Kunden bemerkbar. Corkhill hierzu: „Mit New Relic hatten wir endlich einen 360°-Einblick in unsere Anwendungsperformance. Nun konnten wir endlich gezielt die Aspekte angehen, die uns dabei die größten Probleme bereiteten, und den Code optimieren. So war es uns schon bald möglich, signifikante Verbesserungen bei unserer Plattform und ihrer Performance für unsere Kunden zu erzielen.“
Nicht mehr wegzudenken
Bereits diese ersten Verbesserungen bei der Anwendungswartezeit konnten die Investition in New Relic rechtfertigten, doch inzwischen hat sie sich um ein Vielfaches amortisiert. Heute nutzt Phlexglobal New Relic, um wichtige Transaktionen, die Performance Baseline und vieles mehr pro-aktiv zu überwachen. Im Hinblick auf die Infrastruktur des Unternehmens ist New Relic Monitoring zudem eine nunmehr feste, vollständig automatisierte Komponente seiner Software-Entwicklung. Sacks' Anfänge bei Phlexglobal, als die stabile automatisierte Durchführung von Load-Tests mit hohem Volumen eine Herausforderung darstellte – sie scheinen nun weit in der Vergangenheit zu liegen.
„New Relic nimmt seit einiger Zeit eine zentrale Rolle in unserer Software-Entwicklung ein“, so Corkhill. „Unter anderem können wir als Teil der Anwendungsentwicklung Load-Tests durchführen. Anhand von Deployment-Markern gleichen wir Code Drops ab und können dann mittels New Relic APM die Auswirkungen dieses Code Drops identifizieren – insbesondere bei performance-orientierten Deployments. Auf Detailebene können wir etwa die Abfragen mit der schlechtesten Performance einsehen, was genau die meiste Zeit in Anspruch nimmt und wo die langsamsten Transaktionen auftreten.“
Kubernetes-Orchestrierung
Ein weiterer starker Zusatzvorteil von New Relic Monitoring: Durch Einführung einer Microservices-Architektur basierend auf Containerisierungs- und Kubernetes-Orchestrierungstechnologie konnten die Anwendungskomponenten von Phlexglobal grundlegend modernisiert werden.
Sacks erläutert: „Im Rahmen unserer Microservices-Implementierung nutzen wir die Correlation-Tracing-Features in New Relic. Mithilfe dieser können wir etwa langsame Website-Transaktionen durchleuchten, indem wir entweder im zugehörigen Microservice direkt zum Trace gehen oder uns die Datenbankabfrage genauer ansehen. Da alle Komponenten miteinander verknüpft sind, können wir jeden Schritt im Gesamtprozess problemlos untersuchen.“
Besonders wertvoll für Corkhill ist der Kubernetes Cluster Explorer, eine Komponente von New Relic Infrastructure, die er zum Health-Monitoring der Kubernetes-Umgebung nutzt. „Vom Cluster Explorer war ich sofort begeistert. Er vermittelt uns jederzeit einen grafischen Überblick zu den Vorgängen auf einem Cluster wie auch in den Pods. Unsere Entwickler können zudem einsehen, wie sich ihre Anwendungen im Container-Kontext machen. Durch Hinzunahme des Explorers benötigen wir für diese Informationen keine neue Toolsets, müssen uns nicht in neue Plattformen einarbeiten.“
Ben French, Head of Infrastructure, sieht das ganz ähnlich: „New Relic liefert uns eine hervorragende Übersicht unserer Kubernetes-Cluster. Dank dieser können unsere Entwickler Probleme viel eigenständiger diagnostizieren – nicht nur im Produktionscode, sondern noch vor Sprint-Abschluss im Dev- und Testcode. Für unsere Software-Entwicklung ist das ein enormer Schritt nach vorn.“