Daten sind das Lebenselixier der Forschung. Das war schon immer so, aber dank der modernen Technologien von heute finden Forscher in den Biowissenschaften sowie in der Medizin- und Pharmabranche immer innovativere Wege, Daten zu kombinieren und zu untersuchen, um lebensrettende (oder lebensverbessernde) Durchbrüche zu erzielen.
Je besser eine Organisation Daten sammeln und analysieren kann, desto genauer und nützlicher sind ihre Ergebnisse. Der Wettbewerb unter Forschern kann ziemlich hart sein, und oft sind die Teams erfolgreich, die den effektivsten Nutzen aus ihren Daten ziehen können. Das ist wahrscheinlich der Grund, warum ein Studie 2021 zeigte, dass mehr als die Hälfte der Pharma-Führungskräfte der Meinung waren, dass die Verbesserung der Daten- und Analysekompetenz in ihren Organisationen im kommenden Jahr oberste Priorität habe. Der Bedarf an datenwissenschaftlichen Kenntnissen und Möglichkeiten zur Nutzung von Daten ist seitdem nur noch dringender geworden.
Die Technologien, die heute in der Forschung neue Erkenntnisse ermöglichen
Big Data ist der Schlüssel zu medizinischen Forschungsergebnissen. Um große Projekte in den Bereichen Genomik, Bioinformatik, prädiktive Biologie, Chemie, Pharmakologie usw. voranzutreiben, sind enorme Mengen an Informationen erforderlich. Glücklicherweise sind moderne Technologien entstanden, die es Forschern ermöglichen, diese Daten zu nutzen. Dazu gehören:
-
-
- Datenanalyse – Hierzu gehört das Sammeln von Daten, deren Bereinigen (oder „Scrubbing“), um sie zu einem hochwertigen Datensatz ohne Duplikate oder Fehler zu reduzieren, das Erstellen von Modellen für die Analyse, Data Mining zum Erkennen von Mustern und Anomalien sowie das Interpretieren der Daten und Ergebnisse, um Erkenntnisse zu gewinnen.
-
-
-
- KI und maschinelles Lernen (ML) – Diese Technologien unterstützen die Datenanalyse, da KI und ML enorme Datenmengen sehr schnell durcharbeiten und Muster und Zusammenhänge schneller und effizienter als je zuvor finden können. Mit ML kann sich eine Forschungsplattform im Wesentlichen selbst etwas beibringen und mit zunehmender Datenmenge besser erkennen, was relevant ist und was nicht. Diese Plattformen können Teams zu Erkenntnissen verhelfen, die ihnen vorher nie aufgefallen wären.
-
-
-
- Hochleistungsrechnen (HPC) – Da für die Forschung so viele Daten und leistungsstarke KI-, ML- und Analysesysteme erforderlich sind, müssen die Teams HPC-Systeme verwenden, die für die intensiven Arbeitslasten ausgelegt sind, die durch die Forschung entstehen. In der Vergangenheit waren die einzigen verfügbaren HPC-Systeme riesige Supercomputer, die normalerweise im Besitz von Regierungen oder Bildungseinrichtungen waren. Heute jedoch sind die Rechenkapazitäten so weit fortgeschritten, dass Teams mit der richtigen Software und den richtigen Anwendungen HPC-Leistungsniveaus auf Standardservern erreichen können.
-
Forscher verwenden normalerweise eine Kombination dieser Technologien, um die notwendigen Erkenntnisse aus ihren Daten zu gewinnen. Mit Big Data, einer guten Analyseplattform, KI, ML und HPC können Forscher heute sicherere und wirksamere Produkte entwickeln, Forschungsphasen beschleunigen, neue Moleküle identifizieren, die das Potenzial zur Behandlung von Krankheiten haben, die Produktwirksamkeit verbessern, Bevölkerungsgruppen identifizieren, die für bestimmte Erkrankungen gefährdet sind, Ausbrüche effizienter vorhersagen und darauf reagieren, Komplikationen nach Operationen vorhersagen, die Diagnose rationalisieren, die Effizienz medizinischer Geräte verbessern und vieles mehr.
Hier ist nur ein Beispiel dafür, was passieren kann, wenn Big Data mit den neuesten Technologien kombiniert wird: Die Energieministerium, Wissenschaftsbüro schloss sich 1990 mit den National Institutes of Health zusammen, um das gesamte menschliche Genom mit 3 Milliarden Basenpaaren zu sequenzieren. Das Projekt dauerte 10 Jahre und kostete fast $4 Milliarden. Heute jedoch kann dank verbesserter Computerkapazitäten und anderer Technologien ein menschliches Genom in weniger als 24 Stunden sequenziert werden, und zwar für etwa die Hälfte des Preises des neuesten iPhone.
Big Data weckt noch größere Erwartungen an die Datenspeicherung
Ein aktueller Artikel für Klinischer Leiter gibt an, dass im Jahr 2012 schätzungsweise fast 1 Million Datenpunkte in medizinischen Forschungsstudien der Phase 3 gesammelt wurden. Heute hingegen liegen die Datenpunkte im Gesundheitswesen im Milliardenbereich. Der Artikel fährt fort: „Dieser dramatische Anstieg erfordert die Einführung neuer Strategien zur Verbesserung der Erfassung, Verarbeitung und Archivierung von Daten, die diese neue Größenordnung unterstützen.“
Datenspeicher für medizinische Forschungsprojekte müssen in der Lage sein, große Datenmengen zu verarbeiten, ohne dabei Kompromisse bei der Leistung einzugehen. Systeme, die KI, ML und Datenanalyse verwenden, müssen geringe Latenz und hohen Durchsatz bieten. Sie müssen sowohl lese- als auch schreibintensive Workloads unterstützen können. Sie benötigen eine Infrastruktur, die eine schnelle Skalierbarkeit unterstützt und nicht zu viel Strom verbraucht.
Herkömmliche Datenspeicher können den Speicherbedarf der modernen medizinischen und biowissenschaftlichen Forschung nicht mehr decken. Diese Systeme verursachen Engpässe und verlangsamen Forschung und klinische Studien – was bedeutet, dass man länger auf echte Durchbrüche warten muss.
Ein Teil des Problems ist, dass Life-Science-Unternehmen die digitale Transformation einfach nicht sehr schnell durchlaufen. Eine aktuelle McKinsey-Bericht Die Studie kam zu dem Ergebnis, dass die Unternehmen der Biowissenschaften selbst im Jahr 2022 in Bezug auf die digitale Reife noch immer um den Faktor zwei bis drei hinter den Spitzenreitern anderer Branchen zurückliegen, „ohne dass es klare Anzeichen für eine Aufholjagd gibt“.
Diese Organisationen benötigen einen neuen Ansatz für die Datenspeicherung – einen, der den heutigen hohen Anforderungen gerecht wird. Er sollte in der Lage sein, Datensilos aufzubrechen und den Datenaustausch effizienter zu gestalten, bei Bedarf problemlos skalierbar zu sein und die hohen Leistungsanforderungen von Datenanalyse, HPC, KI und ML zu unterstützen.
Wie Phison helfen kann
Aufgrund der Notwendigkeit schneller Reaktionszeiten und geringer Latenzzeiten – und der Gesamtgröße von Forschungsdatensätzen – sind Solid-State-Laufwerke (SSDs) eine kluge Wahl für die Datenspeicherung. Tatsächlich steigen Unternehmen zunehmend auf All-Flash-Speicher-Arrays um. SSDs bieten höhere Übertragungsraten und geringere Latenzzeiten als herkömmliche Festplattenlaufwerke (HDDs) und verbrauchen zudem weniger Strom.
Als weltweit führender Anbieter von NAND-Flash-SSDs und anderen Datenspeicherlösungen verfügt Phison über eine Reihe von Produkten, die den heutigen intensiven Speicheranforderungen gerecht werden. Zum Beispiel das Unternehmen Enterprise-SSD-Plattform unterstützt die Speicher- und Leistungsanforderungen von KI, ML, HPC und Datenanalyseplattformen. Es kann helfen, die Herausforderungen von:
-
-
- Extrem große Datensätze
- Bedarf an hoher Leistung und schnellem Datenstreaming für CPUs und GPUs
- Mechanische Schwachstellen von HDDs
-
Mit Phison können Organisationen die schnellere und intelligentere Infrastruktur erreichen, die sie für ihre medizinische Forschung benötigen.