Dieses Design ermöglicht es Organisationen, komplexe Modelle zu trainieren, wie Lama-2 7B auf handelsüblicher Standardhardware bei gleichzeitiger Gewährleistung einer Verarbeitung mit geringer Latenz und einer langlebigen Speicherung (100 DWPD) mit SLC NAND.
. . .
Nach Angaben des Unternehmens verfügen sie über eine Technik ähnlich Austausch auf Betriebssystemebene, bei dem weniger häufig verwendete Daten vom RAM in den Speicher ausgelagert werden, um Speicherplatz für aktive Prozesse freizugeben. Ebenso nutzt aiDAPTIV+ schnelle, leistungsstarke AI100E M.2 SSDs als aiDAPTIVCache, wodurch der GPU-Speicher effektiv erweitert wird. Ingenieure optimieren diese SSDs speziell für die hohen Anforderungen von KI-Workloads und gewährleisten so effizientes Datenmanagement und nahtloses Modelltraining.
Quelle: electronics-lab.com