„Der Stand von Phison auf der GTC 2024 hielt eine unerwartete Überraschung bereit: Das Unternehmen stellte eine einzelne Workstation mit vier GPUs vor, die SSDs und DRAM nutzt, um den effektiven Speicherplatz für KI-Workloads zu erweitern, sodass eine Workload ausgeführt werden kann, die normalerweise 1,4 TB VRAM verteilt auf 24 Workloads erfordert.“ H100-GPUs. Die neue aiDaptiv+-Plattform des Unternehmens soll die Hürden des KI-LLM-Trainings senken, indem sie System-DRAM und SSDs einsetzt, um die für das Training verfügbare GPU-VRAM-Menge zu erhöhen, was es laut Phison den Benutzern ermöglichen wird, intensive generative KI-Trainingsarbeitslasten zu einem Bruchteil der Zeit zu bewältigen Kosten für die bloße Verwendung von Standard-GPUs, obwohl die niedrigeren Einstiegskosten gegen eine geringere Leistung und damit längere Trainingszeiten eingetauscht werden müssen.“
Quelle: Toms Hardware