„Phison führt diese Kampagne mit seinem aiDAPTIV+ LLM-Trainingslösung. Dieser Name ist allerdings ziemlich lang, daher werde ich von hier an einfach das Wort aiDAPTIV+ verwenden.
. . .
Die Entwickler von Phison haben beschlossen, dieses Prinzip auf KI anzuwenden. Ihr aiDAPTIV+-Design verwendet spezielle SSDs, um den HBM-DRAM-Bedarf eines LLM-Trainingssystems zu reduzieren.
Phison argumentiert, dass die Anzahl der benötigten GPUs in einem System von der Größe des für das Problem benötigten DRAM abhängt. Ihr Argument: Wenn eine GPU 80 GB HBM hat und ein Modell ausführt, das 800 GB an Parametern benötigt, dann benötigt man zehn GPUs. – pcper.com
Quelle: www.pcper.com