Phison demonstriert Feinabstimmung des 405B-Parameter-LLM mit aiDAPTIV+ auf nur zwei GPUs
Auf der SC25 demonstrierte Phison das Potenzial seiner Hardware- und Softwarelösung aiDAPTIV+ durch das Feinabstimmen des Trainings des Llama 3.1-Modells mit 405 Milliarden Parametern auf einem einzelnen Server mit zwei GPUs und 192 GB VRAM. Normalerweise wird für diese Aufgabe ein kombinierter VRAM-Pool benötigt….





