Phison had a great presence at the AI Infrastructure Tech Field Day event in May, where we discussed the challenges of AI inference and model training and introduced our aiDAPTIV+ solution to attendees.
While you can watch each of our Phison leaders’ full sessions on demand, TechStrong TV recently created a “director’s highlights” video cut and presented it in a Tech Field Data Insider webinar. In this cut, you’ll get a look at the key points of the following talks, along with commentary and discussion from a panel of experts:
-
-
- Affordable on-premises LLM training and inference with Phison aiDAPTIV, by Brian Cox, Phison Director of Solution and Product Marketing
- GPU memory offload for LLM fine-tuning and inference with Phison aiDAPTIV, by Sebastien Jean, Phison CTO
-
In this webinar, you’ll learn how to unlock large language model training on local hardware, reduce AI infrastructure costs, and enable private, on-premises AI with zero code changes.
よくある質問(FAQ):
Phison が AI Infrastructure Tech Field Day に参加した主な目的は何でしたか?
Phisonは、AI推論とモデルトレーニングをオンプレミスで導入する際に機関が直面する実際的な課題に焦点を当てました。セッションでは、GPUメモリの制約、インフラコストの障壁、大規模言語モデルをローカルで実行することの複雑さについて議論しました。Phisonは、 aiDAPTIV 高価な GPU メモリへの依存を減らしながら AI の導入を簡素化するように設計されたコントローラー レベルのソリューションです。.
TechStrong TV の「ディレクターのハイライト」ウェビナーとは何ですか?
TechStrong TVは、PhisonのTech Field Dayセッションから厳選したハイライトをTech Field Day Insiderウェビナーとして制作しました。このウェビナーでは、最も関連性の高い技術的洞察を抽出し、専門家パネルによる解説も掲載されているため、ITリーダーや研究リーダーは、セッション全体を視聴することなく、アーキテクチャへの影響をより容易に理解できます。.
ウェビナーで紹介される Phison の講演者は誰ですか?
このウェビナーでは、Phison の技術リーダー 2 名にスポットライトを当てます。
- ブライアン・コックス, 手頃な価格のオンプレミス LLM トレーニングと推論を担当するソリューションおよび製品マーケティング担当ディレクター。.
- セバスチャン・ジャン, 、CTO が、aiDAPTIV を使用した LLM の微調整と推論のための GPU メモリ オフロード手法について説明します。.
オンプレミス AI が大学や研究機関にとって重要なのはなぜですか?
オンプレミスAIにより、機関はデータ主権を維持し、コンプライアンス要件を満たし、機密性の高い研究データを保護できます。また、長期的なクラウドコストを削減し、研究、教育、社内業務で使用されるAIワークロードの予測可能なパフォーマンスを実現します。.
ウェビナーで議論された主なインフラストラクチャの課題は何ですか?
主な課題としては、GPUメモリ容量の限界、インフラコストの高騰、LLMのローカル導入と管理の複雑さなどが挙げられます。これらの制約により、機関はパイロットプロジェクトを超えてAIイニシアチブを拡大することがしばしば困難になっています。.
Phison aiDAPTIV はどのようにして手頃な価格のオンプレミス AI トレーニングと推論を可能にするのでしょうか?
ファイソン aiDAPTIV コントローラーレベルで高性能NVMeストレージを使用してGPUメモリを拡張します。これにより、追加のGPUや特別なコーディングを必要とせずに、既存のハードウェア上で大規模なモデルを実行できるため、ローカルAI導入のコスト障壁が大幅に低減されます。.
「GPU メモリオフロード」とは実際にはどういう意味ですか?
GPUメモリオフロードにより、GPUメモリが飽和状態になった場合でも、AIワークロードはNVMeストレージを透過的に利用できるようになります。研究者やITチームにとって、これはパイプラインの再設計やコードの書き換えをすることなく、より大規模なモデルの学習や微調整が可能になることを意味します。.
aiDAPTIV では既存の AI フレームワークまたはコードに変更を加える必要がありますか?
いいえ。aiDAPTIVはシステム層とストレージ層で動作するため、モデルコードやAIフレームワークを変更することなくAIワークロードを拡張できます。これは、確立された研究ワークフローを使用している学術チームにとって特に有益です。.
このソリューションは AI インフラストラクチャの予算管理にどのように役立ちますか?
aiDAPTIVは、高価な大容量GPUへの依存を減らし、既存のハードウェアをより有効に活用することで、設備投資を削減しながらシステム寿命を延ばします。これにより、予算が限られている機関でも高度なAIワークロードをより容易に利用できるようになります。.
高等教育関係者がこのウェビナーを視聴する必要があるのはなぜですか?
このウェビナーでは、プライベートなオンプレミスAIを大規模に導入するための実践的なブループリントを提供します。コスト削減、リソース効率の向上、クラウドロックインのない安全なAI研究と実験の実現に関する実用的なインサイトを提供します。.








