AI

AI全て

小規模言語モデルと大規模言語モデル:その違いと重要性

違いを理解することで、効率的でスケーラブル、そして導入しやすいAIの構築にどのように役立つかをご覧ください。人工知能に関する議論は、規模が中心になりがちです。より大きなモデル、より多くのパラメータ、より多くの計算能力、そしてより大きな野心。大規模言語モデル(LLM)….

続きを読む

AI全て

既成のAIを超えて:独自データの力を引き出す

AIの真の価値を引き出すには、まず自社のビジネスを特徴づける要素に基づいてモデルをトレーニングすることから始めます。この記事は、よりスマートでビジネス対応可能なAIの構築に関する2部構成のシリーズの第1回です。自社データに基づいてAIをトレーニングすることが、真のビジネス価値創出の鍵となる理由に焦点を当てています。.

続きを読む

AI全て

オンプレミスの AI 推論とモデルトレーニングを簡単に: 迅速なセットアップ、シンプルな操作、予算に合わせた設定

Phisonは5月に開催されたAI Infrastructure Tech Field Dayイベントで大きな存在感を示し、AI推論とモデル学習の課題について議論し、参加者にaiDAPTIV+ソリューションを紹介しました。Phisonリーダーによる各セッションのフルバージョンは視聴可能です。.

続きを読む

AI全て

次世代 SSD による RAG ワークフローの高速化

リアルタイムAIインサイトを最大限に効果的に得るために、高性能ストレージが不可欠な理由と、Phisonがどのようにそれを容易にするのかをご覧ください。AIは組織のデータ活用方法を変革しています。しかし、次の大きな飛躍はモデル開発だけではありません。それは….

続きを読む

AI全て

Phison社、わずか2つのGPUでaiDAPTIV+による405BパラメータLLM微調整を実証 

SC25において、Phison社は、2基のGPUと192GBのVRAMを搭載した単一サーバー上で、Llama 3.1の4050億パラメータモデルを微調整学習することで、同社のaiDAPTIV+ハードウェアおよびソフトウェアソリューションの潜在能力を披露しました。このタスクには通常、合計VRAMプールが必要です….

続きを読む

イノベーションを加速する財団™

ja日本語