1
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

インテル® Xeon® プロセッサーによる大規模言語モデル (LLM) パフォーマンスの加速化

Posted at

【開発と活用を推進するインテルの AI】
インテルはクラウドからデータセンター、エッジにおいて、あらゆる場所での AI 活用を目指す、ソフトウェアやハードウェアでの AI 開発、さらには AI ソリューションへの活用を動画で解説するWebサイトを公開しています。
https://www.intel.co.jp/content/www/jp/ja/artificial-intelligence/ai-development-and-utilization.html

<AI 活用を動画で学ぶ>
インテルのエキスパートたちが、ソフトウェアやハードウェア、AI ソリューションに関してのノウハウを動画で解説。今回ご紹介するのは、「推論 / エッジ推論」
学習によって作成された推論モデルのエッジへの実装や、効率的な推論の実行など、推論に関して紹介します。

タイトル:
インテル® Xeon® プロセッサーによる大規模言語モデル (LLM) パフォーマンスの加速化

図1.png

大規模言語モデル (LLM) の用途全てにおいて高価な GPU が唯一の選択肢なのでしょうか?用途やコストによっては汎用的なインテル® Xeon® プロセッサーがバランスの良さで最適な選択肢になります。このセッションでは、インテル® Xeon® プロセッサーでの LLM 運用を実現するために有効な、PyTorch 向けインテル® エクステンションがサポートしている LLM 向けの最適化について紹介します。

是非この機会にAI Everywhere を実現するインテルのソリューションをご覧ください!

1
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?