0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

OpenVINO™ ツールキット AI プログラミング・ウェビナー オンデマンド公開中

Posted at

現在インテルでは、AI エキスパートによるオンデマンド形式のウェビナーを公開中です。
https://software.seek.intel.com/openvino-devcon-2024-jp-reg

{a8838c9a-1604-4070-94f2-6734c4586d05}_devcon-jp-ws-webinar-kv-1200x1200.png

本ウェビナーでは、生成 AI の未来とロードマップについて、インテルの AI エキスパートによる最新情報を交えつつ、実際のデモを通じて高速かつスマートに LLM の推論をローカル実行する手法や、OpenVINO™ ツールキットを使用して今すぐご自身のマシンで AI 開発を実行する方法を動画で学習できます。

3つのセミナーに分かれており下記内容となっています。

1:エッジ LLM で高速でスマートな推論を実現: 5 行のコードで LLM AI を作成 (約 45 分)

このセッションでは、「大規模言語モデル (LLM) は小型なフォームファクターのマシンにも収まるか?」「小規模 LM と LLM どちらにするべきか?」「推論をローカル実行する場合のスイートスポットはどこか?」といった、生成 AI の領域で見られるようになった新たなチャレンジを取り上げて解説します。また、INT8、INT4、1 ビット LLM モデルなど LLM 圧縮の時代において、複雑なディープラーニング・モデルとビッグデータ処理に GPU、NPU、CPU を効果的に使用する方法を探っていきます。

<セッションの内容>
• OpenVINO™ ツールキットを使用して AI PC やエッジデバイス上で生成 AI を高速かつ正確に展開する方法の実演
• OpenVINO™ ツールキットの最新版リリースで今すぐ試すことができる新しい開発手法
• 広範な LLM モデルとエキスパート・アーキテクチャーの組み合わせ
• モデル圧縮とメモリー最適化の新たな手法
• インテルのハードウェア上に実装できるモデルの拡張
• OpenVINO™ モデル・サーバーを使用した AI モデルの展開
• 新しい生成 AI ワークロード

2:AI PC の新時代: NPU による高速かつ低消費電力の AI 推論の実現 (約 28 分)
このセッションでは、CPU、GPU、NPU を横断した固有の AI アクセラレーション機能による新時代の AI PC について深く掘り下げます。AI 推論タスクに NPU を活用し、OpenVINO™ ツールキットを使用して AI アプリケーションの実装と展開を最適化する方法について、AI PC 上で動く AI アプリケーションのパフォーマンスと電力効率のデモと合わせて包括的に紹介します。OpenVINO™ ツールキットを使用し、AI 推論におけるハードウェア使用率を最適化する方法を習得して、AI プロジェクトの効率化とイノベーションの推進にお役立てください。

<セッションの内容>
• AI PC とは? CPU、GPU、NPU を横断する AI アクセラレーション機能
• 従来型の AI と生成 AI の両方にわたる幅広い AI ユースケースと、AI PC で運用する実際のアプリケーション
• OpenVINO™ ツールキットを使用して NPU 上に実装する AI アプリケーションを最適化し、電力効率とパフォーマンスを最大化する方法
• OpenVINO™ ツールキットを使用して AI アプリケーションをシームレスに NPU へ移植する方法をデモにて紹介
• 開発者が AI PC 上で OpenVINO™ ツールキットを活用し、AI プロジェクトを推進する方法

3:コンピューター・ビジョン・ソリューション (約 25 分)
このセッションでは、AI 推論ソリューションのためのコンピューター・ビジョンや異常検出アプリケーションの構築方法として、オープンソースの Anomalib ライブラリーを使用して、不均衡なデータセットによる教師なし学習を実行し、発生頻度の低い欠陥をリアルタイムに検出する、製造業、医療、農業などの分野で品質管理の精度向上に応用できる手法を解説します。

<セッションの内容>
• 異常検出の分野に適用する OpenVINO™ ツールキットのコンポーネント、OpenVINO™ ランタイム、ニューラル・ネットワーク圧縮フレームワーク (NNCF) の基礎
• Anomalib 1.0 を使用し、多様な最先端の異常検出アルゴリズムを統合する方法
• 量子化や OpenVINO™ ツールキットなどのテクノロジーを通じて、エッジデバイスに実装する AI モデルの学習処理と最適化を行い、リソース制限のある環境でも効率的なパフォーマンスを確保
• モデルの最適化とエッジデバイスへの実装を実践で体験
• 異常検出の領域で今後この業界が直面することになる課題の紹介

各セッションの視聴は無料です。
是非この機会にOpenVINO™ ツールキットに触れてみてください!
https://software.seek.intel.com/openvino-devcon-2024-jp-reg

<OpenVINO™ ツールキットとは>
AI を加速する無償のツールである OpenVINO™ ツールキットは、インテルが無償で提供しているインテル製の CPU や GPU、VPU、FPGA などのパフォーマンスを最大限に活用して、コンピューター・ビジョン、画像関係をはじめ、自然言語処理や音声処理など、幅広いディープラーニング・モデルで推論を最適化し高速化する推論エンジン / ツールスイートです。

OpenVINO™ ツールキット・ページでは、ツールの概要、利用方法、導入事例、トレーニング、ツール・ダウンロードまでさまざまな情報を提供しています。ぜひ特設サイトにアクセスしてみてください。
https://www.intel.co.jp/content/www/jp/ja/internet-of-things/openvino-toolkit.html

◆法務上の注意書き

性能は、使用状況、構成、その他の要因によって異なります。詳細は、パフォーマンス・インデックス・サイトを参照してください。

性能の測定結果はシステム構成の日付時点のテストに基づいています。また、現在公開中のすべてのセキュリティー・アップデートが適用されているとは限りません。構成の詳細は、補足資料を参照してください。絶対的なセキュリティーを提供できる製品またはコンポーネントはありません。実際の費用と結果は異なる場合があります。インテルのテクノロジーを使用するには、対応したハードウェア、ソフトウェア、またはサービスの有効化が必要となる場合があります。

© Intel Corporation. Intel、インテル、Intel ロゴ、その他のインテルの名称やロゴは、Intel Corporation またはその子会社の商標です。

その他の社名、製品名などは、一般に各社の表示、商標または登録商標です

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?