インテル® oneAPI AI アナリティクス・ツールキット

AI ワークロードのエンドツーエンドのパフォーマンスを実現します。
関連情報
[お知らせ一覧]

データサイエンスと AI のパイプラインを加速する

インテル® oneAPI AI アナリティクス・ツールキットは、データ・サイエンティスト、AI 開発者、研究者が使い慣れた Python* ツールとフレームワークを提供し、 インテル® アーキテクチャー上でエンドツーエンドのデータサイエンスとアナリティクスのパイプラインを高速化します。 コンポーネントは、低レベルの計算を最適化するインテル® oneAPI ライブラリーを使用して構築されています。 このツールキットは、前処理からマシンラーニングまでのパフォーマンスを最大限に引き出し、効率的なモデル開発のための相互運用性を提供します。

このツールキットを使用するメリットは以下の通りです。

  • インテル® アーキテクチャー向けに最適化された TensorFlow* や PyTorch* のディープラーニング・フレームワークや事前トレーニング済みモデル、低精度ツールにより、インテル® XPU で高性能なディープラーニング・トレーニングを提供し、AI 開発ワークフローに高速な推論を統合します。
  • インテル® アーキテクチャー向けに最適化された計算集約型 Python* パッケージ、Modin*、scikit-learn*、XGBoost を使用して、データの前処理やマシンラーニングのワークフローにおいてドロップイン・アクセラレーションを実現します。
  • インテルが提供するアナリティクスや AI の最適化に直接アクセスすることで、ソフトウェアがシームレスに連携します。
詳細・新機能 技術情報

AI 開発支援ゴールド・サポート・サービスにて、当ツールキットに同梱されているインテル® Optimization for TensorFlow* およびインテル® ディストリビューションの Python* 有償サポートを提供いたしております。詳細は AI 開発支援ゴールド・サポート・サービスを参照いただき、お問い合わせください。

またインテル® ディストリビューションの Python* のみ有償サポートをご希望の場合はインテル® oneAPI ベース・ツールキットに同梱されておりますのでこちらをご参照ください。

新機能

詳細は、インテル社公開の情報 (英語) を参照ください。

インテル® Optimization for TensorFlow*

Google* とのコラボレーションにより、TensorFlow* はインテル® oneAPI ディープ・ニューラル・ネットワーク・ライブラリー (インテル® oneDNN) のプリミティブを使用してインテル® アーキテクチャー向けに直接最適化され、パフォーマンスが最大限に発揮されています。本パッケージは、CPU 対応の設定 (--config=mkl) でコンパイルされた最新の TensorFlow* バイナリーバージョンを提供します。

インテル® Optimization for PyTorch*

Facebook* とのコラボレーションにより、人気の高いディープラーニングの当フレームワークが、多くのインテルの最適化と直接結びつき、インテル® アーキテクチャー上で優れたパフォーマンスを発揮するようになりました。本パッケージは、最新の PyTorch* リリースの CPU 用バイナリー版を提供し、さらに効率的な分散トレーニングのためのインテル® oneAPI コレクティブ・コミュニケーション・ライブラリー (インテル® oneCCL) によるインテルの拡張機能とバインディングを追加しています。

インテル® アーキテクチャー向け Model Zoo

インテル® Xeon® スケーラブル・プロセッサー向けにインテルが最適化した、人気の高いオープンソースのマシンラーニング・モデルの事前トレーニング済みモデル、サンプルスクリプト、ベスト・プラクティス、ステップバイステップ・チュートリアルにアクセスできます。

インテル® Low Precision Optimization Tool

インテルが最適化した複数のディープラーニング・フレームワークに対して、統一された低精度推論インターフェイスを提供するオープンソースの Python* ライブラリーです。

インテル® Extension for Scikit-learn*

シングルノードおよびマルチノードのインテル® CPU および GPU 上の scikit-learn* アプリケーションをシームレスに高速化します。この拡張パッケージは、マシンラーニング・アルゴリズムの高速化を実現しながら、基礎となるソルバーとしてインテル® oneAPI データ・アナリティクス・ライブラリー (インテル® oneDAL) を使用するように scikit-learn* の推定量を動的にパッチします。このツールキットには、必要なパッケージがすべてインストールされた包括的な Python* 環境を提供するため、ストックの scikit-learn* も含まれています。このエクステンションは、scikit-learn* の過去 4 バージョンまでをサポートしており、既存のパッケージを柔軟に使用することができます。

インテル® アーキテクチャー向けに最適化された XGBoost

インテルは、XGBoost コミュニティーと協力して、インテル® CPU で優れたパフォーマンスを発揮できるよう、多くの最適化を直接アップストリームしてきました。勾配ブースト決定木のための有名なマシンラーニング・パッケージである XGBoost に、インテル® アーキテクチャー向けのシームレスなドロップインのアクセラレーション機能が追加され、モデルのトレーニングを大幅に高速化し、精度を向上させてより良い予測を実現します。

インテル® ディストリビューションの Modin*

pandas* と同一の API を持つこのインテリジェントな分散型データフレーム・ライブラリーを使用して、Pandas* ワークフローを高速化し、複数のノードでデータ前処理を拡張します。このライブラリーは、バックエンドの OmniSci* と統合し、分析を加速します。このコンポーネントは、ツールキットの Anaconda* ディストリビューションでのみ利用可能です。ダウンロードおよびインストールするには、インストール・ガイドを参照してください。

インテル® ディストリビューションの Python*

インテル® パフォーマンス・ライブラリーを使用して構築された、Python* のコア数値および科学パッケージのアクセラレーションにより、より高いパフォーマンスを実現します。本パッケージには、最新の SIMD (Single Instruction Multiple Data) 機能とマルチコア実行を可能にし、最新の CPU を十分に活用できるように装飾された Python* コード用のジャストインタイム・コンパイラーである Numba Compiler* が含まれています。CPU コードをデバイスコードに書き換えることなく、同じプログラミング・モデルである DPPy (Data Parallel Python) を使って複数のデバイスをプログラミングすることができます。

最適化されたディープラーニング

  • TensorFlow* や PyTorch* など、インテル® アーキテクチャー向けに最適化された一般的なフレームワークを活用することで、インテル® アーキテクチャーの能力を最大限に発揮し、トレーニングや推論において高いパフォーマンスを実現します。
  • インテルが最適化したオープンソースのトレーニング済みマシンラーニング・モデルを使用することで、開発を加速させることができます。
  • 低精度の最適化を用いて、パフォーマンス、モデルサイズ、メモリー・フットプリントなどの追加目標とともに、精度に応じた自動チューニング戦略を活用します。

データ分析とマシンラーニングの高速化

  • インテル® アーキテクチャー向けに最適化された scikit-learn* と XGBoost のアルゴリズムにより、マシンラーニングの精度とパフォーマンスが向上します。
  • インテル® Extension for Scikit-learn* を使用することで、クラスターへのスケールアウトを効率的に行い、分散型マシンラーニングを行うことができます。

高性能な Python*

  • インテル® アーキテクチャー向けに最適化された基本命令セットを備えた、AI およびデータ分析のための最も人気があり、最も成長しているプログラミング言語を活用してください。
  • 既存の Python* コードにドロップインしてパフォーマンスを向上させることで、大規模な科学データセットをより速く処理することができます。
  • 高効率なマルチスレッド化、ベクトル化、メモリー管理を実現し、科学的な計算をクラスター全体で効率的にスケーリングすることができます。

複数ノードのデータフレーム間のスケーリングを簡素化

  • 非常に軽量な並列 DataFrame であるインテル® ディストリビューションの Modin* を使用することで、コードを 1 行変更するだけで pandas* ワークフローをマルチコアおよびマルチノードにシームレスに拡張し、高速化します。
  • OmniSci* のような高性能なバックエンドでデータ分析を加速します。
AI、マシンラーニング、データ アナリティクス、Python、TensorFlow、PyTorch

これらのベンチマークは、インテル® oneAPI AI アナリティクス・ツールキットのパフォーマンスを示すものです。

画像をクリックして詳細をご覧いただけます。

ハードウェア要件

CPU
  • 第 10 世代インテル® Core™ プロセッサー
  • インテル® Xeon® スケーラブル・プロセッサー
アクセラレーター インテル® グラフィックス (GPU) のサポートは将来のリリースで追加される予定です。

ソフトウェア要件

Linux* の要件

CPU Ubuntu* 18.04.1、Ubuntu* 20.04、および CentOS* 7
アクセラレーター インテル® グラフィックス (GPU) のサポートは将来のリリースで追加される予定です。
  • 最新の情報は、製品または評価版に同梱されているリリースノートを参照ください。

購入

技術情報

サポート