インテル® oneAPI AI アナリティクス・ツールキットは、データ・サイエンティスト、AI 開発者、研究者が使い慣れた Python* ツールとフレームワークを提供し、 インテル® アーキテクチャー上でエンドツーエンドのデータサイエンスとアナリティクスのパイプラインを高速化します。 コンポーネントは、低レベルの計算を最適化するインテル® oneAPI ライブラリーを使用して構築されています。 このツールキットは、前処理からマシンラーニングまでのパフォーマンスを最大限に引き出し、効率的なモデル開発のための相互運用性を提供します。
このツールキットを使用するメリットは以下の通りです。
AI 開発支援ゴールド・サポート・サービスにて、当ツールキットに同梱されているインテル® Optimization for TensorFlow* およびインテル® ディストリビューションの Python* 有償サポートを提供いたしております。詳細は AI 開発支援ゴールド・サポート・サービスを参照いただき、お問い合わせください。
またインテル® ディストリビューションの Python* のみ有償サポートをご希望の場合はインテル® oneAPI ベース・ツールキットに同梱されておりますのでこちらをご参照ください。
詳細は、インテル社公開の情報 (英語) を参照ください。
Google* とのコラボレーションにより、TensorFlow* はインテル® oneAPI ディープ・ニューラル・ネットワーク・ライブラリー (インテル® oneDNN) のプリミティブを使用してインテル® アーキテクチャー向けに直接最適化され、パフォーマンスが最大限に発揮されています。本パッケージは、CPU 対応の設定 (--config=mkl) でコンパイルされた最新の TensorFlow* バイナリーバージョンを提供します。
Facebook* とのコラボレーションにより、人気の高いディープラーニングの当フレームワークが、多くのインテルの最適化と直接結びつき、インテル® アーキテクチャー上で優れたパフォーマンスを発揮するようになりました。本パッケージは、最新の PyTorch* リリースの CPU 用バイナリー版を提供し、さらに効率的な分散トレーニングのためのインテル® oneAPI コレクティブ・コミュニケーション・ライブラリー (インテル® oneCCL) によるインテルの拡張機能とバインディングを追加しています。
インテル® Xeon® スケーラブル・プロセッサー向けにインテルが最適化した、人気の高いオープンソースのマシンラーニング・モデルの事前トレーニング済みモデル、サンプルスクリプト、ベスト・プラクティス、ステップバイステップ・チュートリアルにアクセスできます。
インテルが最適化した複数のディープラーニング・フレームワークに対して、統一された低精度推論インターフェイスを提供するオープンソースの Python* ライブラリーです。
シングルノードおよびマルチノードのインテル® CPU および GPU 上の scikit-learn* アプリケーションをシームレスに高速化します。この拡張パッケージは、マシンラーニング・アルゴリズムの高速化を実現しながら、基礎となるソルバーとしてインテル® oneAPI データ・アナリティクス・ライブラリー (インテル® oneDAL) を使用するように scikit-learn* の推定量を動的にパッチします。このツールキットには、必要なパッケージがすべてインストールされた包括的な Python* 環境を提供するため、ストックの scikit-learn* も含まれています。このエクステンションは、scikit-learn* の過去 4 バージョンまでをサポートしており、既存のパッケージを柔軟に使用することができます。
インテルは、XGBoost コミュニティーと協力して、インテル® CPU で優れたパフォーマンスを発揮できるよう、多くの最適化を直接アップストリームしてきました。勾配ブースト決定木のための有名なマシンラーニング・パッケージである XGBoost に、インテル® アーキテクチャー向けのシームレスなドロップインのアクセラレーション機能が追加され、モデルのトレーニングを大幅に高速化し、精度を向上させてより良い予測を実現します。
pandas* と同一の API を持つこのインテリジェントな分散型データフレーム・ライブラリーを使用して、Pandas* ワークフローを高速化し、複数のノードでデータ前処理を拡張します。このライブラリーは、バックエンドの OmniSci* と統合し、分析を加速します。このコンポーネントは、ツールキットの Anaconda* ディストリビューションでのみ利用可能です。ダウンロードおよびインストールするには、インストール・ガイドを参照してください。
インテル® パフォーマンス・ライブラリーを使用して構築された、Python* のコア数値および科学パッケージのアクセラレーションにより、より高いパフォーマンスを実現します。本パッケージには、最新の SIMD (Single Instruction Multiple Data) 機能とマルチコア実行を可能にし、最新の CPU を十分に活用できるように装飾された Python* コード用のジャストインタイム・コンパイラーである Numba Compiler* が含まれています。CPU コードをデバイスコードに書き換えることなく、同じプログラミング・モデルである DPPy (Data Parallel Python) を使って複数のデバイスをプログラミングすることができます。
CPU |
|
---|---|
アクセラレーター | インテル® グラフィックス (GPU) のサポートは将来のリリースで追加される予定です。 |
CPU | Ubuntu* 18.04.1、Ubuntu* 20.04、および CentOS* 7 |
---|---|
アクセラレーター | インテル® グラフィックス (GPU) のサポートは将来のリリースで追加される予定です。 |