インテル® ディストリビューションの Python* 2024

Python* アプリケーションのパフォーマンスを向上する統合パッケージです。
インテル® oneAPI ベース・ツールキットに同梱されています。

詳細はこちら 評価版はこちら
関連情報
[お知らせ一覧]

Python* 向けハイパフォーマンス・ツール

統一されたクロスアーキテクチャー・プログラミング・モデル oneAPI

インテル® ディストリビューションの Python* (powered by Anaconda) は、現代のインテル® プラットフォーム上で Python* アプリケーションのパフォーマンスを向上するためのツールや機能を提供します。

あなたが経験豊富な開発者であろうとワークフローをスピードアップしたいデータ科学者であろうと、インテル® ディストリビューションの Python* は、容易なインストールと厳しいパフォーマンス要件を満たすために最適化済みの Python* パッケージを提供します。Windows*、Linux* がサポートされています。

製品概要については、以下 iSUS の記事も参照ください。

特長

Python* の最大のメリットの1つは、習得や使用が容易だということです。 しかし、インタプリター言語として、Python* は高性能な計算集約型アプリケーションではパフォーマンスが遅いということも知られています。
NumPy、SciPy、pandas、scikit-learn、Jupyter、 matplotlib、および mpi4py などの Python* の計算パッケージをすべて含み、強力なインテル® MKL、インテル® DAAL、pyDAAL、インテル® MPI ライブラリー、インテル® TBB を提供することで、大幅なパフォーマンスを改善を実現できます。

マルチスレッドの Python* ワークロードは、インテル® TBB の最適化されたスレッドのスケジューリングと、インテル® MPI ライブラリーとの効率的な通信を使用して、インテルのマルチコア・アーキテクチャーのパフォーマンスを発揮します。

インテル社から提供されているオールインワンのインストーラーによって 容易に Python* 環境をインストール、管理することができ、Python* アプリケーションのパフォーマンスを向上するとともに、インテル® VTune™ プロファイラーを使うことで正確にチューニングすることができます。

インテル® VTune™ プロファイラーは、ネイティブ拡張、低オーバーヘッドとソースコードの行レベルの詳細情報を使用して、Python* コードの明らかな、または明らかでないパフォーマンス・ボトルネックを特定するパフォーマンス・アナライザーです。

インテル® パフォーマンス・ライブラリー、解析ツールの詳細は以下ページを参照ください。

スイート製品に同梱

インテル® ディストリビューションの Python* は単体で販売されておりません。以下製品に同梱されます。

インテル® oneAPI ベース・ツールキット

1 つのプログラミング・モデルで複数のアーキテクチャー (CPU、GPU、FPGA) にわたって高いパフォーマンスを発揮できるコードの開発を支援します。

インテル® oneAPI ベース & HPC ツールキット

C/C++、Fortran コンパイラーと MPI 開発ツールにより、CPU およびアクセラレーターまたはそれらのクラスターへ最適化された HPC アプリケーションの開発を支援します。

インテル® oneAPI ベース & レンダリング・ツールキット

さまざまなレンダリング・ツールにより、優れたビジュアライゼーション・アプリケーションやソリューションの開発を支援します。

バージョン 2024 の機能

主に以下の機能をご利用いただけます。詳細は、リリースノートおよび インテル社公開の情報を参照ください。
同梱ライブラリー、ツールの新機能については各製品ページを参照ください。

  • oneAPI 標準に基づくツールを利用した Python* 向けデータ並列拡張により、CPU と GPU 向けアクセラレーションを、ベンダー固有の API に依存しない形で開発できるようになりました。
  • Python* の数値計算で最もよく利用されるライブラリーの 1 つ、NumPy* の API サブセットをそのまま置換できる NumPy* 向けデータ並列拡張(dpnp) により、CPU と GPU の双方でパフォーマンスを向上できます。
  • また Numba 向けデータ並列拡張 (numba-dpex) により、Python* 向けの JIT コンパイラー・モジュール Numba を用いて CPU と GPU で同様にプログラミングを行えます。

ダイレクト ・プログラミングを実現するデータ並列 C++ (DPC++) コンパイラー

数値解析において、グローバル・インタープリター・ロック(GIL)を持つインタプリタ言語である Python* は、一般的に HPC 向けに使用されるコンパイル言語よりも本質的に遅くなります。しかし、Python* は、そのシンプルさと開発スピードの速さで知られています。インテル® ディストリビューションの Python* (powered by Anaconda) は、その特性を活用して、この基本的なパフォーマンスの課題に対処します。

  • インテル® MKL と Python* 計算パッケージ (NumPy、SciPy および scikit-learn) でパフォーマンスを強化
  • Python* パッケージとしてインテル® TBB ライブラリーを使い、スレッドのスケジューリングを合理化
  • ジャストインタイム(JIT)コンパイルを通して、Numba でコード実行を高速化
  • mpi4py と Cythonおよびインテル® MPI ライブラリーを通して、パフォーマンスを向上
  • pyDAAL を通じて、インテル® DAAL との強力なデータ分析とニューラルネットワーク機能を実装
  • conda* と PIP を使用して簡単にインストール可能

容易なインストール

1回のインストールで、データーサイエンスと科学計算のためのコアパッケージを得られます。 すべてのパッケージはバイナリーで自己完結型なので、コンパイラーや追加のライブラリーをインストールする必要はありません。

相互運用性

サードパーティー・パッケージのインストールに Conda* または PIP* を使用

スケーラビリティー

インテル® ディストリビューションの Python* を使って、インテル® Xeon Phi™ プロセッサー向けにスケールリングできます。業界をリードするインテル® MPI ライブラリーと併せて mpi4py を提供します。 NumPy と SciPy は、多くのアルゴリズム向けに自動的に複数コアを使用します。効率的なスレッドのスケジューリングのためのインテル® TBB を使用します。

パフォーマンス

Python* の使いやすさとネイティブコードのパフォーマンスの組み合わせで開発を効率化、パフォーマンスを向上。インテル® ディストリビューションの Python* は、インテル® MKL およびその他のライブラリーを使用して、最新インテル® Core™、インテル® Xeon®、およびインテル® Xeon Phi™ プロセッサーを最適化します。インテル® ディストリビューションの Python* を使うことで、通常はコードを変更することなくインテル® AVX とマルチコア・プロセッサーのパフォーマンスを発揮できます。

パフォーマンス・ベンチマーク

ペンチマークについては、本ページ下部に掲載されている法務上の注意書きも併せてご参照してください。

線形代数とNumPyユニバーサル関数

これらの関数は、Python* での数値計算のビルディング・ブロックです。インテル® ディストリビューションの Python* は、インテル® AVX とマルチコアのパフォーマンス特典を利用して、サーバーで最大 200 倍、デスクトップ・システムで 10 倍高速にキールーチンを実行します。 このディストリビューションでは、BLAS および LAPACK にインテル® MKL を使用しています。汎用関数の場合、インテル® コンパイラーとベクトル演算ライブラリーを使用します。

インテル® Xeon Phi™ プロセッサーでは、ベクトル - ベクトルと、ベクトル - スカラーの NumPy 算術演算と超越数演算が最大 400 倍まで高速化されます。次のベンチマークは、Black-Scholes 関数をベンチマークすることによって、算術および超越式の高速化のスケールを示しています。

これらのベンチマークは、インテル® ディストリビューションの Python* と Black-Scholes を使用したスピードアップを実証しています。

このセットは、インテル® ディストリビューションの Python* と Black-Scholes 式を使用したスピードアップを実証しています。これらの結果は、インテル® MKL と併せてネイティブ C を実行することによって得られたパフォーマンスを、パーセンテージで表しています。

Scikit-learn*

最適化された SciPy ライブラリーと NumPy パッケージは、機械学習の最も一般的なパッケージの 1 つである scikit-learn の広範なスピードアップを提供します。また、インテル® DAAL を利用して、scikit-learn 内の選択されたアルゴリズムに最大 140 倍のスピードを実現しています。

高速フーリエ変換(FFT)

FFTは、信号処理および画像処理において最も重要なアルゴリズムの 1 つです。NumPy と SciPy で FFT を最適化し、現実的で複雑な、一次元および多次元のインプレースおよびアウトオブプレイスの結果を得て、パフォーマンスを最大 60 倍向上させます。

乱数ジェネレーターと一般的なディストリビューションによるパフォーマンス向上

乱数を生成する際、通常、モンテカルロ・シミュレーションと暗号化でボトルネックが発生します。インテル® ディストリビューションの Python* は、さまざまなディストリビューションの生成を最大 56 倍高速化することでこの問題を解決します。インテル® ディストリビューションの Python* の numpy.random_intel パッケージは、Numpy の拡張機能で、numpy.random のデザインを密接に反映し、インテル® MKL のベクトル統計を使用して大幅なパフォーマンス向上を実現します。

次の表は、一般的なディストリビューションによるパフォーマンスの改善を示しています。 (100,000 回のサンプリング、256 回繰り返し)

ディストリビューション タイミング(random)
秒あたり
タイミング(random_intel)
秒あたり
スピードアップ・ファクター
uniform(-1. 1) 0.357 0.034 10.52
normal(0, 1) 0.834 0.081 10.35
gamma(5.2, 1) 1.399 0.267 5.25
beta(0.7, 2.5) 3.677 0.556 6.61
randint(0. 100) 0.228 0.053 4.33
poisson(7.6) 2.990 0.052 57.44
hypergeometric(214, 97, 83) 11.353 0.517 21.96

法務上の注意書き ※1

全てのベンチマークのシステム構成:

Python* ベンチマーク (英語)

ソフトウェア:

Linux*: Ubuntu*、Python* 3.5.2、NumPy* 1.12.1 (pip でインストール)、scikit-learn 0.18.1
Windows*: Python* 3.5.2、NumPy* 1.12.1 (pip でインストール)、scikit-learn 0.18.1、インテル® ディストリビューションの Python* 2017 Update 2

ハードウェア:

インテル® Core™ i5-4300M プロセッサー、2.60GHz および 2.59GHz (1 ソケット、2 コア、コアあたり 2 スレッド)、8GB DRAM。インテル® Xeon® プロセッサー E5-2698、2.30GHz (2 ソケット、1 ソケットあたり 16 コア、コアあたり 1 スレッド)、64GB DRAM。インテル® Xeon Phi™ プロセッサー 7210、1.30GHz (1 ソケット、64 コア、コアあたり 4 スレッド)、32GB DRAM、16GB MCDRAM (フラット・メモリー・モード)。

変更:

scikit-learn: Windows* 上で conda でインストールされた NumPy* とインテル® MKL を使用 (Windows* 上で pip でインストールされた SciPy* はインテル® MKL の依存性を含む)。インテル® Core™ i5 プロセッサーのブラックショールズ: Windows* 上で pip でインストールされた NumPy* と conda でインストールされた SciPy* を使用。

※1 性能に関するテストに使用されるソフトウェアとワークロードは、性能がインテル® マイクロプロセッサー用に最適化されていることがあります。SYSmark* や MobileMark* などの性能テストは、特定のコンピューター・システム、コンポーネント、ソフトウェア、操作、機能に基づいて行ったものです。結果はこれらの要因によって異なります。製品の購入を検討される場合は、他の製品と組み合わせた場合の本製品の性能など、ほかの情報や性能テストも参考にして、パフォーマンスを総合的に評価することをお勧めします。詳細については、 www.intel.com/benchmarks (英語) を参照してください。

最適化に関する注意事項: インテル® コンパイラーでは、インテル® マイクロプロセッサーに限定されない最適化に関して、他社製マイクロプロセッサー用に同等の最適化を行えないことがあります。これには、インテル® ストリーミング SIMD 拡張命令 2、インテル® ストリーミング SIMD 拡張命令 3、インテル® ストリーミング SIMD 拡張命令 3 補足命令などの最適化が該当します。インテルは、他社製マイクロプロセッサーに関して、いかなる最適化の利用、機能、または効果も保証いたしません。本製品のマイクロプロセッサー依存の最適化は、インテル® マイクロプロセッサーでの使用を前提としています。インテル® マイクロアーキテクチャーに限定されない最適化のなかにも、インテル® マイクロプロセッサー用のものがあります。この注意事項で言及した命令セットの詳細については、該当する製品のユーザー・リファレンス・ガイドを参照してください。注意事項の改訂 #20110804

本ページに、ドキュメント一覧が表示されない場合は、ご利用のブラウザの JavaScript を ON にしていただくか、 こちらのドキュメント・ページをご覧ください。

製品セミナーや関連イベントをご紹介。

米インテル社の製品情報を日本語に翻訳して公開中。

Python*、ネイティブ C および C++ が混同するコードのアプリケーションにおいて、パフォーマンス・ホットスポットを素早く正確に特定できるパフォーマンス・プロファイラーです。

CPU プロセッサー
  • インテル® Atom® プロセッサー
  • インテル® Core™ プロセッサー・ファミリー
  • インテル® Xeon® プロセッサー・ファミリー
  • インテル® Xeon® スケーラブル・パフォーマンス・プロセッサー・ファミリー
GPU アクセラレーター
  • 第 6 世代インテル® Core™ プロセッサーまたはそれ以降
  • インテル® Iris® Plus グラフィックス
  • インテル® Iris® Xe グラフィックス
  • インテル® Iris® Xe Max グラフィックス
  • インテル® Iris® グラフィックス
  • インテル® Iris® Pro グラフィックス
グラフィックス・ドライバー

Windows* 向けインテル® グラフィックス・ドライバー

ご利用中のデバイスに適したリンクの手順に沿って、ドライバーをインストールしてください。

Linux* オペレーティング・システム向けの汎用 GPU ドライバー

インテルの GPU につきましては、こちらの記事からご利用中のデバイスに適した手順をご確認ください。

オペレーティング・システム
  • Ubuntu* (64 ビット) 20.04 (非推奨)、22.04 (CPU および GPU)
  • Windows* Pro および Enterprise (64 ビット) 10 (CPU および GPU)
  • Windows* Pro および Enterprise (64 ビット) 11 (GPU のみ)
  • Microsoft* Windows Subsystem for Linux 2 (WSL2) では、インテル® ソフトウェア開発ツールおよびライブラリーの Linux* ネイティブ・ディストリビューションを Windows* で使用できます。使用方法については、こちらのページ (英語) を参照してください。

  • Windows Server* 2019、2022 (CPU および GPU)
  • Red Hat* Enterprise Linux* 8、9 (CPU および GPU)
  • Fedora* 36、37 (CPU のみ)
  • SUSE* Linux Enterprise Server* 15 SP3 (非推奨)、15 SP4 (CPU および GPU)
言語

Python* 3.9

Python* パッケージ

インテル® ディストリビューションの Python* に含まれるインテル® 最適化済みパッケージ・リストは こちらのページ (英語)をご覧ださい。
インテル® ディストリビューションの Python* に含まれる全てのパッケージのリストは こちらのページ (英語)をご覧ださい。

関連ツール インテル® VTune™ プロファイラーによる Python*、C、C++ 向けパフォーマンス分析
  • 最新の情報は、製品または評価版に同梱されているリリースノートを参照ください。

お知らせ

2022年12月19日、インテル® ディストリビューションの Python* 2023 が同梱されるインテル® oneAPI 2023 の販売を開始しました。

過去に製品をご購入いただき、現在有効なサポートサービスをお持ちのお客様は、すぐにバージョン 2023 を無料でダウンロードしてご利用いただけます。

2021年 12月 23日、インテル® ディストリビューションの Python* 2022 が同梱されるインテル® oneAPI 2022 の販売を開始しました。

過去に製品をご購入いただき、現在有効なサポートサービスをお持ちのお客様は、すぐにバージョン 2022 を無料でダウンロードしてご利用いただけます。

  • インテル® ディストリビューションの Python* は、単体製品としては販売されておりません。

2020年 12月 9日、インテル® ディストリビューションの Python* 2021 が同梱されるインテル® oneAPI 2021 の販売を開始しました。

過去に製品をご購入いただき、現在有効なサポートサービスをお持ちのお客様は、すぐにバージョン 2021 を無料でダウンロードしてご利用いただけます。

  • インテル® ディストリビューションの Python* は、単体製品としては販売されておりません。

2019年 12月 18日、インテル® ディストリビューションの Python* 2020 を同梱したインテル® Parallel Studio XE 2020 の販売を開始しました。

過去にインテル® Parallel Studio XE 製品をご購入いただき、現在有効なサポートサービスをお持ちのお客様は、すぐにバージョン 2020 を無料でダウンロードしてご利用いただけます。

  • インテル® ディストリビューションの Python* は、単体製品としては販売されておりません。

2018年 9月 13日、インテル® ディストリビューションの Python* 2019 を同梱したインテル® Parallel Studio XE 2019 の販売を開始しました。

過去にインテル® Parallel Studio XE 製品をご購入いただき、現在有効なサポートサービスをお持ちのお客様は、すぐにバージョン 2019 を無料でダウンロードしてご利用いただけます。

  • インテル® ディストリビューションの Python* は、単体製品としては販売されておりません。

FAQ

インテル® Parallel Studio XE の評価版をお申し込みいただくと、コンポーネント・ツールとして、インテル® ディストリビューションの Python* をご利用いただけます。

インテル® Parallel Studio XE の評価版は、 こちらからダウンロードできます。

インテル® ディストリビューションの Python* は、Windows® (7 以降)、Linux* プラットフォームと Python* 2/3 をサポートしています。特定バージョンについての詳細は、 リリースノートを参照してください。

スタンドアロンのインテル® ディストリビューションの Python* は無料で利用できます。フォーラムサポートのみ含まれています。インテル® プレミアサポートは、 インテル® Parallel Studio XE のライセンスを購入すると利用できます。

いいえ。インテル® ディストリビューションの Python* の商用/非商用利用に制限はありません。

インテル® ディストリビューションの Python* は無料で利用できます。フォーラムサポートのみ含まれています。インテル® プレミアサポートは、インテル® Parallel Studio XE を購入すると利用できます。

インテル® プレミアサポートを利用可能なインテル® Parallel Studio XE のライセンスをお持ちの場合は、インテル® ディストリビューションの Python* についてもインテル® プレミアサポートを利用できます。

役立つ記事およびユーザーフォーラムへのリンクは、 www.isus.jp/python-distribution/ (英語) を参照してください。

インテル® ディストリビューションの Python* は、Python* のパフォーマンスを向上してネイティブコードの速度に近づけることに焦点を当てています。そのために、ハイパフォーマンスな Python* アプリケーションを生成するための複数のツール、手法および最適化機能が用意されています。例えば、インテル® マス・カーネル・ライブラリー (インテル® MKL) のようなネイティブ・パフォーマンス・ライブラリーによる NumPy*/SciPy*/scikit-learn の高速化、インテル® スレッディング・ビルディング・ブロック (インテル® TBB) によるスレッド化の拡張、pyDAAL、Numba、Cython による高度なデータ解析などの最適化を簡単に行うことができます。

はい。セルフブート型のインテル® Xeon Phi™ プロセッサーをお持ちの方は、追加の指示に従う必要はありません。自動オフロードが必要なインテル® Xeon Phi™ コプロセッサーをお持ちの方は、 インテル® ディストリビューションの Python* の使用 (英語) の指示に従ってください。 詳細は、 リリースノートを参照してください。

インテル社のページからお申し込みください。

なお、無償のインテル® ディストリビューションの Python* には製品サポートは含まれておりません。
ご不明点等は インテル社のフォーラム (英語)をご利用ください。

  • インテル® Parallel Studio XE を購入された場合は、インテル® ディストリビューションの Python* についてもサポートサービスが提供されます。

インテル® レジストレーション・センターで操作します。
操作手順やよくあるご質問、トラブルシューティングは、インテル ® レジストレーション・センター操作マニュアルを参照ください。

» マニュアルはこちら

最新版、または旧バージョンのダウンロードは、インテル® レジストレーション・センターで行います。
詳細は以下ページを参照ください。

» 製品登録 & ダウンロード

以下の情報を参照してください。