クラウドからエッジまで AI アクセシビリティーを拡張して生成 AI のパワーを解き放つ


この記事は、インテル® コミュニティーのブログに公開されている「Extending AI Accessibility Across Cloud to Edge and Unleashing the Power of Gen AI」の日本語参考訳です。原文は更新される可能性があります。原文と翻訳文の内容が異なる場合は原文を優先してください。


過去数年間で、コンテンツ作成からパーソナル・アシスタント、自動運転車、ヘルスケアなどに至るまで、あらゆる場所で AI テクノロジーの使用が爆発的に増加しました。インテル コーポレーションの VP 兼インテル® Xeon® 製品 & ソリューション事業本部長の Lisa Spelman は、CES 2024 の Great Minds 基調講演 (英語) で、クラウドからエッジまで AI のパワーを解き放つため、企業がどのように最先端のテクノロジーを活用しているかについて述べました。数十年にわたる研究と投資、インフラストラクチャーのクラウド化と規模拡大により、マシンラーニング (英語) からより高度なディープラーニングや生成 AI (英語) に至るまで、AI ワークロードは加速しました。モデルのインテリジェンスとマシンの自律性の向上により、開発者はさらに多くのソリューションを作成できるようになります。インテルは、AI PC から強力なデータセンター AI アクセラレーターまで、そしてエッジからクラウドまで、コンピューティングのユビキタス性と柔軟性により、誰もが AI にアクセスできるように取り組んでいます。また、すべての開発者が責任ある AI 開発とデプロイを容易に行えるようにオープン・エコシステムにも注力しています。

Iterate.ai* によるモデルの改善

インテルの AI ハードウェアおよびソフトウェア・ソリューションを利用して、開発者は AI を簡単に活用し、ソリューションの限界を押し広げることができます。Iterate.ai* は、ローコードの AI プラットフォームと、AI ソリューションを簡単かつ迅速に構築できるようにする既製のアプリケーションにより、AI ソリューションの開発と実装を支援しています。Iterate.ai* のコンピューター・ビジョン・アプリケーションは、ナンバープレート認識などのユースケースに応じて 4,000 のエッジ・インスタンスにスケーリングされ、OpenVINO™ ツールキットを利用して CPU 効率と負荷管理を 300% 向上します。Iterate.ai* は、迅速な市場投入、コンピューティングの可用性、使いやすさ、費用対効果の高さから、インテル® Xeon® CPU を利用しています。インテル® Xeon® CPU は、DeepSpeed* 向けインテル® エクステンション (英語) などのソフトウェア最適化を使用して、Iterate.ai* のアプリケーションをさらに最適化します。

Iterate.ai* は、Ulta Beauty などの企業と協力し、顧客体験を向上させる生成 AI ソリューションを開発しています。美容パーソナライゼーション・プラットフォームである Ulta Beauty Quazi* は、Iterate Interplay プラットフォーム上に構築されています。パーソナライズされた推奨と関連性の高い検索を提供し、強力なデータへのアクセスと大規模な AI ソリューションの適用を容易にします。高効率のインテル® Xeon® CPU 上で動作する Interplay とソフトウェアの最適化により、Quazi* は計算を 75% 削減し、メモリー使用を 5% 削減して、インフラストラクチャーの縮小とコスト削減を実現しています。

生成 AI とハイパフォーマンス・コンピューティングの人気の高まりに伴い、電力効率を維持しながら計算能力を向上させることが求められています。ソリューション要件とモデルサイズに応じて適切なコンピューティングを使用することで、最高の費用対効果のソリューションを実現できます。インテル® Xeon® CPU には、生成 AI ワークロードのパフォーマンスを最大 5 倍向上させる特殊なハードウェアとソフトウェアのチューニングが含まれています。さらに、インテル® Gaudi®2 アクセラレーターは、負荷の高いトレーニングと大規模なデータセットを処理できるように構築されており、AI PC の基盤となります。これらのエンドツーエンドのソリューションは、さまざまな AI ソリューションのニーズに基づいて最適化されたインフラストラクチャーを可能にします。Databricks* は、Llama v2 70B パラメーター・モデルにおいて、インテル® Gaudi®2 が最も優れた 1 ドルあたりのモデルと推論パフォーマンスを提供することを発見しました。

インテルはオープンソース・コミュニティーに継続的に注力し、PyTorch* (英語)、TensorFlow* (英語)、ONNX*、DeepSpeed*、Hugging Face* などの人気のあるツールやフレームワークに貢献することでオープンな基盤を構築してきました。オープン性への取り組みと、ソフトウェアの最適化を通じて最高のパフォーマンス効率を実現する取り組みは、インテルの基盤の一部です。AI をあらゆる場所に導入するには、開発者が AI ソリューションを容易に作成できるようにすることが重要です。

生成 AI によるコード生成デモ

コード生成支援は、開発者の生産性を向上するツールとして人気が高まっており、さらに成長する可能性があります。インテル コーポレーションの VP 兼人工知能 & アナリティクス事業本部長の Wei Li は、コード生成のデモを披露し、インテルの Copilot を使用して、いくつかのプロンプトを通じて特殊なチャットボットを作成する方法を示しました。AI アクセラレーターとインテルの Copilot を使用して、開始点としてシンプルなチャットボットを作成し、コードを変更してタイトル機能を追加しました。インテルの Copilot は、Transformers* 向けインテル® エクステンション (ITREX) (英語) 上に構築されており、PC 上で Copilot チャットを実行したり、サーバー上でコード生成を実行でき、スマート・モデル・スイッチが含まれています。チャットボットのデモでは、インテル® Gaudi®2 アクセラレーターで大規模な言語モデルを実行してコードを生成し、AI PC でコードの改善を生成し、チャットボット自体にはインテル® Xeon® CPU を使用しました。

さまざまなハードウェアで実行するには、インテル® oneAPI などのツールを使用してハードウェアの違いを抽象化できます。インテルの Copilot は、PyTorch*、Hugging Face*、DeepSpeed* などの AI フレームワークも利用します。インテル® oneAPI のような AI ツール (英語) とフレームワーク (英語) の最適化は、開発者が下位レベルのハードウェアの違いを気にすることなく、さまざまなプラットフォームでよりシームレスにソリューションを開発できるようにします。

インテルは、特に AI 分野のオープンソース・エコシステムに注力しています。主要な AI フレームワークである PyTorch* のトップ 3 貢献企業の 1 つであり、大規模言語モデルのリーダーである Hugging Face と協力して、トランスフォーマーを拡張するインテル® ITREX (英語) の開発にも取り組んでいます。インテル® ITREX は、7B パラメーター LLM の Hugging Face* リーダーボードで第 1 位を獲得しました。開発者がモデル、データセット、トレーニング・ソフトウェアを確認できるオープンソース・モデルは、責任ある AI を開発するための鍵となります。責任ある AI の開発を促進するため、インテルは MLCommons* AI Safety (AIS) イニシアチブの創設者として、Google やスタンフォード大学などのパートナーと協力して、オープン AI の新しい標準を作成しています。AI にとって重要なもう 1 つの原則はセキュリティーです。インテルのコンフィデンシャル・コンピューティングは、トラストドメイン拡張テクノロジーを使用してデータを分離し、保護します。

Unified Acceleration Foundation (UXL) (英語) の一員として、インテルは他の業界リーダーと協力してオープン・スタンダードのアクセラレーター・ソフトウェア・エコシステムを推進し、オープン・スタンダードを中心としたヘテロジニアス・コンピューティング・エコシステムの統合に取り組んでいます。oneAPI (英語) のようなツールは、アーキテクチャー全体で共通の開発者体験をもたらすオープンで統一されたマルチベンダー・プログラミング・モデルを提供し、AI アプリケーションのパフォーマンスを高速化し、イノベーションを促進します。

Accenture による生成 AI ツール

Accenture は、生成 AI を使用して、提携するすべてのブランドで AI の使用を拡大しています。例えば、マクドナルドとの提携では、エッジ、コンピューター・ビジョン (英語)、および生成 AI ソリューションを使用して店内のレイアウトとサプライチェーンを改善し、Telco との提携では、インテルの強力なデジタル基盤を利用して、顧客サービスを 30%、顧客満足度を 60%、それぞれ向上しました。Accenture は、汎用 AI にインテル® Xeon® CPU を利用することで、サブ 10B パラメーター・モデルなどのワークロード推論においてコスト競争力のあるソリューションを提供しています。また、インテルの活用により、インテル® Gaudi® 2 を使用して小規模なワークロード推論を LLM に拡張するなど、簡単かつ迅速に拡張することも可能です。Accenture はインテル® デベロッパー・クラウド上に生成 AI サンドボックスを開発し、顧客がモデルを迅速に実験できるようにしました。例えば、大手電力会社では、このサンドボックスを利用し、画像と自然言語を組み合わせたカスタム・マルチモーダル・モデルをスキャンした資産ドキュメントを使用して、資産管理の生成 AI の実験を 1 カ月もかからずに開始することができました。インテル® デベロッパー・クラウドは、開発者が AI ワークロードをさらに最適化できるように、さまざまなインテル・ハードウェアおよびインテルにより最適化されたソフトウェア・スタックを利用して、低コストで迅速に構築および拡張できるプラットフォームを提供します。

さまざまなパートナーとの多くの事例を通じて、顧客体験の向上、新たなユースケースの考案、生産性の向上など、AI がどのように業界に変革をもたらしているかがわかります。パフォーマンスを向上するコンピューティングのユビキタス性と柔軟性、デプロイの容易性を高めるオープン性、そして責任ある開発、データ・セキュリティー、デプロイが、インテルの AI 開発の 3 つの基本原則であり、AI をあらゆる場所に導入するため、当社ではこれらに取り組んでいます。

ぜひ、インテルの AI ツール (英語) とフレームワークの最適化をチェックし、インテルの AI ソフトウェア・ポートフォリオの基盤を形成する、統一されたオープンな標準ベースの oneAPI プログラミング・モデルについて学んでください。また、インテル® デベロッパー・クラウドで最新の AI ハードウェアと最適化されたソフトウェアをお試しいただき、次の革新的な AI プロジェクトの開発とデプロイにお役立てください!


インテル® デベロッパー・クラウド有償サービスのご案内

エクセルソフトでは、日本語での購入サポートを通して、ご希望の利用期間やハードウェア構成に合わせた有償サービスプランを提供しています。エクセルソフトの購入サポートをご利用いただいた場合、通常のクレジットカードでの支払い (米国ドル) に代わり、日本円かつ請求書払いでご購入いただけます。

インテル® ソフトウェア開発ツール日本語サポートのご案内

エクセルソフトでは、インテル® デベロッパー・クラウドで利用可能な一部のハードウェア構成でもインストールされている、インテル® ソフトウェア開発ツールの技術サポートを日本語で提供しています。