世界中の開発者のためのシームレスなAIアクセラレーション

AIの機会を最大限に活用するため、開発者は、それぞれの特定のワークロードに最適なパフォーマンスが必要であるほか、最速のAI導入方法にアクセスできる必要があります。Armは、Armプラットフォーム全体にわたるAIパフォーマンスを最大化し、すべての開発者、すべてのモデル、すべてのワークロードにシームレスなアクセラレーションを確約することに専念しています。

Arm KleidiでCPUパフォーマンスにおいてかつてないAIを実現

すべてのArmプラットフォームの中心にあるのがArm CPUです。そのユビキタス性は、ディープラーニングと生成AIを含む多くのAI推論ワークロードに柔軟性とエネルギー効率に優れたターゲットを提供します。ギリシャ語の「鍵」にヒントを得たArm Kleidiは、これらのワークロードがベースとなるArm Cortex-AまたはArm Neoverse CPUから最大限の性能を引き出せるよう確約することに重点を置いています。

 

 

Arm Kleidiの柱

Arm Kleidi Libraries Pillar infographic_vertical

主要なパートナーとのコラボレーションによりあらゆる場所でAIアクセラレーションを解放

Arm Kleidiは、主要なAIフレームワーク、クラウドサービスプロバイダー、ML ISVコミュニティとのコラボレーションを通じ、開発者による追加作業や専門知識を必要とすることなく、数十億のワークロードにフルMLスタック、即時の推論性能改善を提供することを使命としています。

PyTorch

ArmはPyTorchコミュニティと緊密に連携し、PyTorchで動作するモデルがArmで動作するよう確約することで、最も過酷なAIワークロードにもシームレスなアクセラレーションを実現します。

language processing icon

BERT-Large

Armは、主要な実行モード、Eager Mode、Graph Modeの最適化を含め、Arm CPUでのPyTorchの推論性能向上に取り組んでいます。

Kleidiの統合により、Llamaモデルの推論を最大18倍、Gemma 2 2Bを15倍、そしてBert-Largeでの2.2倍向上を含む自然言語処理(NLP)モデルのパフォーマンスを向上させます。

customer service icon

Llama 3.1 8B

Arm Neoverse V2ベースのGraviton4プロセッサーを使用し、PyTorchに適用したKleidiAIの最適化で、チャットボットのデモではトークン生成率が12倍向上されると見積もられています。

このデモは、既存のArmベースのコンピュート能力を利用し、LLMを使用したAIアプリケーションを容易に構築できることを示しています。

text summary icon

RoBERTa

AWSはArmと連携し、oneDNNを使用してArmコンピューティングライブラリ(ACL)カーネルで、Neoverse V1ベースのGraviton3プロセッサー向けにPyTorch torch.compile機能を最適化しました。

この最適化により、Hugging Faceで最も一般的なNLPモデルの推論性能が最大2倍になります。

text transcription icon

FunASR Paraformer-Large

FunASRは、Alibaba DAMO Academyにより開発された高度なオープンソース自動音声認識(ASR)ツールキットです。

oneDNNを介してACLをPyTorchと統合することで、Neoverse N2ベースのAliCloud Yitian710プロセッサーにおけるParaformerモデルの実行時、2.3倍のパフォーマンス向上を実現しました。

ExecuTorch

Armと軽量MLフレームワークであるExecuTorchを組み合わせることで、エッジでの効率的なオンデバイス推論機能が実現します。

Chat summary icon

Llama 3.2 1B

ArmとMetaの協力により、AI開発者は量子化されたLlama 3.2モデルをArm CPU上でこれまでより最大20%速く実行できるようになりました。

KleidiAIをExecuTorchと統合し、最適化された量子化スキームを開発することで、モバイル上の生成AIワークロードのプリフィルステージで350トークン/秒を超える速度を達成しました。

Llama.cpp

LLM推論に関するArmベースCPUの能力を示すために、Armとそのパートナーは、llama.cppで実装されているint4カーネルとint8カーネルを最適化し、これらのより新しい命令を活用できるようにしています。

virtual assistant icon

Phi 3 3.8B

Armの最適化により、Microsoft Phi 3 LLMのTTFTは、プレミアムスマートフォンで使用されるArm Cortex-X925 CPUでのチャットボットデモ実行時、約190%のアクセラレーションを達成しています。

text generation icon

Llama 3 8B

Armで最適化したGraviton3プロセッサーでのテキスト生成デモ実行では、TTFTで2.5倍のパフォーマンス向上、テキスト生成フェーズで毎秒35トークン以上と、リアルタイムのユースケースには十二分の性能を達成しています。

MediaPipe

MediaPipeとXNNPACKでのArmとGoogle AI Edgeのパートナーシップは、現在そして未来のArm CPUでAIワークロードを加速させています。これは、開発者がモバイル、ウェブ、エッジ、そしてIoTで卓越したAIパフォーマンスを実現することを可能にします。

education icon

Gemma 1 2B

ArmはGoogle AI Edgeと連携し、GemmaやFalconなど数多くのLLMをサポートするGoogleのMediaPipeフレームワークにKleidiAIを統合しました。

XNNPACKを通じたKleidiAIの統合により、ArmベースのプレミアムスマートフォンにおけるGemma 2B LLMでのチャットボットデモ実行時、TTFTの30%加速を実現しました。

Hunyuan

TencentのHunyuan AIフレームワークは、スマートフォンを含む幅広いデバイスでAI機能を実現する汎用モデル、Hunyuan LLMをサポートします。

chat box icon

Hunyuan

Armは、LLMが100Bを超えるパラメーターを擁するHunyuanにKleidiテクノロジーを組み込むためにTencentと協力してきました。

2024 Tencent Global Digital Ecosystem Summitで発表されたこのパートナーシップは、実世界のワークロードにポジティブな影響を与えるものです。

CPUのパフォーマンスを加速させるための重要な開発者向けテクノロジー

Arm Kleidiは、AIモデルの能力、正確性、スピードを進化させる最新の開発者向けイネーブルメントテクノロジーを含んでいます。

KleidiAIおよびKleidiCVライブラリは、機械学習(ML)やコンピュータービジョン(CV)フレームワークを容易にし、Arm CPUベースの設計において最適なパフォーマンスを目指すとともに、AIとCVを強化する最新機能を活用するために設計された軽量カーネルです。

Cortex-AおよびNeoverse CPUに最適化されたML機能の独立系ソフトウェアベンダーによるソーシングを可能にする、包括的かつ柔軟なライブラリです。このライブラリはOSに依存せず、Android、Linux、ベアメタルシステムに移植できます。

AIの導入を簡素化

AIの導入を簡素化

Armは、開発者によるAI導入の容易さとスピードを最大化することにコミットしています。Kleidiは、数百万人にAI最適化をアクセス可能にするさまざまな方法の1つに過ぎません。

AIソフトウェアを探す
Armv9 AI on CPU

CPUパフォーマンスを大規模に解き放つ

Kleidiは、Arm NeoverseおよびArm Cortex-A CPUのフルレンジにわたり最適化を容易にします。これらのテクノロジーは、Arm Scalable Vector Extensions(SVE)やArm Scalable Matrix Extensions(SME)など、AIパフォーマンスのアクセラレーションをターゲットとするArmアーキテクチャの高度な機能を活用しています。

CPU推論

Armから最新のAI関連ニュースを受け取るご登録はこちら

ニュースレターにサインアップ