機械学習のためのソフトウェアライブラリ

Arm Compute Libraryは、Cortex-A CPU、NeoverseおよびMali GPUアーキテクチャに最適化された低レベルの機械学習関数のコレクションです。このライブラリは、寛容なMITライセンスの下で利用可能なオープンソースソフトウェアです。

Arm Compute Libraryは、他のオープンソースの代替よりも優れたパフォーマンスを提供し、SVE2などの新しいArmテクノロジーを即座にサポートします。

主な特徴

  • CPUおよびGPU用の100以上の機械学習関数
  • 複数の畳み込みアルゴリズム(GEMM、Winograd、FFT、Direct)
  • 複数のデータ型をサポート:FP32、FP16、int8、uint8、BFloat16
  • 主要なMLプリミティブのマイクロアーキテクチャ最適化
  • 高度に設定可能なビルド・オプションにより軽量バイナリを実現
  • Kernel Fusion、高速演算、テクスチャ利用などの高度な最適化技術
  • Open CL tunerおよびGEMM最適化ヒューリスティックを使用したデバイスおよびワークロード固有のチューニング
Compute Libraryをダウンロード

特長とメリット

性能と効率

Arm Compute Libraryは、包括的な機能セットと優れたML性能を提供します。10億台以上のデバイスに導入されているArm Compute Libraryは、世界中の開発者から信頼されており、開発者は差別化と市場投入期間の短縮に集中することができます。

オペレーティングシステムにとらわれない

ライブラリはOSに依存せず、Android、Linux、”ベアメタル”システムに移植可能です。Arm Compute Libraryは、今日、スマートフォン、DTV、スマートカメラ、車載アプリケーションなどで使用されています。

Armベースのプロセッサー向けに実装

Arm Compute Libraryには、Arm Cortex-A CPUおよびArm Mali GPU向けに最適化されたソフトウェア関数が包括的に含まれています。

エキスパートに聞く

複雑なソフトウェアシステムにより、さまざまなモジュールのインターワークと基盤となるハードウェアの機能を理解することが重要です。Armベースのプロセッサーに関する質問がある場合、Armのエキスパートに質問してください。

詳細

より多くのオプションと機能を見る

Arm NN

Arm NNは、既存のNNフレームワークと基盤となるIPとのギャップを埋めます。TensorFlow、Tensorflow Lite、Pytorchなどのフレームワークからのニューラルネットワークの変換を可能にし、Cortex-A CPU、Mali GPU、Ethos-N NPUで効率的に実行できるようにします。

Cortex-A CPU

Cortex-Aプロセッサーシリーズは、豊富なオペレーティングシステムプラットフォームのホストや複数のソフトウェア・アプリケーションのサポートなど、複雑な計算タスク向けに設計されています。

 Mali GPU

グラフィックス技術とGPUコンピュート技術の両方を含むMali GPUは、低消費電力から高性能までのスマートフォン、タブレット、DTV向けのスケーラブルなソリューションの多様な選択肢を提供します。

Arm Compute Library関連情報

プロジェクトでの適切な判断に必要なさまざまな情報を得られます。 テクニカルドキュメント、業界動向、エキスパートによるアドバイスの問い合わせ先が含まれています。

役に立つドキュメント: