大規模に生成AIを実現

生成AIの爆発的な普及は始まったばかりです。Boston Consulting Groupの予測によれば、AIはエネルギー消費を推定3倍増加させ、生成AIは単独でその1%を占めるとされており、今日の電力網に課題を突き付けています。一方、大規模言語モデル(LLM)は時間経過とともに効率が高まり、エッジで大規模に展開される推論は急速に増加すると見込まれています。この成長はすでに始まっており、今後の課題に対応するために、テクノロジーエコシステムはArmを基盤として生成AIを展開しています。

生成AIの未来を築く、Armで

ExecuTorchでエッジにおける生成AIのパフォーマンスを最適化

Metaとの協力を通じて、Armは数十億台ものエッジデバイスでAIを利用できるようにしています。Armは、テキスト生成や要約からリアルタイムのバーチャルアシスタントやAIエージェントまで、推論ワークロードの高速化を支援します。

小規模言語モデル(SLM)による効率的なコード生成の実現

SLMは、コストを抑え、アクセシビリティと効率を高めた、カスタムAIソリューションを提供します。SLMはカスタマイズとコントロールが容易なため、コンテンツやコード生成など幅広いアプリケーションに最適です。

ArmベースのAWS Graviton3 CPUでトップクラスのテキスト生成を実現

Arm NeoverseベースのGravitonプロセッサーなどのサーバーCPUは、より小規模で、より焦点を絞ったLLMを生成AIのアプリケーションで展開しようとしている開発者に、パフォーマンス、コスト効率、柔軟性に優れたオプションを提供します。

ユースケース

スマートフォンでの生成AI

 
 
 
ブログを読む

生成AIはCPUで始まる

Inference on Arm CPUs

Armテクノロジーは、大規模なAIアクセラレーションに効率的な基盤を提供し、電話やPC、そしてデータセンターでの生成AI実行を可能にします。これは、CPUアーキテクチャでのベクトルおよびマトリクス処理において、Armが20年にわたり取り組んできたアーキテクチャイノベーションの成果です。

これらのイノベーションにおける投資は、アクセラレーテッドAIコンピュートの改善と、大切なモデルを保護し、開発者による円滑な展開を可能にするセキュリティの提供に役立っています。

CPUでの生成AIを探す

生成AI推論のためのヘテロジニアスソリューション

生成AIの迅速な拡張には、プラットフォームレベルでAIが考慮され、あらゆる計算のワークロードを可能にするよう確約する必要があります。

CPU、そしてGPUやNPUなどのアクセラレータのポートフォリオを含むArmの先進的なAIコンピュートプラットフォームについてご確認ください。

AIテクノロジーを探す

生成AIのイノベーションの鍵となるソフトウェアコラボレーション

Armは、複数の戦略的パートナーシップを結び、AIベースのエクスペリエンスを向上させると同時に、広範なソフトウェアライブラリとツールを提供し、すべての主要なオペレーティングシステム(OS)およびAIフレームワークとの統合に取り組んでいます。開発者が貴重なリソースを無駄にすることなく最適化を進められるようにすることを目指しています。

Arm Kleidi Libraries logo

AIワークロードのためのシームレスなアクセラレーション

Armがあらゆる開発者、あらゆるモデル、あらゆるワークロードに対してシームレスなアクセラレーションをどのように確約しているかをご確認ください。Arm Kleidiは、最も要件の厳しい生成AIのワークロードに対しても、CPU推論を簡単でアクセスしやすいものにします。

Arm and Hugging Face logo

Armで効率的に生成AIを実行

Armで生成AIにより強化されたワークロードを効率的に実行するためのアドバイスをお求めですか?Hugging Faceに関するこれらのリソースは、大規模/小規模言語モデルや自然言語処理(NLP)のモデルを含む、幅広いモデルにわたって構築、展開、高速化を支援します。

AIソフトウェアを探す

Armから最新のAI関連ニュースを受け取るご登録はこちら

ニュースレターにサインアップ