Apple Neural Engine とは何ですか? 何をするのですか?

Apple Neural Engine とは何ですか? 何をするのですか?

3分で読めます
| ヒント

Apple Neural Engineとは

Appleが2017年にA11 Bionicチップを発表した際、Neural Engineと呼ばれる新しいタイプのプロセッサが初めて採用されました。クパティーノに拠点を置くこのテクノロジー大手は、この新しいチップが、iPhoneのロック解除や表情アニメーション絵文字への変換など、顔認識アルゴリズムの基盤となると約束していました。

それ以来、Neural Engineはさらに高性能、強力、そして高速になりました。しかしながら、Neural Engineとは一体何なのか、そして何をするのか、疑問に思う人も多いのではないでしょうか。さあ、AIと機械学習に特化したこのチップが一体何ができるのか、詳しく見ていきましょう。

Apple Neural EngineがAIなどの未来を切り開く

AppleのNeural Engineは、Apple独自のニューラル・プロセッシング・ユニット(NPU)のクパチーノにおける名称です。このプロセッサはディープラーニング・プロセッサとも呼ばれ、AI、拡張現実(AR)、機械学習(ML)の背後にあるアルゴリズムを処理します。

Neural Engine により、Apple は中央処理装置 (CPU) またはグラフィック処理装置 (GPU) が処理していた特定のタスクをオフロードできるようになります。

ご存知のとおり、NPU は、より汎用的なプロセッサよりもはるかに高速かつ効率的に特定のタスクを処理できます (また、そのように設計されています)。

究極のAR体験
Appleは2017年、新しいニューラルエンジンを搭載した「究極のAR体験」を披露した。(画像提供:Apple)

AIと機械学習の黎明期には、ほぼすべての処理がCPUに委ねられていました。その後、エンジニアたちはGPUにその補助を任せるようになりました。しかし、これらのチップはAIやMLアルゴリズムの特定のニーズを考慮して設計されているわけではありません。

NPUの登場

だからこそ、エンジニアたちはAppleのNeural EngineのようなNPUを開発しました。エンジニアたちは、AIやMLのタスクを高速化するためにこれらのカスタムチップを設計しています。メーカーがGPUをグラフィックスタスクの高速化のために設計するのに対し、Neural Engineはニューラルネットワークの処理を高速化します。

もちろん、Appleはニューラル・プロセッシング・ユニット(NPU)を設計する唯一のテクノロジー企業ではありません。GoogleはTPU(テンソル・プロセッシング・ユニット)を開発しています。Samsungは独自のNPUを設計しており、Intel、Nvidia、Amazonなども同様の技術を採用しています。

簡単に言えば、NPUは機械学習の計算タスクをGPUの最大10,000倍の速度で高速化できます。また、処理中の消費電力も少ないため、同じジョブを実行する場合、NPUはGPUよりも強力かつ効率的です。

Apple Neural Engineが担うタスク

Neural Engineがどのような仕事をしているのか、詳しく見ていきましょう。前述の通り、iPhoneやiPadのロックを解除するためにFace IDを使用するたびに、デバイスはNeural Engineを使用します。アニメーション付きのMemojiメッセージを送信する際も、Neural Engineはユーザーの表情を解釈します。

しかし、これはほんの始まりに過ぎません。Cupertinoは、Siriがユーザーの声をより正確に理解できるように、ニューラルエンジンも採用しています。写真アプリで犬の画像を検索すると、iPhoneは機械学習(つまりニューラルエンジン)を使って検索します。

当初、Neural Engineはサードパーティ開発者には公開されていませんでした。Apple独自のソフトウェア以外では使用できませんでした。しかし、2018年にAppleはiOS 11でCoreML APIを開発者向けにリリースしました。これが興味深い点です。

新しいARゲーム「The Machines」
WWDC 2017で、今後登場予定の拡張現実ゲームを初めて垣間見ることができました。(画像提供:Apple)

CoreML APIの登場により、開発者はNeural Engineの活用を開始できるようになりました。現在、開発者はCoreMLを使用してビデオを分析したり、画像や音声を分類したりすることができます。さらに、オブジェクト、アクション、描画の分析と分類も可能です。

Appleのニューラルエンジンの歴史

Appleは2017年にNeural Engineを初めて発表して以来、チップの効率と性能を着実に(そして飛躍的に)向上させてきました。最初のバージョンは2つのニューラルコアを搭載し、1秒間に最大6000億回の演算処理が可能でした。

最新のM2 ProおよびM2 Max SoCは、その能力をはるかに超えています。これらのSoCに搭載されたNeural Engineは16個のニューラルコアを搭載し、毎秒最大15兆8000億回の演算処理が可能です。

SoC紹介されたプロセスニューラルコアピークオペレーション/秒
アップルA112017年9月10nm26000億
アップルA122018年9月7nm85兆
アップル A132019年9月7nm86兆
アップル A142020年10月5nm1611兆
アップルM12020年11月5nm1611兆
アップル A152021年9月5nm1615.8兆
アップル M1 Pro/Max2021年10月5nm1611兆
アップル M1 ウルトラ2022年3月5nm3222兆
アップルM22022年6月5nm1615.8兆
アップル A162022年9月4nm1617兆
アップル M2 Pro/Max2023年1月5nm1615.8兆
Appleのニューラルエンジンのバージョン履歴(情報提供:Apple Wiki)

AppleはiPhone、そして今やMacのユーザー体験を、Neural Engineを中心に構築してきました。iPhoneが写真内のテキストを読み取るときも、Neural Engineが使われています。Siriが、あなたが特定のアプリを特定の時間にほぼ必ず使っていることを認識するときも、Neural Engineが機能しています。

AppleはNeural Engineを初めて導入して以来、写真撮影のような一見平凡なタスクにもNPUを組み込んできました。Appleが画像プロセッサが写真1枚あたり一定数の計算や判断を行うと表現する場合、まさにNeural Engineが機能しているのです。

Appleの最新イノベーションの基盤

Neural Engineは、AppleがARで行っているあらゆることにも貢献しています。計測アプリで物体の寸法を測ったり、カメラのファインダーを通して3Dモデルを周囲の環境に投影したり、これらはすべて機械学習です。機械学習であれば、Apple Neural Engineがそれを飛躍的に向上させている可能性が高いでしょう。

これはもちろん、Appleの将来のイノベーションがNeural Engineにかかっていることを意味します。クパティーノがついに複合現実ヘッドセットを世界に発表するとき、Neural Engineはその技術の大きな部分を占めることになるはずです。

さらに、混合現実ヘッドセットに続いて登場すると噂されている拡張現実メガネである Apple Glass は、機械学習とニューラル エンジンに依存することになります。

つまり、iPhone のロックを解除するために顔を認識させるという単純な動作から、AR で別の環境に移動できるようにするまで、Neural Engine が機能しているのです。

Knowledge Network