3分で読めます
| ヒント

Appleが2017年にA11 Bionicチップを発表した際、Neural Engineと呼ばれる新しいタイプのプロセッサが初めて採用されました。クパティーノに拠点を置くこのテクノロジー大手は、この新しいチップが、iPhoneのロック解除や表情アニメーション絵文字への変換など、顔認識アルゴリズムの基盤となると約束していました。
それ以来、Neural Engineはさらに高性能、強力、そして高速になりました。しかしながら、Neural Engineとは一体何なのか、そして何をするのか、疑問に思う人も多いのではないでしょうか。さあ、AIと機械学習に特化したこのチップが一体何ができるのか、詳しく見ていきましょう。
Apple Neural EngineがAIなどの未来を切り開く
AppleのNeural Engineは、Apple独自のニューラル・プロセッシング・ユニット(NPU)のクパチーノにおける名称です。このプロセッサはディープラーニング・プロセッサとも呼ばれ、AI、拡張現実(AR)、機械学習(ML)の背後にあるアルゴリズムを処理します。
Neural Engine により、Apple は中央処理装置 (CPU) またはグラフィック処理装置 (GPU) が処理していた特定のタスクをオフロードできるようになります。
ご存知のとおり、NPU は、より汎用的なプロセッサよりもはるかに高速かつ効率的に特定のタスクを処理できます (また、そのように設計されています)。

AIと機械学習の黎明期には、ほぼすべての処理がCPUに委ねられていました。その後、エンジニアたちはGPUにその補助を任せるようになりました。しかし、これらのチップはAIやMLアルゴリズムの特定のニーズを考慮して設計されているわけではありません。
NPUの登場
だからこそ、エンジニアたちはAppleのNeural EngineのようなNPUを開発しました。エンジニアたちは、AIやMLのタスクを高速化するためにこれらのカスタムチップを設計しています。メーカーがGPUをグラフィックスタスクの高速化のために設計するのに対し、Neural Engineはニューラルネットワークの処理を高速化します。
もちろん、Appleはニューラル・プロセッシング・ユニット(NPU)を設計する唯一のテクノロジー企業ではありません。GoogleはTPU(テンソル・プロセッシング・ユニット)を開発しています。Samsungは独自のNPUを設計しており、Intel、Nvidia、Amazonなども同様の技術を採用しています。
簡単に言えば、NPUは機械学習の計算タスクをGPUの最大10,000倍の速度で高速化できます。また、処理中の消費電力も少ないため、同じジョブを実行する場合、NPUはGPUよりも強力かつ効率的です。
Apple Neural Engineが担うタスク
Neural Engineがどのような仕事をしているのか、詳しく見ていきましょう。前述の通り、iPhoneやiPadのロックを解除するためにFace IDを使用するたびに、デバイスはNeural Engineを使用します。アニメーション付きのMemojiメッセージを送信する際も、Neural Engineはユーザーの表情を解釈します。
しかし、これはほんの始まりに過ぎません。Cupertinoは、Siriがユーザーの声をより正確に理解できるように、ニューラルエンジンも採用しています。写真アプリで犬の画像を検索すると、iPhoneは機械学習(つまりニューラルエンジン)を使って検索します。
当初、Neural Engineはサードパーティ開発者には公開されていませんでした。Apple独自のソフトウェア以外では使用できませんでした。しかし、2018年にAppleはiOS 11でCoreML APIを開発者向けにリリースしました。これが興味深い点です。

CoreML APIの登場により、開発者はNeural Engineの活用を開始できるようになりました。現在、開発者はCoreMLを使用してビデオを分析したり、画像や音声を分類したりすることができます。さらに、オブジェクト、アクション、描画の分析と分類も可能です。
Appleのニューラルエンジンの歴史
Appleは2017年にNeural Engineを初めて発表して以来、チップの効率と性能を着実に(そして飛躍的に)向上させてきました。最初のバージョンは2つのニューラルコアを搭載し、1秒間に最大6000億回の演算処理が可能でした。
最新のM2 ProおよびM2 Max SoCは、その能力をはるかに超えています。これらのSoCに搭載されたNeural Engineは16個のニューラルコアを搭載し、毎秒最大15兆8000億回の演算処理が可能です。
| SoC | 紹介された | プロセス | ニューラルコア | ピークオペレーション/秒 |
|---|---|---|---|---|
| アップルA11 | 2017年9月 | 10nm | 2 | 6000億 |
| アップルA12 | 2018年9月 | 7nm | 8 | 5兆 |
| アップル A13 | 2019年9月 | 7nm | 8 | 6兆 |
| アップル A14 | 2020年10月 | 5nm | 16 | 11兆 |
| アップルM1 | 2020年11月 | 5nm | 16 | 11兆 |
| アップル A15 | 2021年9月 | 5nm | 16 | 15.8兆 |
| アップル M1 Pro/Max | 2021年10月 | 5nm | 16 | 11兆 |
| アップル M1 ウルトラ | 2022年3月 | 5nm | 32 | 22兆 |
| アップルM2 | 2022年6月 | 5nm | 16 | 15.8兆 |
| アップル A16 | 2022年9月 | 4nm | 16 | 17兆 |
| アップル M2 Pro/Max | 2023年1月 | 5nm | 16 | 15.8兆 |
AppleはiPhone、そして今やMacのユーザー体験を、Neural Engineを中心に構築してきました。iPhoneが写真内のテキストを読み取るときも、Neural Engineが使われています。Siriが、あなたが特定のアプリを特定の時間にほぼ必ず使っていることを認識するときも、Neural Engineが機能しています。
AppleはNeural Engineを初めて導入して以来、写真撮影のような一見平凡なタスクにもNPUを組み込んできました。Appleが画像プロセッサが写真1枚あたり一定数の計算や判断を行うと表現する場合、まさにNeural Engineが機能しているのです。
Appleの最新イノベーションの基盤
Neural Engineは、AppleがARで行っているあらゆることにも貢献しています。計測アプリで物体の寸法を測ったり、カメラのファインダーを通して3Dモデルを周囲の環境に投影したり、これらはすべて機械学習です。機械学習であれば、Apple Neural Engineがそれを飛躍的に向上させている可能性が高いでしょう。
これはもちろん、Appleの将来のイノベーションがNeural Engineにかかっていることを意味します。クパティーノがついに複合現実ヘッドセットを世界に発表するとき、Neural Engineはその技術の大きな部分を占めることになるはずです。
さらに、混合現実ヘッドセットに続いて登場すると噂されている拡張現実メガネである Apple Glass は、機械学習とニューラル エンジンに依存することになります。
つまり、iPhone のロックを解除するために顔を認識させるという単純な動作から、AR で別の環境に移動できるようにするまで、Neural Engine が機能しているのです。