AppleがiPhoneのAI機能強化へ進むワケ

AI /

新iPhoneに搭載されたSoC(System On a Chip、CPUだけでなく周辺集積回路なども統合したチップ)A12 Bionicは、CPUの設計ルールの向上などでCPU性能自体ももちろん進化しているのだが、何と言っても、AI向けの演算ユニット(Appleはこれをニューラルエンジンと呼んでいる)が前バージョンのA11での1個搭載から、8個まで増やされ、単純演算性能もそのまま8倍強というアナウンスになっている。ここで、ひとつ注意して欲しいのは、ニューラルエンジンと呼ばれるチップを搭載したから、そのチップが将棋ゲームから、画像処理までなんでもこなすというわけではない。あくまでもAIの処理に必要とされる演算を極めて高速に処理するチップだということだ。人工知能の汎用フレームワークが搭載されているわけではないし、そんなものは現在世の中に存在しない。

さて、なぜ、Appleはこのテクノロジーに突き進むのだろうか?
それは、iPhoneでしか満足に動かない(速度など実用面で)AIを活用した画期的なアプリケーションを自ら投入することと、これらへのサードパーティの参入喚起によるハードウェアデバイスの差別化である。

Appleが編み出した、汎用ソフトウェアを携帯電話にインストールする、つまり通話以外の機能を誰もが供給でき、誰もがその恩恵にあずかることができるというテクノロジーとビジネスモデルは、あらゆる意味で画期的であり、世界をすっかり変えてしまった。しかし、この手法が当たり前になると、ハードウェアのみで携帯電話そのものをマーケティング的に差別化することが困難になってしまった。もちろん、処理速度が速い、カメラが凄い、画面が大きい、きれい、等々各社がその特徴を謳うわけだが、本質的な差ではない。ほとんどのアプリケーションはあらゆる機種向けにリリースされるし、そもそも人気のアプリやゲームが動かない(移植できない)ようなハードウェアは最初から勝負の土俵に立ってない。(脱線:日本のメーカーは往々にしてこういうものを作ることがある)

今の日本で “価格10円のスマートフォンです。ただしLINEはできません”、というスマートフォンを発売してもオモチャ、マニア向け用途以外には売上はゼロになるだろう。すなわち後天的にインストールされるアプリケーションがそのハードウェアの使い勝手や価値の大半を決めているわけだ。先行者のAppleでさえ、このジレンマに陥ってしまったわけである。

AIのテクノロジーを活用すると、あらゆるソフトウェア環境が劇的に変化する。特にコンピュータビジョンの分野はおそろしいほどの進化を続けている。しかし今までのハードウェア環境だとAIを使ったアプリケーションをリリースしたくとも、(原理的に動くものができていたとしても)主に速度面で実用化が遠かった。画像から色々なことを判断するAIアプリケーションでも、データはクラウドにアップロードしてから、サーバがこれを判断する、というモデルも多かった。

Appleが提供する機械学習や演算処理ライブラリでは、現在iPhone自体での機械学習機能は提供されていないが、学習済みのパラメータさえあれば、きわめて高速にAIの推論エンジンを動かすことが可能である。つまりソフトウェアを通じて、ハードウェアの差別化ができることになる。

このハードウェアを最大限に活用し最初に劇的に進化するアプリケーション分野は、カメラアプリケーションとエンタメ的な画像処理分野だと思われる。すでに搭載されている一眼カメラ並みのボケ感を実現している撮影機能もAIを活用しているのは間違いないだろう。人物や物体の認識精度が劇的に向上し、一時のブームが収まったと思われるAR(拡張現実)なども強烈な実用アプリケーションの登場が予想される。

産業界にもその流れは急速に押し寄せるだろう。特に画像での異常(合否)判定や、音声信号での異常(合否)処理判定など、ポケットに入る“診断機”としての役割はあらゆる分野に応用されていくと思われる。
当然、デバイスのライバル各社もこの動向に追随せざるを得ないわけで、唯物的なハードウェア戦争が終わり、“システム”としての生存競争になる、と言っても良いかもしれない。AppleのAI戦略はエッジAIの在り方、しいてはスマートフォンの存在分野そのものを劇的に変化させるかもしれない。

余談ではあるが、デバイスハードウェア、OS、AIエンジンの開発、AI学習データの拡充と民主化、等を産官学で猛烈に推進し面を押さえる米国に対し、我らが日本に戦う場所は残っているのだろうか?