Intel Corporation introduces the Intel Neural Compute Stick 2 on Nov. 14, 2018, at Intel AI Devcon in Beijing. Designed to build smarter AI algorithms and for prototyping computer vision at the network edge, the Intel Neural Compute Stick 2 enables deep neural network testing, tuning and prototyping, so developers can go from prototyping into production. (Credit: Intel Corporation)

エッジAIがIoTの主流になる

AI/IoT /

今回の話はちょっと乱暴な論調である。専門家から見たらお叱りを受けるのだろうが、全体を掴むためにはこれで別に構わないと筆者は思うので書き進めさせていただく。気になる向きは、それぞれの領域の専門書を熟読されたい。

さてAIの話をするときに、機械学習、ディープラーニング(深層学習)、そしてニューラルネットワークなどの話を理解しないといけないのだろうが、その道の方でもない限り深くを知っても意味がない。LTEのことを詳しく知らないとスマホが使えないわけでもなく、スタッドレスタイヤがどうして滑らないかを知らなくても雪道を走ることができる。

エッジAIならわずか15,660円で実現可能

AIにも色々な使い方があるが、要するに何らかのデータをセンシングによって入手して、それを解析処理し何らかの結果を得ることだ。画像であればデジカメに内蔵されているスマイルシャッターは笑顔を抽出してそのタイミングで撮影するとか、膨大な販売データから「おむつを買った人はビールを買う」という、都市伝説とまで言われたデータマイニングによる事例は、その真偽はともかく、こういったデータ解析を行っている。こうしたものを更に大規模だったり、データ量を増やしたり、高度な演算を行ったりするときにAIが本領を発揮する

この「処理」の部分には、処理を行うためのロジックと、そのロジックに従って高速に処理を行うことが必要である。最近再びAIが注目されているのは、このロジックが進化したのと、処理方法や処理を行うためのコンピュータ(後述のGPU)が飛躍的に進化をしているからだ。

たとえば、画像処理で言えば、ある場所にいる人の数、年齢、性別を把握することは驚くほど安価で簡単になった。Raspberry Pi(単体なら4,860円)とインテルのNCS(後述)10,800円で出来てしまう。もちろん実際にはソフトウエアのインストールなり、AIソフト(GoogleのTensorFlowはソフトウエア自体は無償)で学習させるなどの作業や知識が必要で、誰でも直ぐにできるわけではないが、感覚としてはそういうレベル感だ。求める精度や場面にもよるが、決して何億円というレベルの話ばかりではない。最初に断ったとおり、乱暴かつ誤解も受けると思うが、少なくとも間違いではない。

エッジAIで解析した例。解析はほぼリアルタイムで行われて画像一切保存しない。
上記のエッジAIによる解析は、Raspberry Piを使用したゲートウエイBOXにNCSを接続している(ビズライト・テクノロジー)

この例のように、ある場所にいる人の属性を判断するためには、一般的にはカメラと呼ばれる画像センサーが必要である。これによって信号化されたデータをAIで解析するのだが、データを全てクラウドに送ると、伝送速度の問題で言えばそれ内の時間がかかってしまう。自動運転者では、人が急に飛び出してきた場合に、それが人であるかどうかの判断をクラウドに投げているような暇はない。コストについても画像データを毎回クラウドに投げていると通信コストが高額になる可能性がある。またプライバシーや法規制上の理由からクラウドにデータを送れないといったケースがある。

intelが買収してまでして手に入れたNCS

この処理は多くのマシンリソースを必要とするため、従来はクラウド側のデータセンターへ送られて、大型のコンピュータ上でないと実行することが出来なかった。しかしGPUの進化によって、これをローカル側、すなわちエッジ側のデバイスでネイティブ処理できるようにするのが、Neural Compute Stick(NCS)である。このデバイスはMovidius社が開発したが、昨年インテルが同社を買収してインテルブランドで販売されている。

そして2018年の11月に、新バージョンの「Intel Neural Compute Stick2(NCS2)」を発表した。全バージョンと比較して8倍の画像認識力があるとのことだ。日本での価格は13,500円ほどである。

NCSはUSBメモリーサイズ

NSC2に関しては、まずCPUとGPUの話をしておく必要がある。CPUはCentral Processing Unitの略で、中央処理装置である。GPUはGraphics Processing Unitの略で、画像処理装置である。CPUとGPUでは、コアの数またはコア内部のトランジスタの数の差により、同時に演算出来る情報量が大きく異なり、GPUの方が圧倒的に優れている。コアとはCPUの中心部分であり、実際の処理を担っている部分のことだ。GPUは同時に処理出来る命令が多く、単純な処理は高速で行うことができるが、CPUは命令の処理を同時に複数実行する仕組みや、機械語の命令を順次行う機能を持っているため、条件分岐が多い複雑な処理を一つずつ順番に実行することに適している。

要するにGPUは画像処理が早い。CPUで画像処理を行わせることも可能であるが、負荷が大きいので画像処理だけを別途GPUで行わせるのである。

Appleもエッジコンピューティングに向かう

エッジコンピューティングに関してはAppleも同様の動きをしている。最新のiPhoneに搭載されているA12 Bionicのニューラルエンジンは、iPhone内部で大半の演算処理(エッジ処理)が可能となり、通信トラフィックの低減とプライバシー情報に対するセキュリティ向上を実現している。今後はこれを前提としたアプリケーションが続々と登場することになるだろう。また自動運転のためのコンピュータで最先端を走るNVIDIAも、高速GPUを搭載したRaspberry Piのような製品であるJetsonを提供している。ただしこちらの最新機種は1,299ドルだ。

Appleが発表したニューラルエンジンを搭載したA12 Bionicのスペック

エッジAIは、今後AIが現実的に利用されていく過程で、必ず主流になっていくと考えられる。

【関連記事】
・エッジAIはコト売りのビジネスになる
・エッジAIは単機能化してサブスクリプションモデルに向かう
・今年に入ってからエッジAIボードが続々と登場している
・エッジAIは熟練職人を求めている
・エッジAIの動向とハードウェアに与える影響
・エッジAIがIoTの主流になる
・Raspberry Piで実現させるエッジAIテクノロジー
・フォグコンピューティングとエッジコンピューティングとは何か?
・品質保証に苦しむIoT、エッジコンピューティングの現場