9月12日に発表された新しいiPhoneには、A11 Bionicという革新的なチップが搭載されました。それには、6コアのCPUに加え、新たにアップルが設計した3コアのGPUが組み込まれています。もともと描画処理専用だったGPU(Graphics Processing Unit)が、ディープラーニングなどの機械学習(AI)の処理に使われるようになったということはご存知の方も多いと思います。
しかしA11 Bionicには、さらに「ディアルコアのニューラルエンジン」というものも存在します。アップルによると、それは「特定の機械学習アルゴリズムを想定して設計された」ということです。
次はAIが動くスマートフォンの戦い
これまで機械学習のAI(少し乱暴ですが、ここでは学習したソフトウェアとします)は、クラウドで動くものでした。アップルのSiriやアマゾンのAlexaやGoogle Assistantなどの音声アシスタントと呼ばれるAIもクラウドで動いており、スマートフォンやスマートスピーカーから送られてきた、ユーザーの音声の認識や自然言語処理を行なっています。
それは、AIが多くの計算機のパワーを必要とするからです。自動運転車で使われているコンピュータビジョンのように、ネットワークによる遅延や切断が許されないケースでは、AIはクラウドではなくエッジ側(自動車)で動いています。
しかし、新しいiPhoneで話題のFace ID(顔認証)や、絵文字を自分の表情に合わせてカスタマイズできるアニ文字などを可能にするAIは、小さなiPhoneで動いているのです。それを可能にしているのが、ニューラルエンジンを装備したA11 Bionicなのです。
アップルのCEOのティム・クックは、初代のiPhoneが発売されてから10年が経過し、その間、iPhoneは世界を大きく変化させたと振り返りました。そして、次の10年のテクノロジーの道を示す、スマートフォンの未来としてiPhone Xを紹介しました。それは「AIが動くスマートフォン」という画期的なものでした。
すでにアップルは、Core MLというフレームワーク(アプリの開発と実行の環境)を発表しており、9月19日にリリースされるiOS 11から正式サポートされます。このフレームワークで、サードパーティはAIを使ったiPhoneのアプリを開発することができます。
グーグルも、Core MLと同様のTensorFlow Liteというフレームワークを発表しています。これは、スマートフォンのチップに内蔵される、DSP(Digital Signal Processor)という汎用的なプロセッサーをニューラルエンジンとして利用するものです。
グーグルが10月4日に開催するイベントで、TensorFlow Liteを導入した新型のスマートフォン、Pixelが発表されるかもしれません。アップルとグーグルのスマホ戦争は、「AIが動くスマートフォン」という新たなステージに入ってきました。
AIを使ったアプリの開発には、まずAIに何をさせるかという「学習モデル」を考え、学習させるデータを集め、試行錯誤的な学習を繰り返すという、これまでのアプリ開発とは異なったスキルが必要になります。そのため、サードパーティ製の有用なアプリの登場には、しばらく時間がかかるかもしれませんが、アップルやグーグルの標準アプリ、特にカメラアプリについてはAIの応用が加速すると思います。