2024年11月21日(木)

イノベーションの風を読む

2017年10月13日

 10月4日のイベントで、グーグルは多くのハードウェア製品を発表しました。スマートスピーカーの新しいラインナップの「Google Home Mini」と「Google Home Max」、そして「Pixelbook」、「Pixel 2」と「Pixel 2 XL」、「Daydream View」ヘッドセットという、これまでの製品のアップデートに加え、Pixelスマートフォンのアクセサリーとして、新たに「Google Pixel Buds」ヘッドフォンと「Google Clips」カメラを追加しました。その3週間前のアップルのイベントで発表された製品は、「iPhone X」と「iPhone 8/8Plus」、「Apple Watch Series 3」、「Apple TV 4K」だけでした。

 Pixel Budsは、アップルのAirPodsのように音声アシスタントとの会話もできるワイヤレスのヘッドフォンです(AirPodsとは異なり左右のユニットは繋がっています)。Pixelスマートフォンを持っていれば、リアルタイムの翻訳ができます。会話の相手が話す外国語が翻訳されて、Pixel Budsから母国語が流れてきます。すでに日本語にも対応していますが、Pixelが販売されていない日本での発売は未定になっています。

 そして最後の最後にお披露目されたのが、Clipsという4.9センチ四方の小さなカメラでした。本体の厚みは1.2センチ程度です。同梱されているクリップ付きのケースに装着すれば、テーブルの上の何かや、手すりなどに留めることができます。

Clipsを発表するジャスティン・ペイン(REUTERS/Stephen Lam/AFLO)

 グーグルのプロダクトマネージャーのジャスティン・ペインは、次のように話を始めました。

私たちは皆、写真が大好きです。多くの写真は、家族や友人と過ごした時間に私たちを連れ戻してくれます。ありのままの一瞬を捉えた写真は、ことのほか魅力的です。しかし問題は、そのような写真を撮るとき、誰かがカメラマンとしての仕事をする必要があるということです。誰かがシャッターチャンスを待って、カメラの後ろでシャッターボタンを押さなければなりません。どうしたら、そのような束の間の、いつ起きるかわからない瞬間を捉えることができるか、そして自分もその瞬間の一部になることができるかを、私たちは考えてきました。

 そして、まったく新しいタイプのカメラとしてGoogle Clipsを紹介しました。

この最初の製品は、子供を持つ親や、ペットを飼っている人をターゲットにしてデザインしました。子供の自然な笑顔、最初に歩いたとき、最初のいたずらなど、多くのことを捉えることができます。Clipsにはシャッターボタンがあります。しかし、それはこのカメラにとって重要なことではありません。自分もその瞬間を楽しみながら、これまでに撮ることができなかった写真を逃さずに撮ることができるカメラを作るために、我々は、ソフトウエアから始めて、機械学習を活用して、このカメラを徹底的に見直しました。その機能のすべては、カメラのコアであるAIエンジンから始まります。

 ClipsはAIエンジンによって、ユーザー、家族、友人、ペットなど特定の対象を認識して、さらに重要だと判断した瞬間の前後を、7秒間の動画に自動的に記録します。記録された動画は対応するスマートフォンに転送して、専用のアプリで確認することができます。動画の前後をカットしたり、静止画を切り出したりして、汎用的なファイル形式、あるいはMotion Photosという独自形式のままで保存することが可能です。

 これまでにも、一定の間隔で自動的にシャッターを切る、ライフログカメラと呼ばれる製品がありました。例えば、襟元にクリップして使うスウェーデンのナラティブ社のClipは、30秒に一回シャッターを切り、1日に約2000枚の写真を記録します。しかし、Google ClipsはAIがシャッターチャンスを捉えるのです。形も名前もそっくりなので、私も最初は驚きましたが、ライフログカメラとはコンセプトも機能もまったく異なるチャレンジングな製品でした。

 特定の人物を認識したり、笑顔や動作などによってシャッターチャンスを判断する機械学習(AI)を動かすには、数年前まではスーパーコンピューターのパワーが必要でした。ペインは、それを小さなデバイスで動かすために、いくつかの重要な技術革新が必要だったと語りました。グーグルが5月に発表した、軽量化した機械学習のライブラリー(TensorFlow Lite)が使われているのかもしれません。


新着記事

»もっと見る