AIはシンギュラリティの夢を見るか?

2017年7月19日

»著者プロフィール
閉じる

川手恭輔 (かわて・きょうすけ)

コンセプトデザイン・サイエンティスト

1990年代から、大手メーカーでインターネットサービスの企画・開発・運用を手がけ、自ら立案したグローバルなサービスを複数立ち上げた経験を持つ。その1つは、サービスのデザインでグッドデザイン賞を受賞した。コンピューターサイエンス関連の翻訳本も多数ある。

 Arsenalのチームは、数百万の写真を学習したAIを搭載したと言っています。そこでは、畳み込みニューラルネットワークという、特に画像認識に大きな力を発揮しているAIが使われています。

 学習を終えてArsenalに搭載されたAIは、カメラのライブビューの画像を解析し、プロのカメラマンが撮影した数千の解析済みの写真の中から、もっとも似ている30の写真を選びます。似ていると判断する基準は、AIが学習の過程で学んだものです。そして、30の写真のExifの情報からカメラの設定を計算します。

 しかし、選ばれた30の写真が撮影されたときの条件と、現在の条件には必ず違いがあります。カメラやレンズが異なるでしょうし、被写体が動いていたり、風などの影響でカメラが振動しているかもしれません。Arsenalは振動のセンサーを備えており、カメラやレンズの情報も取得し、それらの条件を考慮して再計算した推奨の設定を、ユーザーのスマートフォンの専用のアプリに送ります。

 アプリでは、被写体の一部だけにフォーカスをあてたい、あるいは画面全体を鮮明に写したいといった、撮影するユーザーの意図によって設定を変更できます。そして、アプリからカメラのシャッターを切ります。

 

 公開されている情報やブログを読む限りでは、Arsenalは三脚に固定したカメラに装着することを前提にし、そのAIは風景の撮影に特化した学習をしているようです。それは、カメラに取り付ける外部デバイスという制限によるものかもしれません。

 AIの性能は、どのような学習をしたかにかかっています。ライブビューの画像に似ている写真の撮影情報からカメラの設定の推奨値を導くというアイデアも含めて、Arsenalの実用性は、製品が出荷が予定されている2018年1月まで未知数です。しかし、そのチャレンジや良しと期待したいと思います。

関連記事

新着記事

»もっと見る