閲覧したコンテンツとの関係性を分析すれば、人種や支持政党、宗教はかなりの精度で特定できるという。喫煙や飲酒の習慣、婚姻の有無、さらにはその人の性的指向もかなりの確率で分かってしまう。重要なのは、これらの情報が、直接的なデータとして得られたものではないことである。飲酒に関するページに「いいね」を押していなくても、別の商品や映画の好みなどからこうした傾向が分析できるのだ。
アマゾンは、過去の購入履歴から利用者の属性を探っている。どんな本を読み、どのようなドラマを閲覧し、日常的に何を買っているが分かれば、ほぼすべてが丸裸になってしまう。
だが、こうした分析手法を駆使しても、IT事業者が握れない情報がある。それは個人のリアルタイムな感情や体調など、身体に関するものである。利用者が今、機嫌が良いのか悪いのか、体調が良いのか悪いのかといった情報が得られれば、広告やネット通販のビジネスは飛躍的に進歩する。この部分でカギを握るのが「声」の情報であり、そうであればこそ、グーグルやアマゾンはAIスピーカーの開発に血道を上げているのだ。
では、ネットの検索履歴や購買履歴に加え、声や表情などの生体情報を得ることができた場合、IT企業はどのようなサービスを展開し、消費者にはどういった影響が及ぶのだろうか。
IT企業が生体情報を分析できるようになると、サービス事業者はより高度な推奨(リコメンド)機能を実現できる。気分が沈んでいる時なら、それを解消してくれるような食品やコンテンツ、グッズなどが紹介されるだろう。場合によっては、AIスピーカーが「もし気分が憂鬱(ゆううつ)なら、こんなドラマはいかがですか」などと話しかけてくるかもしれない。部屋でパーティをしていることが分かれば、スマホにはピザの割引プランが表示されるはずだ。
声の情報をより細かく分析すれば、体調についてもかなりの部分まで把握できる。スマホのアプリなどを使って、体温や心拍といった生体情報を収集し、健康管理ができるサービスはすでに存在しているが、健康に気を使っている人でなければ、わざわざこうしたサービスは利用しない。
だが、AIスピーカーが利用者の体調をある程度、把握していれば、体調が悪そうなところを見計らって、こうした健康管理サービスの利用を促すこともできる。妊娠や出産といった変化は、購買履歴からでもかなり特定できるといわれているが、ここに声の情報が加われば確実である。