ガジェット通信

見たことのないものを見に行こう

【TSミライ部 第1回】ウエアラブルが人のココロを読む未来

DATE:
  • ガジェット通信を≫

腕時計型携帯端末「Apple Watch」や、センサー搭載メガネ「JINS MEME」といったウエアラブルガジェットが登場した2015年は、「ウエアラブル元年」ともいえる年だった。これまでもSFの世界で描かれてきたコンピューターを身にまとって暮らす未来が、ついに実現するのだろうか?

ITや通信のミライを占うこの連載。第1回は、15年間にわたりメガネ型ディスプレイを装着して生活している「ウエアラブルの伝道師」、神戸大学教授の塚本昌彦さんに聞いた”ウエアラブルの未来“をお送りする。

ウエアラブルは、街の景色を一変させる

携帯情報端末がスマートフォンからスマートグラスへと変わった時代。スマートグラスを装着すると、SNSやグルメ情報、地図、交通案内……私たちがスマホを使って得ている情報は、すべて現実の上に表示されるようになる?

20XX年。街には看板や広告もなく、すっきりとした美しい景色が広がっている。道行く人たちは、それぞれ好みにあったスマートグラスを着けている。散歩中、お腹がすいたなと思うと、スマートグラス越しにカレー屋さんの画像とメニューが浮かび上がり、道路に道順が表示される。この先の角を右に曲がった路地にある、先月オープンした人気店とのことだ。あ、メニューには好物のスープカレーもある。ちょうど、今カレーを食べたいと思ったんだ――。

こんな世界も夢物語ではないかもしれない。神戸大学の塚本昌彦教授は、「近い将来、誰もがウエアラブルデバイスを身に着けるようになれば、情報入手の方法が激変する」と語る。わざわざスマホを取り出してお店を検索する必要はない。街を歩いているときに空腹を感じた瞬間にレストランの看板がポップアップしたり、目に入る建物を凝視するとクローズアップして表示されたり――。必要な情報は、必要なときに、目の前の景色に重ねて表示されるのだ。

塚本昌彦(つかもと・まさひこ)/神戸大学大学院工学研究科教授、特定非営利活動法人ウェアラブルコンピュータ研究開発機構理事長、特定非営利法人日本ウェアラブルデバイスユーザー会会長。2001年よりヘッドマウントディスプレイとウエアラブルコンピューターを装着して生活し、数々の未来予測を行う”ウエアラブルの伝道者”

「スマートグラスは目の前のリアルな世界を見ながら、その景色に情報を重ねて表示させることができます。実はこれが、画面を注視しないといけないスマホやパソコンとは根本的に違うところであり、単なる小型化にとどまらないウエアラブルの新しさでもあるんです」

私たちがディスプレイに表示されたVR(ヴァーチャル・リアリティ/仮想現実)に入っていくのがスマホやパソコンだとすれば、スマートグラスはリアルな世界を拡張するもの。いわゆるAR(オーギュメンテッド・リアリティ/拡張現実)の技術と組み合わさったときに、スマートグラスはその真価を発揮する。

「それに、ウエアラブルはスマートグラスだけではありません。時計や服、靴やベルト……私たちが普段身に着けているものには、すべてICTが入り込む余地があります。例えば、下着で心拍を測り、ベルトのバックルで内臓の状態を日常的に健診する。そんな技術とデバイスが普及したとき、今のようにキーボードやフリック入力で文字を打ち込むような操作法は、時代遅れになっているはずですよ」

思っただけで欲しい情報が手に入る!?

ここ数年で、Siriなどの音声入力の精度は飛躍的に高まり、実用レベルになっている。しかし、それもキーボードによる文字入力を、音声で代替しているにすぎない。塚本教授の頭の中には、もっと進化したコンピューターのイメージがある。

「今年から来年にかけては、身振りや視線などによって操作するデバイスが出てくるでしょう。コンピューターが提示する選択肢を、視線を動かしたり首を振ったりするジェスチャーで選ぶという入力が主流になり、最終的には人がコンピューターに何かを入力するということ自体が、ほとんど必要なくなります。それを実現するカギになるのが、“センシング”と”AI(人工知能)”の進化です」

メガネや時計、衣服、靴……人が普段身にまとっているすべてのものに、センサーやコンピューターが搭載される可能性がある。”足の臭いを測るウエアラブルシューズ”なんてものまで登場するかも?

センシングとは、センサーを使ってある状態を計測することだ。脈拍や血圧などカラダの状態を計測する生体センシングや、位置情報や高度などを計測する環境センシングがある。

例えば、Apple Watchは心拍数が分かるし、iPhoneなどのスマホには傾きや加速度センサーが搭載されている。また、血糖値を測るコンタクトレンズの特許をGoogleが取得したことが最近話題になった。

「ウエアラブルコンピューターが、これらのセンシングによって得た情報を蓄積し、より高性能なAIを使って分析すれば、私たちが、今どこで何をしていて、何を望み、これから何をするのかといったことを、かなりの精度で予測できるようになります
例えば、Aさんはイライラしているときにスイーツを食べる。Bさんはランニングした後にビールを飲む。過去の行動履歴からこういったことを導き出して、ベストなタイミングで情報を提示することもできるようになるんです」

ウエアラブルは、人をアクティブに変える技術

なるほど。便利といえば便利だけど、考えようによっては空恐ろしくもある話だ。より詳細な生体センシングによって、本人も自覚していないような行動パターンをコンピューターが把握するようになったら……私たちの行動や意思決定を左右することなんて、簡単にできるんじゃないだろうか?

「もちろん、そういった危険はあるでしょうね。でも、私はわりと楽観的に考えているんです。どんな技術にもいい面、悪い面がありますし、コンピューターに任せられることはコンピューターに任せるようにした方が、人間の余暇は増えます。むしろ、人にしかできないことが何なのかをあらためて考え、より創造的で、より健康的な活動に立ち戻る時代がやってくるんじゃないでしょうか」

ウエアラブルコンピューターが人間の能力を拡張する未来に、人はどんな余暇を過ごすのだろうか? 塚本教授の見立てでは、人は今よりずっと外に出るようになるという。固定されたディスプレイや面倒な入力から解放されるウエアラブルは、ネットの中ではなく、目の前の現実を楽しくするものだからだ。

関連リンク

塚本昌彦(つかもとまさひこ)HP

関連記事リンク(外部サイト)

いよいよ実現化する「スマートグラス」。ヘッドマウントディスプレイとの違いは?
Facebookも開発に本気! 「全天球カメラ」とは?
【検証】 居酒屋をどこまでIT化できるか?

TIME & SPACEの記事一覧をみる ▶
  • 誤字を発見した方はこちらからご連絡ください。
  • ガジェット通信編集部への情報提供はこちらから
  • 記事内の筆者見解は明示のない限りガジェット通信を代表するものではありません。

TOP