カメラが有効な入力手段に、「Google Lens」が拓くモバイルの可能性

カメラが有効な入力手段に、「Google Lens」が拓くモバイルの可能性

2017.05.23

グーグルは、5月17日より、本社キャンパスの隣にある屋外劇場で、年次開発者会議を開催した。基調講演でグーグルCEOのサンダー・ピチャイ氏が披露したのが、Google Lensだ。GoogleアシスタントとGoogleフォトでの活用を開始し、その後、対応製品を拡げていく計画だ。アプリ内で呼び出して活用する技術プラットホーム、という位置づけと見られる。

Google Lensとは?

基調講演で示された活用例を挙げていくと、Google Lensによって何が起きるかが分かる。

例えば、Googleアシスタントからカメラを起動し、ユリの花に向けると、花の名前の候補を挙げてくれる。Wi-Fiのネットワーク名とパスワードが書かれたステッカーにカメラを向けると、スマートフォンに、そのWi-Fi設定が読み込まれ、自動的に接続を済ませてくれる。街を歩いているときに、通りに並ぶ店にカメラを合わせると、その店の名前や評価を画面内に表示する。

11分9秒からGoogle Lensの機能が紹介されている

ここで行われていることは、カメラで入力された画像やビデオの画像認識であり、同時に認識した画像の意味を解析し、適切な結果を返したり、設定を行ったり、検索を行ってくれるのだ。

こうした機能は、いくつかの、インターネットに接続されたスマートフォンを持っている我々の生活における「困難」を解決することになる。

本稿で挙げた3つの事例以外にも、カメラを通じてイベントチケットの予約ができるなどの活用法もある(画像:Google Official Blog5月17日投稿より)

まず1つ目の例では、目の前の花について詳しく知りたくても、その花の名前が分からなければ、詳しい情報にたどり着くことができなかった。目の前の物体から検索する仕組みは、今まで知り得なかった情報にたどり着く新たな手段を提供した。

またWi-Fiの設定の例は、今まで一度人の目で確認して、スマートフォンのキーボードを通じて入力していた、非常にミスの起きやすい状況を解決してくれるものだ。しかも、Google Lensは、目の前にあるランダムな文字列が、Wi-Fiの設定情報だと理解し、スマホをネットワーク接続に導いてくれている。

3つ目の例も、非常にスマートフォンらしい機能だ。スマートフォンのGPS等による位置情報によって、その人がどこにいるかは分かる。そしてどちらを向いているのかもわかり、画像認識をサポートすることで、カメラに映した店の情報を適切に表示している。これも、いちいち店の名前を調べて入力する手間から解放されている。

カメラによるモバイル活用が一気に花開く

カメラは、キーボード以上に素早く快適で直感的な、スマートフォンの入力手段、と評価することができる。Wi-Fiパスワードの文字列を入力ミスして、はじめから入力しなおす経験をしたことがある人なら、その価値はすぐに分かるはずだ。

スマートフォンのカメラを活用したAR環境の実現は、4月に開催されたフェイスブックの開発者会議「F8」でも同様の発表があった

フェイスブックは、AR活用について、情報表示、デジタルオブジェクト、装飾という3つの分類を示し、開発者向けにプラットホームを開放している。Facebookがソーシャルメディアであり、AR活用も、よりコミュニケーションや楽しみに重点を置いた内容であるという印象を受けた。

フェイスブックがARの活用を進めるのは「情報表示」「デジタルオブジェクト」「装飾」の3つ

これに対して、グーグルは、より日常的かつ実用的なカメラによるAR活用の提案を行っている。スマホのカメラが、写真やビデオの撮影以外に多用されるモバイルコンピューティングの姿は、2017年に一気に普及することになると考えられる。

音声アシスタントに続き、グーグルの強みが表れる

Google Lensで実現していることを見ると、既視感を覚える。ARにおけるフェイスブックに対するグーグルの構図は、音声アシスタントデバイスにおけるアマゾンに対するグーグルの構図に見えるからだ。

音声アシスタントデバイスについては、今回のGoogle I/Oでも基調講演で触れられており、Google Homeのより多くのデバイスのサポートや、日本を含む各国への拡大がアナウンスされた。

このカテゴリでトップを走っているのはAmazon Echoだ。ちょうど先週、Amazon Echo Showという7インチディスプレイを搭載する新モデルが発表されされ、音声・ビデオ通話やビデオ再生のサポートが紹介された。搭載する人工知能Alexa向けのアプリ「Skill」は1万を超え、スマートホームのハブとして台風の目となっている。

Google Home(画像:Google Home紹介ページより)
Amazon EchoとEcho Dot(画像:アマゾンプレスリリースより)

しかし、両方試した筆者は、盛り上がるAmazon Echo・Alexa以上にGoogle Homeの方が評価が高い。Echoは確かにたくさんのアプリが揃っているが、それを追加しないと賢くなってくれない。これに対して最初から実用的なのがGoogle Homeだったからだ。

Google Homeに何か訪ねると、正しく言葉を認識してくれれば、あとはGoogle検索で得られる情報や知識を話してくれる。既に構築しているウェブ上の知識グラフが利用できる強みを最大限に生かした存在なのだ。

Google Homeは声で、これまで蓄積してきた知識グラフを利用するが、Google Lensは画像をきっかけに、この知識グラフを活用する。この元となるデータの有無が、フェイスブックやアマゾンよりもグーグルの優位を作り出しているのだ。

文字入力しない未来が訪れる?

グーグルの一連の発表から透けてくるキーワードは「実用性」だと感じた。Google LensもGoogleアシスタントも、「スマートフォンがある我々生活」を、様々な日常的場面で解決してくれている。このことは、フェイスブックが提案する「何か新しいことを実現するAR」以上に、インパクトと拡大・普及する力を備えている。

未来のスマートフォン体験を考える際に、我々はもう、画面の中のキーボードでタイピングしなくても良くなるかもしれない。前述のように、マイクによる音声認識とカメラによる画像認識の技術を磨いてる様子が、Google LensとGoogleアシスタントから透けて見えるからだ。

今日、AndroidスマートフォンやiPhoneで利用できる音声入力を試してみると、精度は既に実用レベルに達している。メッセージを送ったり、SNSに書き込むなど、自分が何か発信したい場合、キーボードを使わなくても対応できる。認識速度についても申し分ない。 そして今回のGoogle Lensは、声に続いて、文字入力以外の新たな入力方法の実現を披露した。しかもただ認識するだけでなく、人がやろうとしていることを先回りして提示したり、解決したりする「アクション」まで面倒を見てくれる点だ。

こうした技術的背景が実現した今こそ、グーグルが一度取り下げているメガネ型デバイス、Google Glassに価値が生じるのではないだろうか。ぜひ、Google Lensを実装するGoogle Glassを実現してほしいものだ。

「落合陽一×鈴木えみ」が魅せる、現代の東京と服

「落合陽一×鈴木えみ」が魅せる、現代の東京と服

2018.10.19

落合陽一と鈴木えみがコラボ、インスタレーションを実施

東京の街を切り取った光で、”日常”の中の服を演出

「ランウェイを歩くより、恰好いい」と演出に好感触

モデルの鈴木えみ氏がデザインするオリジナル服飾ブランド「Lautashi(ラウタシー)」は10月18日、「Amazon Fashion Week TOKYO」のスペシャルプログラム”AT TOKYO”にて、2019年初夏コレクションをインスタレーション形式(作品の展示方法の1つ)で発表した。

メディアアーティストの落合陽一氏が演出を担当することで注目を集めたこのイベント。開催に先立って行われたインタビューで落合氏は、「『光』にフォーカスした演出を行います。”日本らしいものは出てこないけど、なぜか日本を感じてしまう”演出に注目して欲しい」と話していた。

その発言の意味するところを実感してみようと、会場を実際に取材することにした。

東京の日常の中の”服”を演出したい

イベント会場に入ると、暗闇の中にLautashiの新作に身を包んだモデル達が後ろを向いて立っていた。

「工業社会っぽいが、それが自然に溶け込んできている風景」を演出に組み込んだという落合氏。独特の光を用いた演出に加え、会場そのものの選択にもこだわったようだ

インスタレーションが始まると、モデルが振り返り、”東京の日常に溢れる音”をイメージしたという、騒がしく、どこか聞き慣れた音が鳴り始める。その後、天井や壁、モデルの合間に設置されたいくつものLED照明がさまざまに光り出す。そして、その色を青、赤、灰色と複雑に変化させ、照らす服の印象を次々に変えていく。

光の変化で、服の見え方も変わってくる
インスタレーションが始まり数分経つと、「是非自由に見て回ってください」との場内アナウンスが。モデルの間を自由に歩き回り、服を間近で見ることができた

僕らの日常とは、松屋やセブンイレブンの光

今回のインスタレーションを終え、鈴木、落合の両氏は以下のように語る。

「ファッションショーや雑誌って、服を完璧な照明や状態で見せることが多いんです。でも、日常にはさまざまな光が溢れています。今回のように、服をいくつもの照明条件で見せることで、”日常感”を感じさせられるような演出にしました。来場者が期待以上にモデルに近づいてくれて良かったです」(鈴木氏)

「光の演出には、日常に溢れるさまざまな光景を使っています。例えば、松屋やセブンイレブン、車のヘッドライトなどをあえてぼかして撮影して、(その画像をLEDで映し光源とすることで、街の光を再現した)照明に使っているんです。それらは普段、意識しないと目にも止めないようなものですが、そういうものから出る光が、たとえ人工的であっても、現代においては”自然”な存在となっています。私たちは普段、そういう照明条件で服を着ますよね」(落合氏)

左から、アマゾンジャパン バイスプレジデント ファッション事業部門 統括事業本部長のジェームズ・ピーターズ氏、メディアアーティストの落合陽一氏、モデル・デザイナーの鈴木えみ氏、サウンドアーティストのKAITO SAKUMA a.k.a BATIC氏

イベントの音楽を担当したサウンドアーティストのKAITO SAKUMA a.k.a BATIC氏は、街でサンプリングした音と会場での音を組み合わせることで、こちらも「どこか日本らしい」音楽でインスタレーションを彩っている。

Amazon Fashionを擁するアマゾンからは、日本でバイスプレジデントを務めるジェームズ・ピーターズ氏が来場。「消費者と非常に近い距離で服を見せられる。非常に素晴らしい演出だった」と、感銘を受けたことを語っていた。

落合氏の「なぜか日本を感じてしまう演出」という言葉通り、ありふれているようで、これまでにない体験を得られるインスタレーションとなったのではないだろうか。

5G実装まで1年、CEATECで未来を先取りしてきた

5G実装まで1年、CEATECで未来を先取りしてきた

2018.10.19

5Gの実装が1年前倒しされることに

「CEATECH」で5G技術を体験してきた

恐竜ハントや建機の遠隔操作などの技術を紹介

「5Gで世の中が大きく変わる」とは、ここ数年で聞き飽きた言葉だ。同時に、変わる未来に期待を持たされるのも確かである。

5Gとは第5世代移動通信システムの略。あらゆる物がインターネットに繋がるようになったIoT時代をさらに次の次元へと導く技術であり、世界中で研究開発が進められている。もっとも身近な存在であるスマホはもちろん、遠隔医療や自動運転などへの活用も期待されている。

さまざまな業界から社会実装が待ち望まれる5Gであるが、数年前から語られていた「2020年の実用化」を目前にして、「実用化を1年前倒しする」との報道がなされた。まず大手キャリア3社は、5G対応端末の貸与で限定的なサービスを開始し、2020年からユーザー所有のスマートフォンで使えるようにするとのことだ。

では具体的に、5Gの登場によって世の中がどう変わるのか? 2018年10月16日~19日にかけて千葉県・幕張メッセにて開催されている「CEATEC JAPAN 2018」における携帯キャリア各社の展示から、変わる未来の一部を覗いてきた。

例えば、無人島で恐竜を狩れる

まずはauのブースから紹介する。ブース内でもっとも目を引いたのは、森をモチーフにした大きな展示とそこに吊るされた大きなモニター、そして何やら楽し気にしている高校生。気になって近づいてみると、なぜか大きな銃を手渡された。

ブースに入ると、大きな銃を渡された

「CEATEC会場内に恐竜が侵入しました…! おちおちブース見学なんてしてられませんよ!」(auブースの説明員)

ただならぬ緊張感が漂うauブース……。もちろんブース内に恐竜なんていない。銃をよく見てみるとそこにはスマホが搭載されており、『ジュラシックアイランド』という表記が。

スマホを覗くと『ジュラシックアイランド』と表示されている

数秒経つと、スマホがカメラモードに切り替わり、恐竜の足跡が表示された。その足跡を辿って銃先を向けると、スマホ越しにCEATEC会場を歩き回るティラノサウルスを見つけた。

登場したティラノサウルス(のイメージ)。筆者が片手で銃を持ち、画面を撮影していたところ「銃は重いので両手で持ってください」と注意されたので、実際のプレイ画像は撮れなかった

実はコレ、長崎のハウステンボスですでに実装されているもので、一世を風靡した『Pokemon Go』よろしく、AR技術を用いて現実世界で遊ぶことのできるゲームだ。

現状、このアトラクションは4Gにて提供されているそうだが、5Gを使用することで、より多くの人数でプレイができたり、恐竜の出現位置を共通化させたりできるようになるそう。筆者が体験したのも4Gを用いたものであったが、ティラノサウルスのほか、『ジュラシック・ワールド』で活躍したヴェロキラプトルなども登場して、思いのほか楽しめた。

「5Gによって大量のデータを迅速に端末に送信できるようになれば、従来モバイル側で行っていたデータ処理を、クラウド側で担当し、それをモバイルに送信することができるようになります。現在はハウステンボス内の特定のエリアにいるユーザーがプレイできるこのゲームですが、この技術を応用することで、将来的には遠隔地にいる人同士でも同じ恐竜を狩ることができるようになるでしょう」(技術説明員)

例えば、空を飛べる

次に目を引いたのは、大きな半球体のスクリーンに映された綺麗な映像だった。

「半球体スクリーンによる非日常体験」と題された展示。auブース内でもっとも行列が長かったのがこの展示だった

これは、エアレースやドローン、もしくはSUPER GTのマシンで撮った映像を、リアルタイムでスクリーンに映して体験できるというもの。ブースで実際に使用されていたのはすでに撮影された映像であったが、それでも雄大な映像を見ながらまるで自分が飛んでいるかのような体験ができるため、多くの人たちが並んでいた。

例えば、建機を遠隔地から動かせる

次はKDDIブースへ移動。こちらでは、同社がコマツと共同実験を進めている「5G活用による建設機械の遠隔制御」などの展示が行われている。

少子高齢化が進み、かつ職種が徐々に増えている今、人手不足に悩まされる業界は多い。建設業界もその1つであり、その問題を解決しようと開発されているのが同システムである。

遠隔操作コクピット。実際の建機と同じような操縦感で操作することが可能
遠隔で動く建機側で撮った映像を、リアルタイムで確認することができる

「これによって、例えば東京にいる建機の操縦者が、地方の建機を動かせるようになります。建機を操縦するタイミングは、ほかの工程との兼ね合いによって決まるため、デッドタイムが多いという問題がありました。しかし、このシステムを用いることによって、人が1カ所に留まりながら複数の場所で建機を動かせるようになります」(技術説明員)

ほかにもau、NTTドコモブースでは、好きな場所からスポーツを観戦できるシステムや、遠隔でのロボット操縦を実現するシステムなど、数多くの展示を行っており、そのどれもがどこか未来を感じさせるようなものであった。

5G実装まで1年

CEATECでは、紹介した2ブースのほかにも多くの企業が5Gに向けた取り組みを展示していた。それらを見ていると、「5Gで何ができる?」という疑問に対して「なんでもできる」と解答したくなるほど、どの技術も、仕事や日常生活がより便利に、より楽しくなりそう、と思えるものばかりであった。

なお、NTTドコモはラグビーワールドカップが開幕する2019年9月に「プレサービス」を始め、2020年春から「商用サービス」をスタートする予定だとしている。つまり、5Gの実装まで残り1年を切ったこととなる。

CEATECで体験したいくつもの技術が社会実装される日は近い。5Gという、どこか未来的な技術の足音が、もうすぐそこまで迫ってきている。