令和最新版GoogleGlass
Google IO 2025が5/20,5/21に開催されました。私が注目していたのは、スマートグラス関連のニュースで、今回のKeyNoteでも発表がありました。
この記事では、Googleのスマートグラス戦略やAndroidXRについての噂や情報をひとまとめにしておきたいと思います。
今回スマートグラスで行ったデモ(機能)は、おおむね7つになります。
- スマホに送られたメッセージを通知として受け取る
- 目の前の写真に写っている音楽バンドの詳細情報を検索する
- 音楽バンドの代表曲を再生する
- コーヒーを買ったカフェの店の情報を検索する
- カフェの道案内をする
- 写真を撮る
- 対面した相手の言葉をリアルタイムに翻訳する
GeminiとGoogleのスマートグラスのこれまで
Google Glassについて
2013年、GoogleはGoogleGlassというスマートグラスを作っていました。しかし、カメラの撮影によるプライバシー問題が懸念され、最初期には勢いがあったものの徐々にトーンダウンしていきました。ここは少し濁した書き方をあえてしており、GoogleGlassの法人向けエディションは2023年3月15日までドコモから日本でも販売が行われており、実は表に出ていないながら販売が続けられていました。
Project Astra
そんな中で、「Googleがスマートグラスを作っている」という話はGoogle IO 2024で再燃します。Googleの子会社であるDeepMind社の「Project Astra」のデモの1つとしてメガネ型デバイスが登場します(2024/5/1)
どちらかというと「GoogleのAIがすごい!」という話が持ち上げられていたため、このメガネ型デバイスはあまり注目されていなかったように思います。しかし、動画にスマートグラスは5秒程度しか映っていないため、仕方ない側面もあります。
TED 2025
そんな中で、Googleのスマートグラスのデモとして大きく話題になったのは、2025年4月19日公開のTED 2025内の動画となります。
この動画内ではおおむね6つのデモを行っています。
- グラスから見えている風景から俳句を詠ませる
- 以前に見た風景の詳細を問い合わせる機能(本の表紙のタイトルを問い合わせる。ホテルのキーを探す。)
- 本に書かれたグラフの要約をさせる
- 目の前の文字を翻訳する
- 音楽を再生するデモ
- 地図を表示しナビゲーションするデモ
個人的な見解を言うと、Google IO 2025のデモとTEDとのデモの"機能的側面"は、それほど変わらない印象があります。
INMO Air2による個人的検証
また、2024年3月30日には、INMO Air2という製品でスマートグラスでのリアルタイム音声翻訳が可能でした。
INMO Air2の翻訳アプリのデモ。画面はscrcpyでミラーリング。日本語と英語がスタンドアローン(インターネット必須)でリアルタイム変換される。※ただし滑舌も必要。 pic.twitter.com/TtbZQo6aZG
— こたうち さんさん (@kotauchisunsun) March 30, 2024
同様に、私は自作でアプリを作成し、2024年6月26日時点で、スマートグラスにつけられたマイクから音声を取得し、その内容に対する応答が可能でした。また、カメラ画像から写っているものが何であるか。という問答が可能でした。
これはスマートグラスの技術力がすごい。というよりは、ChatGPTなどのAIの性能が向上したためであり、機能的には、これくらいの内容は1年以上前の時点から可能でした。したがって、最近のスマートグラスだと、Google IOやTEDトークのデモ程度の機能はあって不思議ではありません。
しかし、最近発売されている多くのスマートグラスでは、翻訳機能はありますが、画像からの問い合わせや、AIによる質問応答ができるものは少ないです。おそらく生成AIのAPI料金が高いため、買い切りのモデルでは成り立たないのでしょう。
Google I/O 2025における特徴的な差分
私のデモや、TEDトークと、どのように違いがあるか。と答えると、1つは、「AIの起動トリガー」です。前者の場合、スマートグラスをタッチすることでAIの起動トリガーとしています。また、TEDトークでもそのようなトリガー方式となっています。一方で、今回のGoogle IOの場合、「OK Google」「Hey, Siri」といった起動トリガーがなく、スマートグラスをつけた人間が話し始めたとき、それがGeminiに話しかけられているのか、それとも別の人間に話しかけているのかを自動で判別し、AIによる応答を行っています。
2つめは「カメラの常時稼働」です。こちらも、最近販売されている既存のスマートグラスには搭載されていない機能です。例えば、GoogleI/Oのデモであれば、最初に舞台裏でコーヒーを持っており、それを舞台に登場した後で、「あのコーヒーはどこのカフェのもの?」と聞いています。自分から能動的にカメラを操作し、意図的に映像を撮ったものに対して問い合わせるのではなく、このようにスマートグラスが勝手に日常の映像を取得し、それに対して質問が可能となっています。このように、「常時録画しており、それに対して問い合わせが可能である」というところが大きな差分となります。
AndroidXRの消費電力に対する懸念
しかし、これらの「AIの起動トリガー」や「カメラの常時稼働」は諸刃になると私は考えています。というのは、カメラやマイクを常に稼働させる必要があり、それらの情報を整理し、保存する必要があります。保存する容量も巨大ですが、常時稼働であるため、基本的な消費電力が大きくなってしまい、動作時間が確保できないように思えます。先述の通り、これらの情報を保存するために、ローカルのストレージかクラウドのストレージが必要になってきます。ローカルに保存する場合、それをAIに処理させるための整理をローカルで行う必要があるため、この消費電力が高いように思います。一方で、クラウドにアップロードする場合は、Wifiなどの通信にかかる消費電力の増大が考えられます。そのため、このあたりの通常時の消費電力をいかに下げられるのかが問題になってくるのではないか。と感じました。
これはAndroidXRについて思うことですが、アーキテクチャに無理がないか?と思うことがあります。スマートグラスの重さはおおむね30~50g程度に抑えるべきです。これぐらいの重さでなければ常時装着するのが難しくなります。そのため、全体の製品重量における電池の容量の上限が極めて低いです。したがって、待機状態における消費電力を極めて下げる必要があります。一方で、HMD型のProject Moohanは空間認識を行う割とパワーを要求する製品です。それと同じOSでよいのか?という疑問があります。Googleには既存でwearOSというものがあり、これはスマートウォッチの低消費電力に耐えうる作りで、開発が進められています。実はスマートウォッチのSoCがスマートグラスのチップとして転用されるケースはいくつか事例があり、スマートグラスは消費電力の制約のせいか、HMDよりスマートウォッチに近いアーキテクチャをしています。そのため、OSにかかわる消費電力も割とシビアにみられています。そのような消費電力事情も含めて、HMDのOSとスマートグラスのOSの問題を同時に解決し、それを低消費電力で実現するアーキテクチャは極めて難しくないか?と思っています。
プライバシー懸念
私がデモを見たときに印象に残ったのは、1:43:48あたりの内容です。
「ライトが点いているからライブってことですか?」
というセリフは、これだけを見れば、あまり意味がありません。「カメラが点いているときにライトが点いている」という「機能」だけならば、それはセールスポイントにならないので時間の無駄ですらあります。一方で、もともとGoogleGlassが勝手に撮影することによりプライバシー問題が発生した。ということを踏まえると意味のあるデモとなります。このように、新しいスマートグラスでは、プライバシー問題に配慮している。というアピールであるともとらえることができます。
動画のコマ落ち
個人的に気になったポイントは「動画のコマ落ち」です。KeyNoteで2か所、スマートグラスからの映像がコマ落ちしている場面があります。
「1:44:19のバスケットボールプレイヤーとハイタッチするシーン」と「1:48:40のリアルタイム翻訳に失敗するシーン」です。
これは私にも身に覚えがあるからです。私はINMO Air2というスマートグラスを利用しています。
INMO Air2のデモを行う際は、PCとINMO Air2を同一の無線LANの中に置き、adb経由で映像転送を行って、プロジェクターに表示しています。その際、コマ落ちが発生します。今まで、デモを行ってきた経験では、スマートグラスとPCをUSB type-Cでつなぐ方式では処理落ちは発生しません。しかし、無線LAN経由で接続するとコマ落ちが発生します。したがって、「無線LANで映像を転送すること」にはINMO Air2では処理能力が足りません。今回のGoogle IOのデモも、おそらく無線LAN経由で映像を転送しています。しかし、それがコマ落ちしたり、映像が止まった。ということを考えると、それほど強力なSoCが乗っているわけではない。ということが推察できます。
「映像が止まる」というのは2つの側面があり、1つは「インターネット回線が悪くなる」という状況です。無線LANのアクセスポイントが大量に立ってしまったり、同一のアクセスポイントに大量の端末が紐づくことにより、ハブの処理能力を超え、スマートグラスとPCでデータの転送が止まるパターンです。もう1つは、「スマートグラスが熱暴走する」という状況です。これは無線LANで映像を転送しているため、CPUにかかる負荷が高く、本体自体が発熱します。しかし、ある一定以上発熱すると安全装置が発動して、CPUの処理能力を下げることで本体が壊れないように制御されます。そうすると、処理能力不足のため映像の転送が間欠的になってしまい、コマ落ちが発生してしまいます。これは、スマートグラスで長時間映像転送を行っていると起きがちです。今回の、GoogleIOのデモでも、映像をずっと転送し続けていた女性のNishtaさんのスマートグラスが停止しました。そう考えると、長時間稼働による熱暴走ではないか?と私は感じました。「映像を常時転送する」というのは、特殊な用途であり、それは日常の用途ではないため、問題ではないという意見もあります。しかし、個人的にデモを行っていて気になっていたポイントでもあって、「Googleならなんとかしてくんねぇかなぁ」と思っていたポイントだったので、若干の残念さを感じていました。
現在判明しているスペック
インターネットで検索していると、実際に写った様子を物撮りしている映像があったので、掲載しておきます。
ファーストインプレッションとしては輝度が高く、比較的見やすいWaveguideではないか。と感じました。最近、販売されているスマートグラスはコストカットのためか、緑色の単色であることが多く、フルカラーでの表示にはこだわりを感じます。
また、参考にした記事には、重さは60g以下である。と記載があります。
スマートグラス型は、ほとんどメガネと言っていい形状だ。重量は60g以下程度だそうで、つけていてもメガネとの差がわからない。スタンドアローン型ではなくスマホと連携して使うもので、ワイヤレス接続になる。
引用:発売に向け本格始動。Android XRは「複数の形を持つXRプラットフォーム」だった
この内容にはもう1つ気になるポイントがあります。それは「スタンドアローン型ではなくスマホと連携」と記載があります。そのため、スマートグラス単体では動作をしない。と私はとらえました。ここで思い出されるのはNTTコノキューのMiRZAです。
MiRZAはQualcommの「Snapdragon AR2 Gen 1」を搭載したスマートグラスです。このMiRZAもスマートグラス単体では動作しません。AndroidXRでProject Moohanと呼ばれるHMDはQualcommの「Snapdragon XR2+ Gen 2」が搭載される予定です。
そのため、このGoogle製のスマートグラスも、Snapdragon AR2周りのSoCが搭載されるのではないか。と私は予測をしています。
また、映像を見てもわかるように、「カメラ1つ左側のみ」です。また、ディスプレイは右目片眼のみです。
デバイスには複数のマイクと1つのカメラ、1つのディスプレイが内蔵されている。操作は基本的に声で行なうことになりそうだ。すなわち、AIであるGeminiを介して動くことが前提で、「メガネの中にアシスタントがいて、声や映像で反応する」と考えるとわかりやすいだろうか。
引用:発売に向け本格始動。Android XRは「複数の形を持つXRプラットフォーム」だった
このように単眼のカメラであるため、ハンドトラッキングや空間認識は行われないと考えられます。
また、これは本当かどうかは若干疑念がありますが、「ディスプレイはオプション」である。ということがGoogleIOに参加したYouTuberの発言としてあります。
自分としては、若干、絶妙なラインだと考えています。例えば、Metaが販売しているRay-Ban Metaというスマートグラスにはカメラ・マイクが存在しているが、ディスプレイが存在しない。しかし、この1年ほどのニュースを読み解くと、MetaはこのRay-Ban Metaにディスプレイを搭載した製品を発売する噂が絶えません。
これは、Metaがそもそも「ディスプレイをつけていない製品を売っていた」から、「今後は、ディスプレイあり、ディスプレイなしの2つのバージョン販売する」ということに納得感がありますが、これから売り出す製品に初期から2バージョンの展開をするか?といわれると、本当?と思う面が私にはあります。
まとめると新GoogleGlassの今まで判明しているスペックは
- 重さ60g以下
- スマートフォン接続型(おそらくスマートグラス単体で動作しない)
- マイク・スピーカー搭載
- カメラは1つ
- 片眼フルカラーディスプレイ
- ディスプレイはオプション
個人的な予測として
- 空間認識やハンドトラッキングは行われない
- SoCはSnapdragon AR2シリーズ
セルゲイ・ブリンの復帰
最初の章のタイトルが「令和最新版GoogleGlass」と題していますが、ふざけてはいるがふざけてはいません。これは「令和最新版GoogleGlass」です。
(先述の通り、令和の時代にも公式からGoogleGlassは販売していました)
2025年5月21日のcnBetaという中国系メディアの記事を紹介します。
Googleの共同創業者セルゲイ・ブリン氏は「Google Glassで多くの間違いを犯した」と認めた。
ブリン氏は、「Tech Big Podcast」の司会者アレックス・カントロウィッツ氏による、Google DeepMind CEO デミス・ハサビス氏へのインタビューにサプライズゲストとして登場した。
(中略)
インタビューの冒頭で、ブリン氏は実はグーグルのジェミニプロジェクトに取り組むために引退を撤回したと認めた。グーグルの共同創業者は、カリフォルニア州マウンテンビューのオフィスにほぼ毎日出勤しており、グーグルのビデオ生成モデルであるVeo 3などのマルチモーダルプロジェクトでジェミニチームを支援していると語った。
とある。そもそもGoogle Glassとは、Googleの共同創業者であるセルゲイ・ブリンが始めたプロジェクトです。
実は2024年にも、セルゲイ・ブリン氏がGoogle I/Oに参加しており、Geminiのスマートグラスのデモへの言及はありました。
Google Glassが復活するのかという質問に対しては、Brin氏は「検討が必要だ」と答えた。一方、Project Astraについては「ハンズフリーで使えることが重要」だとした。Brin氏は、他社からAIを搭載したクリップやデバイスも出ているが(Humaneの「Ai Pin」やrabbitの「rabbit r1」のことだろう)、メガネは「フォームファクターとしてかなり優秀」だと述べ、「(Google Glassを)もう少し良いタイミングで出せていたら」と振り返った。
(中略)
Project Astraの動画には、スマートグラスらしきものをかけた人物がProject Astraに指示を出す様子が映っている。しかし、Bring氏はこのメガネ型デバイスが何かは知らないと言う。「今は、いろいろな会社からディスプレイを搭載した興味深い製品が出ている。これらの製品がどう使われるのか見守っていきたい」とBrin氏は語った。
そのGoogle Glassを作った張本人がGoogleへ戻り、そしてGoogleが新たなスマートグラスを作っていることには期待を抱かざるを得ません。
ウェアラブルチャンネル
スマートグラスやウェアラブルガジェットに関するニュースを毎日更新するYouTubeチャンネルをやってます。日本語でのスマートグラスの情報が世界一多いチャンネルです[独自研究]。たぶん誰も知らない海外のスマートグラスの販売情報も取り扱っています
GitHub Sponsor