哇,整個這個眼鏡戴上去的感覺太科幻了!
這是我戴上 Meta Ray-Ban Display 的第一反應。說實話,從看到去年 Meta Orion 樣機的表現之后,我的期待值原本沒有特別高,但真的把 Display 戴在頭上,我突然覺得這個行業有戲。
在 Meta Connect 2025 發布會上,這副售價 799 美元的「帶屏智能眼鏡」終于揭開面紗。它是 Meta 首款支持顯示功能的智能眼鏡,通過右眼的彩色光波導 HUD 和配套的 Neural Band 腕帶,把「臉上的 AI」從概念變成了現實。

與 Orion 樣機類似,Display 采用的顯示技術是彩色光波導,這種僅依靠光線在載體內反復折射、將畫面反射到鏡片中間的技術是目前 AI 眼鏡最主流的顯示方式。但 Meta 實現了一項很特殊的指標:低至 2% 左右的漏光率。
也就是說 HUD 點亮時,你對面的人完全看不到光波導的反射和漏光,不像是今年早些時候谷歌推出的 XR 眼鏡樣機那樣會有一個明顯的反射區域:

@夢雅Myra 佩戴的 Display,在類似的角度不會出現明顯的屏幕漏光
即使我的朋友站在對面,在屏幕完全點亮時也完全察覺不到。只有從側面角度,才能看到幾排光波導屏幕導線的反光。
只不過,根據外媒 TheVerge 的上手體驗,Meta 這塊過于透明的屏幕也有一些弊端:由于和你對話的人完全看不到你在看什么東西,可能會感覺你有點心不在焉、視線沒有集中在人身上。
至于實際的屏幕顯示效果,Display 這塊光波導屏幕亮度足足有 5000 尼特,搭配默認標配的光致變色鏡片,在光線過強的戶外鏡片會變成墨鏡片,可讀性依然非常優秀。
單眼顯示與神奇的 Neural Band
之前我一直擔心單眼顯示會不會很奇怪,但實際體驗完全打消了這個顧慮。我已經連續使用了一個多小時,最明顯的感受是它可以跟現實世界無縫融合。
雖然 Display 僅有一塊位于右側的屏幕,但它的單眼顯示效果與環境融合的很好,因為屏幕的位置和視場角(FOV)都設計的比較低,在直視的時候屏幕的顯示區域會落在對方的胸口處,幾乎和電影的字幕是完全一樣的。

因為扎克伯格比對方矮,需要低頭對話
這塊 600×600 像素的屏幕雖然面積不大,但能做的事情跟手機很像,換句話說,整個顯示界面的設計和邏輯完成度都非常高,幾乎不會有使用時不知所措的情況。
比如我用它看 WhatsApp 和 Messenger 消息,整個對話流其實是可以完整顯示出來的。通過手指上下滑動翻頁,再用語音轉文字回復的過程也非常流暢。我甚至在想,真的可以很長時間不用把手機從兜里掏出來了。

而作為 Display 的主要操控方式,配套的 Neural Band 腕帶更是改變了游戲規則。
雖然和蘋果 Vision Pro 一樣都可以通過手指手勢操控,但 Display 并不依賴攝像頭,而是借助腕帶讀取手腕的肌電信號(EMG)來識別的,也就是說你的手可以放在身體兩側、背在身后、甚至藏在口袋里,手勢依然能被準確識別。
Neural Band 的主要操作方式包括雙擊中指點亮屏幕、單擊中指退出、單擊食指確定、旋轉手腕放大,以及用拇指在食指上滑動翻頁等等。雖然需要一點學習時間,但是掌握難度并不高,靈敏度也是很優秀的。

而 Display 用來處理輸入的方式則更加有趣。除了通過耳機上的 6 麥克風陣列做語音輸入之外,你其實還可以戴著 Neural Band 直接在平面上寫字,腕帶會結合肌電信號和陀螺儀識別手寫的字母,就像扎克伯格在發布會演示的這樣:

扎克伯格在采訪中透露了一個有趣的細節:他已經能用這個系統達到每分鐘 30 個單詞的打字速度,幾乎一整天都在用眼鏡收發消息。他的高管們甚至能分辨出哪些消息是用眼鏡發的——比如那些長度更短、但是秒回的信息。
更重要的是,扎克伯格認為 Neural Band 的潛力遠不止于此:
(雖然)我們發明 Neural Band 是為了配合眼鏡使用,但我認為它最終可能成為一個獨立的平臺。未來,它不僅能通過思維實現個性化自動補全,還可能成為控制其他設備甚至智能家居的方式。
那些真正打動我的功能
如果說戴著 Neural Band 虛空寫字像是變成了鋼鐵俠一樣,那眼鏡里的實時字幕功能讓我感覺獲得了超能力。
喚醒的方式很簡單,說一句「Hey Meta, turn on live captions」,對面人口中的英語就會實時顯示在屏幕上。在嘈雜環境里,Display 甚至能準確識別你正在看的那個人的聲音,多個人同時說話也不會混淆。

并且得益于前面提到過的屏幕位置,戴著 Display 看實時字幕的方式,簡直就是把眼前的現實變成了看電影。
雖然核心軟件仍依賴手機連接,但這遠不只是一個通知鏡像。你可以發送文字、接聽音視頻電話、顯示正在播放的音樂、獲取逐向導航指引、查看相機取景,還能運行 Meta AI 識別眼前的物體。

發布會上演示的 Live AI 實時視覺識別場景
Meta 的 CTO Bosworth 強調:清晰的文字渲染是讓 AI 變得有用的關鍵——如果 AI 只能語音回復,你獲得的信息就有限。而當你提問后它能直接顯示答案,這樣不僅更直觀,也更私密。
這種基于「你能看到結果」的確定感是普通版 Meta Ray-Ban 智能眼鏡的純語音交互無法給予的,并且在實際生活里,語音喚醒 AI 助手在很多場合是不太方便的,Display 語音/手勢/視覺混合交互就不會有這種問題。

在體驗 Display 的時候,我試著用 Meta 的 AI 功能識別了一幅畫。Display 不只是語音回答,還在屏幕上顯示了相關的信息卡片,信息密度相比純語音交互(等 AI 慢慢念完)也更高一些。
這塊小屏幕甚至可以用來預覽相機畫面,以及看視頻——雖然 FOV 很小,但畫面大小剛好,細節都能看清。如果朋友發來視頻鏈接,你可以直接在眼鏡上打開查看并快速回復,整個過程不用掏手機。
總之 Meta Ray-Ban Display 體驗下來,我覺得這副眼鏡的核心價值有三點:
增大信息密度:哪怕只有一兩行字的顯示,獲取的信息也比純音頻多得多
給予確定感:能看到具體的界面、動畫和菜單選項,讓眼鏡的操作更有把握
成為 AI 的通路:AI 能看到你所見,你也能看到它的反饋,讓 AI 更無縫地融入日常生活
這可能真的是下一個 iPhone 時刻
扎克伯格在訪談中的判斷很明確:
眼鏡將是下一個計算平臺。這是唯一能讓 AI 看到你所見、聽到你所聽、全天候與你對話的設備。
全球有 10-20 億人日常佩戴眼鏡。五到七年后,這些眼鏡中的大部分會不會都變成某種形式的 AI 眼鏡?扎克伯格說:我覺得這就像 iPhone 出現時,大家都還在用翻蓋手機,但變成智能手機只是時間問題。

Meta 瞄準的是「優化主義者」和「追求生產力的人」。雖然初期產量只有幾十萬副,但 Bosworth 預測「我們生產多少就能賣多少」。扎克伯格也暗示,真正的利潤不會來自硬件本身,而是「來自人們長期使用 AI 和其他服務」。
體驗結束后,我最大的感受是:Display 不再是概念產品或開發者玩具,而是真正可以日常使用的工具。
雖然 799 美元不算便宜(一臺 iPhone 17 也是這個價),20 度的 FOV 和 600×600 的屏幕也不算大,但這些都不妨礙它成為我用過最接近理想的智能眼鏡。

我覺得 Meta Ray-Ban Display 的目標很明確——減少掏出手機的次數,把那些快速查看和回復的操作都通過眼鏡完成。從這個角度說,它確實做到了。
或許正如扎克伯格所說,這就像智能手機替代功能機的時刻。智能眼鏡的技術拐點已經到來,只是還未完全普及。而 Meta Ray-Ban Display,可能就是這場變革的開始,可能就是下一個 iPhone 時刻。