在科技日新月異的今天,AI眼鏡正逐步從科幻概念走向現實生活,成為科技巨頭們競相布局的新焦點。近期,谷歌在TED大會上的一場演示,無疑將這一趨勢推向了新的高潮。
在這次備受矚目的演講中,谷歌首次公開展示了其搭載Android XR系統的AI眼鏡。這款眼鏡在Gemini AI的加持下,不僅具備聽懂語言、即時翻譯的能力,更能“看見”世界,實現了一系列令人驚嘆的功能。例如,它能夠記住用戶曾看過的物體,識別書名,直接播放唱片上的音樂,甚至在現實空間中疊加導航指引。
谷歌的這次演示,再次引發了外界對于AI眼鏡的廣泛熱議。值得注意的是,這并不是谷歌首次涉足眼鏡領域,但此次展示的AI眼鏡,背后依托的是谷歌最新構建的XR系統平臺——Android XR,以及Gemini大模型與現實空間的深度融合。
隨著meta、Rokid、雷鳥等廠商相繼發布AI眼鏡,谷歌的這次“下場”,無疑被視為AI眼鏡“平臺戰爭”的新號角。然而,Android XR能否復制Android在智能手機市場的輝煌,仍然是一個未知數。
谷歌打造的這款AI眼鏡,在外觀上力求與普通眼鏡無異,這符合了當前AI眼鏡設計的大趨勢。在TED的演講視頻中,這款看似樸素的智能眼鏡,在Gemini的加持下,展現出了令人矚目的潛力。尤其是Gemini所展示的“記憶”能力,更是引發了廣泛的討論。
在演示中,谷歌員工只需輕輕瞥一眼書架,隨后轉身詢問眼鏡書架上的某本書名,Gemini便能迅速給出答案。這種“視覺記憶”的能力,使得AI眼鏡在“連續性”和“上下文感知”方面邁進了新的維度。它不僅能夠識別物體,更能理解用戶的意圖和需求。
除了“記憶”能力外,谷歌的這款AI眼鏡還具備AR顯示能力。在TED演講中,谷歌XR負責人透露,這款眼鏡搭載了MicroLED顯示屏。通過光波導鏡片,Gemini的交互界面能夠直接呈現在用戶眼前,實現視覺與聽覺的雙重交互體驗。
這種形態的AI眼鏡,不僅提升了用戶體驗,還帶來了更多的交互可能。例如,通過AR導航功能,用戶能夠在現實空間中獲得更直觀的導航指引。這種輕量化AR能力的加持,使得谷歌在AI眼鏡領域邁出了重要的一步。
然而,想要做好AI+AR顯示并不容易。這背后蘊含著對空間感知、視覺識別和語義推理的整合能力,同時也代表了AI眼鏡從“語音驅動”跨越到“多模態交互”的重要節點。谷歌此次推出的Android XR系統,正是為了應對這一挑戰。
Android XR是谷歌為XR設備打造的一套全新操作系統架構,旨在融合語音交互、視覺感知和空間定位等能力。谷歌希望通過這套系統,在下一代計算平臺上復制Android的生態奇跡。然而,現實卻充滿了挑戰。
當前的AI眼鏡市場,已經有多家頭部廠商在自研操作系統。例如,Rokid自研了空間操作系統YodaOS-Master,meta也有自己的Horizon OS。這些操作系統都強調空間定位和多模態交互能力,甚至計劃向第三方開放。因此,谷歌想要通過Android XR打出一片天地,并不容易。
更重要的是,AI眼鏡的核心交互邏輯并不依賴“打開某個App”,而是基于語音、圖像和上下文理解的即時響應。因此,谷歌需要找到一種全新的系統級協作方式,來支撐AI眼鏡的各種功能。在這方面,Gemini無疑是一個重要的突破點。然而,它還需要不斷迭代和優化,才能滿足用戶的需求。