
從語音指令走向「無聲輸入」
Q.ai 的核心技術並非傳統語音辨識,而是分析面部微細動作與肌肉變化。透過機械學習模型,系統能偵測唇部動作、皮膚微細變化及面部肌肉活動,從而辨識用戶「默唸」或「無聲說話」的內容。換言之,未來用戶或無需開口說出「Hey Siri」,只需動嘴即可發送訊息、播放音樂或啟動功能。這意味著人機互動正由「聲音輸入」轉向「感測輸入」,裝置不再只聽你說話,而是讀取你面部的動態訊號。AirPods 可能成為第一個載體
此技術與市場傳聞並非毫無關聯。分析師郭明錤曾預測,Apple 可能在 2026 年推出搭載紅外線感測模組的 AirPods,類似 Face ID 的深度感測系統。若此類硬件結合 Q.ai 的演算法,AirPods 將不只是音響裝置,而會成為全新的 AI 操控介面。用戶在通勤、會議或公眾場合,只需動嘴即可操作,避免開口說話的尷尬與干擾。未來這項能力亦可能延伸至 Vision Pro 或智能眼鏡,構建完整的穿戴式裝置無聲互動生態。從 Face ID 到臉部操控
Q.ai 創辦人 Aviad Maizels 曾共同創立 PrimeSense,該公司技術後來成為 Face ID 的基礎來源之一。 Apple 過去已成功普及 3D 面部辨識,如今或許正進一步將「辨識樣貌」升級為「讀懂動態」。這不再局限於解鎖功能,而是將面部表情與動作視為輸入裝置。若技術成熟,面部將成為繼觸控與語音之後的第三種主要操控介面。涉及侵犯私隱?
不過,此技術亦引發新的私隱討論。當裝置持續監測唇部與肌肉活動時,收集的數據不僅是操作指令,還可能包括情緒狀態、生理變化,甚至未說出口的意圖。這類生物辨識資料若儲存或處理不當,敏感程度遠高於一般語音紀錄。無聲操控提升便利性的同時,亦令裝置對人體的觀察更深入。未來的關鍵不單是技術是否可行,而是用戶是否願意讓裝置讀取如此多的個人訊號。來源:GizmoChina