Amazon Alexa 發表新技術   模擬任何人聲只需 1 分鐘錄音

虎仔 / 馬日山 | 科技綜合區
以 Deep Fake 技術將已離世的藝人在銀幕前重現,引起了不少爭議和討論,昨日在美國拉斯維加斯舉行的 Re:Mars 活動上,Amazon 展示的一項技術亦同樣引來與會者和網民嘩然,因為語音助理 Alexa 竟然可以模擬任何人的聲音。
 

可複製任何聲線

根據 Amazon 的介紹,這個正在開發中的技術可以複製家庭成員,甚至是已經離世成員的聲線。示範影片中一位小孩向語音助理 Alexa 說:「Alexa,可以請嫲嫲繼續讀《Wizard of Oz》嗎?」,Alexa 先以機械聲音進行確認,接下來就變成了嫲嫲的聲音為小朋友講故事。
 

技術或存在道德爭議

負責項目的 Amazon 高級副總裁 Rohit Prasad 透露,Alexa 團隊開發了能夠產生高質語音的模型,只需少於 1 分鐘錄音就能複製對方的聲線。Prasad 表示疫情導致很多人痛失至親,雖然技術能夠複製任何聲線,但就建議用於懷念已逝世的親人。人工智能無法減低失去至親的痛苦,但就能夠令回應變得持久。Amazon 未有說明技術何時推出,亦沒有表明將說話以逝者的聲線說出是否合乎道德倫理。

0623-5a.jpg


0623-5b.jpg

資料來源:cnbc
 
廣告