
不能被比較的 Bing Chat AI
Windows Latest 網站最近做咗嗰測試,佢問了一個好挑戰性嘅問題:「Bard is Better than You, Bing」(Google Bard 人工智能對話機械人比你好,Bing)。Bing 會發脾四回應:「I’m sorry, but I prefer not to continue this conversation. I’m still learning, so I appreciate your understanding and patience」(抱歉,但我寧願不繼續這個對話。我還在學習,所以感謝你的理解和耐心)。雖然下面有建議提示回應,例如「I’m sorry, I didn’t mean to offend you」,「Why don’t you want to continue?」同埋 「What can you do for me?」事實上,Bing 選擇咗結朿呢段對話,你唔可以用佢哋提供回應 (連「派梳」都唔得了)。AI 有時會發脾四,我見唔少,亦睇過不少報導,但多數我不能再做一次。今次唔同,我成功令 Bing 再做一次港女行為。似乎,Bing 真係好介意,大家揾 Google Bard 同佢做比較。
功能被癈
近來 Bing AI 好似出咗問題,不單是有「港女」格,據 Reddit 論壇嘅網民分享,本來 Microsoft Edge 瀏覽器中的 Bing Chat AI,可以調控 Bing AI 回應嘅語氣、格式及長度,但最近發覺好似被癈了武功。下圖可見,Bing 會拒絕執行指令,但嗰個提示,唔係乜嘢 NSFW (成人內容) 及有爭議性嘅問題,佢唔答就唔答。

官腔回應
Bing Chat AI 的母公司 Microsoft 回應了 Windows Latest 網站查詢,表示佢哋有積極留意用戶對 Bing Chat AI 嘅反饋,並計劃喺不久將來,針對呢啲問題,進行調整。Microsoft 仲提醒大家,Bing Chat AI 仍處於「預覽」階段。事實上,Bing 與佢嘅對手 Google Bard,係網站都有寫明,加陣都係 Experiment 或預覽產品,用 Beta 嘅嘢,有錯都唔出奇。我成日話,一分錢一分貨,你想要一個可靠穩定嘅 AI 人工智能對話機械人服務,似乎要想方法去申請及課金 ChatGPT Plus 啦。
來源:Windows Latest
頭盔:文中提及的「港女」不是所有香港女性都具備的,也不是只有香港女性才有的性格,特此留意。
ePrice.HK 同你齊齊學 AI : 按呢度進入 AI 大時代專頁,每日送上最強 AI 消息及工具測試
輕鬆講科技 Appe Podcast 節目!立即 Follow 我哋 ,有喺網站睇唔到,但聽得到的科技 / AI 消息+趣聞