減少冒犯傷害言論 Twitter 測試發帖篩查功能
|
科技新知
為了讓用戶三思而後貼文,Twitter 正在 iOS 版本程式進行測試,當系統偵測到用戶打算發出的回應內含語言暴力字眼,就會在對方按 Send 時彈出提示,避免貼文對他人構成傷害。類似的功能去年在另一社交平台 Instagram 已經出現,透過人工智能去偵測用戶準備發出的回覆,是否含有冒犯的言論。
到底 Twitter 會如何作出實質呢?官方回應指系統會利用那些被網民舉報的內容作為參考。這項新功能暫時只在美國進行測試,而且限制少量 iOS 版本的用戶參加。
資料來源:Twitter