Search
Close this search box.

網友變紅隊!社群媒體揭 AI 系統漏洞

在安全測試和評估中,紅隊(Red Teams)指的是模擬攻擊者來測試系統弱點的團隊。他們的角色是找出並利用系統中的漏洞,以便系統開發者修復。而現今,社群媒體用戶利用迷因揭露 AI 的缺陷,儼然成為另類的紅隊。

AI 風行至今,卻也屢屢出包。如 Google 雖強調在推出新功能前已進行廣泛測試,AI 建議卻出現嚴重錯誤,如誤將喜劇網站內容當真進而引用,引發社群媒體用戶嘲笑;也曾利用一位 11 歲 Reddit 用戶的發布內容,建議在披薩醬中加膠水以增加黏性。還曾有 AI 提供關於響尾蛇咬傷的錯誤建議,內容有違美國林務局指示,或是將有毒蘑菇誤認為普通蘑菇,引發警示。

含有重大錯誤的生成回應若在網路上迅速傳播,AI 可能會對新內容感到困惑,進一步衍生出更多的錯誤。這顯示在網路上訓練大規模 AI 模式的固有問題,也代表即使是知名科技品牌,生產的 AI 產品依舊不盡理想。

*本文開放合作夥伴轉載,資料來源:《TechCrunch》首圖來源:Unsplash 。