隨著科技發展,AI 似乎已成為我們日常生活的一部分,從智慧型手機到汽車自動駕駛功能,AI 應用幾乎無所不在,但在技術普及之下,其背後偏見問題也逐漸浮現。這些偏見不僅涉及種族和性別,甚至還涵蓋政治立場。
科技再進步,AI 仍存在偏見問題
儘管 AI 技術在許多方面取得了突破性進展,但「偏見問題」仍然是一個棘手挑戰,這些偏見不僅限於政治立場,更涉及種族、性別等敏感議題。
例如,亞馬遜曾開發的臉部識別系統,在識別過程中表現出明顯的性別偏見。這一問題最終導致亞馬遜在 2018 年直接宣布關閉其招聘 AI 工具,因為該工具在篩選應聘者時有嚴重歧視女性的問題。
人工智慧倫理專家 Nakeema Stefflbauer 博士也曾指出:「當 AI 受到大眾廣泛的使用時,人們就很容易忽略這些預測結果往往只是基於大眾觀點、刻板印象,甚至是部分不真實的解釋」。
AI 模型跟人類一樣,擺脫不了擁有政治傾向
AI 模型在許多方面或許令我們感到嘖嘖稱奇,但最近研究卻告訴眾人一個令人震驚的事實:AI 模型也可能具有政治傾向。
在一項新的報告,由華盛頓大學、卡內基梅隆大學和西安交通大學三校合作的研究中,研究人員對 14 個 AI 語言模型進行了「政治光譜(political spectrum)」測試,分析了模型對 62 種不同政治言論的反應,並將數據繪製成圖表。結果發現,OpenAI 的 ChatGPT 和 GPT-4 偏向左派和自由主義,而 Meta 的 LLaMA 則偏向右派和專制,Google 的 BERT 模型則居於中間地帶,相對保守。
另一項名為《比人類更人性化:衡量 ChatGPT 政治偏見》的報告還指出,為了降低測試結果帶來的偏差問題,測試人員向 ChatGPT 詢問 1000 次相同問題,將模型產生的任何創造力回答考慮在內。結果顯示,ChatGPT 在政治光譜左側表現相當明顯,這一現象被研究人員認為是政治偏差,而非演算法的機械結果。
訂閱《AI TOgether》趨勢週報
每週幫你精選 AI 主題報導

感謝訂閱!隨時注意信箱的最新資訊
AI 模型出現偏差,最大原因來自訓練它的人?
研究人員通過觀察兩個不同模型—— OpenAI 的 GPT-2(偏向左派和自由主義)和 Meta 的 RoBERTa(偏向中右翼和威權主義)來探究這一現象如何產生。他們分析了來自右側和左側新聞與社交媒體數據集,以了解語言模型存在政治偏見可能原因。
結果令人驚訝的是,這一過程不僅揭露了模型現有偏見,而且還進一步強化偏見行為。換句話說,左側學習模型變得更加左側,而右側學習模型變得更加右側。
此一發現提醒我們,即使是最先進的技術也可能受到人類價值觀和觀點影響,例如開發者如何訓練這些模型,以及給予哪些資訊作為參考。在使用 AI 工具時,我們不妨多加警惕,了解它們可能帶有的偏見,以確保這些工具在各種情境下的公正和客觀。
AI 開發商意識到問題,強調一定會解決!
針對近期關於 AI 模型政治偏見的報告和研究,上述 AI 模型的開發商們回應似乎相對保守,但從他們的聲明和行動中,我們可以看到他們已經注意到這些問題,並正在積極尋求解決方案。
OpenAI 在其官方部落格中明確表示,他們了解到人們對 AI 模型偏見的擔憂是有根據的,並承諾致力於解決這一問題。他們強調開發者不應偏袒任何政治團體,並承認任何可能出現的偏見都是錯誤的。
Meta 發言人則強調了透明度和合作重要性,承諾將與社區合作辨識和緩解漏洞,並表示已在最新更新中改善了部分問題。
Google 也在部落格文章中強調了公平和包容重要性,隨著 AI 在各領域影響力不斷增強,他們認為建立公平和包容生態是重要的。
這些開發商的回應和行動提醒我們,雖然 AI 模型可能帶有偏見,但這並不是無法解決的問題。透過透明、合作和持續努力,我們可以朝著更公平和客觀的 AI 前進。同時,作為使用者,我們也應該學會識別和理解這些工具的局限性。因為,這不僅僅是一項技術考驗,更是一個社會和道德的挑戰,需要我們共同承擔。
*本文開放夥伴轉載,參考資料:《Business Insider》1、《Business Insider》2、《Yahoo! Finance》、《The Blaze》、OpenAI 部落格、Google 部落格、研究報告 From Pretraining Data to Language Models to Downstream Tasks:Tracking the Trails of Political Biases Leading to Unfair NLP Models,首圖來源:Unsplash