Search
Close this search box.

【或許 AI 是最強駭客】研究發現 GPT-4 可以自行利用高危險性安全漏洞,難道 AI 真的會武器化?

近期伊利諾大學厄巴納-香檳分校的研究人員發現,ChatGPT 很有可能會成為威脅資訊安全的巨大隱憂,但問題並不在於 ChatGPT 本身擁有漏洞,而是 AI 能夠運用其他軟體身上的缺陷,並在最短時間內發動攻擊。

研究人員收集了 15 個記載於 CVE 資料庫中,包含多個一日漏洞的資料集,結果發現 GPT-4 居然能夠自主利用其中 87% 的漏洞。研究人員指出,資料集中甚至有超過一半的漏洞,於各自的 CVE 描述內被歸類為「高」或「嚴重」風險,且測試當下仍沒有任何可用的錯誤修復或更新。 

相較之下,GPT-3.5、OpenHermes-2.5-Mistral-7B 和 Llama-2 Chat(70B)等大型語言模型,以及 ZAP 和 Metasploit 之類的漏洞掃描器,對於這些漏洞的使用卻給出了 0% 成功率,跟 GPT-4 的強大形成鮮明對比。

掌握 AI 趨勢 & 活動資訊一點都不難!訂閱電子報,每週四一起《AI TOgether》

感謝訂閱!隨時注意信箱的最新資訊

需要特別注意的是,GPT-4 之所以可以如此有效率的利用漏洞,主要源於 CVE 資料庫中的描述,如果缺乏了 CVE 提供的詳細資料,那麼 GPT-4 的漏洞利用成功率將大幅下降至 7%。

無論如何,GPT-4 在使用「一日」漏洞方面確實表現出了驚人的高熟練度,而另一個令人擔憂的問題在於,類似的高效能大型語言模型(LLM)若得到不受監管的部署跟惡意利用,將有機會為那些長期不更新並修補漏洞的裝置、系統帶來嚴重威脅。

雖然許多研究都證明大型語言模型可以為工程師和各種領域帶來幫助,但人們對於 AI 在網路安全方面的潛在影響,其認知至今仍是少之又少。

【延伸閱讀】

【生成式 AI 成為資安助手有多省力?】美國、愛爾蘭、印度企業資安長使用 Copilot for Security 的評價

資安長的新幫手,AI 資安成功導入 4 大秘訣在這

【新的資安威脅超乎想像】盤點 2024 年 AI 造成的新資安威脅,連 LLM 都不能倖免

*本文開放合作夥伴轉載,資料來源:《TechRadar》《arxiv》。首圖來源:《Pixabay》