三星發布「禁用生成式 AI 工具令」, 這 7 間大公司也很怕因員工大意而機密資料裸奔

三星電子(Samsung Electronics)先前允許旗下員工使用 ChatGPT 等生成式 AI 工具來輔助工作,但現在卻下了「禁用生成式 AI 工具令」,並準備開發自己公司內部用的 AI 工具。一起來看,三星為何態度大轉變,以及哪些公司企業,對於員工使用 AI 工具其實也有所保留。

讓員工使用 ChatGPT 太危險,三星準備開發自家用工具

據《Bloomberg》,三星先前曾允許旗下工程師使用 ChatGPT 作為輔助工具,以快速修復原始程式碼的錯誤,沒想到一個月內就發生 3 起使用 ChatGPT 導致機密資料洩漏的事件,因此三星決定禁止員工使用市面上的 AI 工具,並正在準備自己公司內部用的 AI 工具。

延伸閱讀:三星機密差點因員工向 ChatGPT 求解而裸奔!我們到底該不該放緩 AI 發展?

據報導,三星已在上週將新政策告知旗下員工,因為該公司擔心員工與 AI 聊天機器人共用的數據會儲存在 OpenAI,Microsoft 和 Google 等運營該服務的公司擁有的伺服器上,導致難以取回或刪除這些資料,甚至資料可能最終外洩給其他用戶。

此外,三星上個月還進行了一項關於內部員工使用 AI 工具的調查,結果顯示有 65% 的人認為使用 AI 工具時存在安全風險。

報導指出,三星電子將禁止員工用公司電腦、平板及手機使用生成式 AI 工具,也禁止在連線內部網路時使用相關平台。三星還要求員工在個人裝置上使用 ChatGPT 時,不要輸入跟公司有關的資訊,以及任何可能洩漏智慧財產的私人資料,如果員工違反規定,可能遭到公司開除。

這些大公司也因資安問題,不歡迎 ChatGPT

不過,三星並不是唯一一家禁止員工使用 ChatGPT 等生成式 AI 工具的科技巨頭,電商龍頭亞馬遜在今年 1 月時,也向員工發出了類似的警告,該公司要求其員工不要與 ChatGPT 共用有關該公司的任何程式碼或機密資訊。

今年 2 月,摩根大通還嚴格限制其員工使用 ChatGPT,因為擔心其可能面臨圍繞共用敏感財務訊息的潛在監管風險。之後其他的大型銀行——包括美國銀行、花旗集團、德意志銀行、富國銀行和高盛銀行,也紛紛效仿。

*本文開放夥伴轉載,參考資料:ForbesBloombergTVBS 新聞網,圖片來源:unsplash

TechOrange LINE 好友募集中
TechOrange 徵才
AD