Google、微軟、AWS 都有生成式 AI 使用手冊!資安長請即刻啟動新時代資安教育

【TechOrange 編輯部導讀】

生成式 AI 工具如 ChatGPT 可能是人類各類工作上最佳助手,但對企業來講,可能得先敲響資安警鈴,因為員工很可能沒有意識到,就把公司敏感的機密數據與文件和這類生成式 AI 工具分享了。

企業或可參考微軟、Google 以及 AWS 這類科技巨頭,是如何規範員工使用的。

OpenAI 開發的人工智慧聊天機器人程式 ChatGPT,在今年引發熱潮。不只一般的問題難不倒它,各種感情問題、情境題或甚至是惡搞題,都可以得到頭頭是道的答案,也因此許多工作者開始會用 ChatGPT 來「工作」。

許多工程師發現,透過 ChatGPT 檢查程式碼可以讓他們的工作更快、更有效率,不過,把工作內容丟上 ChatGPT 真的沒問題嗎?

70% 員工工作用 ChatGPT,老闆不知情

根據 Cyber​​haven 的報告指出,大約有 2.3% 的員工會將公司機密資訊放上 ChatGPT。調查機構 Fishbowl 的調查也發現,近 70% 在工作中使用 ChatGPT 的員工,並沒有告訴老闆。

由於 ChatGPT 上這些數據的去向或使用方式,其實並不透明,因此現在企業在尋找能將 ChatGPT 融入工作,但又不會危及公司機密、客戶資訊和智慧財產權的方法。

隨著生成式 AI 的應用越來越廣泛,許多公司已開始實施相應的管制措施,以保護企業機密和確保員工的工作效率。

據報導,美國跨國零售企業沃爾瑪(Walmart)和亞馬遜(Amazon)都警告員工,不要在聊天機器人中分享機密資訊。而摩根大通和美國行動網路運營商 Verizon 也已經禁止員工在工作中使用 ChatGPT 或其他生成式 AI 工具。

微軟、Google、AWS 這樣限制員工使用生成式 AI 工具

三大科技巨頭微軟、Google、AWS 是如何限制員工使用 ChatGPT 等生成式 AI 工具的呢?

微軟已經發布關於生成式 AI GPT-3 的使用政策,要求員工在使用 GPT-3 之前必須經過管理層的批准,該公司還要求員工在使用 GPT-3 時進行記錄,以確保他們的使用方式符合公司的政策和規範。

Google 也同樣要求員工在使用生成式 AI 之前,必須進行審查和批准。此外,Google 還設置了監控程序,以控管員工使用生成式 AI 的方式和目的。

亞馬遜的雲端服務公司 AWS(Amazon Web Services),也開始實施對員工使用生成式 AI 的管制措施。AWS 要求員工在使用生成式 AI 時遵守公司的政策和法律法規,並進行必要的安全保護和監控。

企業員工正確使用生成式 AI 的方式

雖然有許多資安主管可能對員工使用 ChatGPT 一類的生成式 AI 工具感到擔憂,但也不能否認這樣的工具,若獲得適當的使用仍有可能為公司帶來前所未見的創新。專家也為此盤點出以下 3 個建議:

制定生成式 AI 使用政策

當企業使用自己的內容、文檔和資產進一步訓練生成式 AI 模型時,也許會出現許多有趣的案例,並能擴展更多生成式 AI 的相關應用。因此隨著生成式 AI 的發展,企業需要制定使用生成式 AI 的政策以保障安全和隱私,以避免機密和私人數據進入公共系統,建立更加安全的環境。

更加注意數據內容和評估偏見

與程式碼或解決方案不同,生成式 AI 是經過訓練的模型,因此生成式 AI 可以產生任何形式的內容。當企業在訓練生成式 AI 時,需要更加關注數據和評估偏見。這可以透過適當的數據收集和多元化的專業團隊,來協助評估偏見。

為使用生成式 AI,創造新的工作和責任

此外,生成式 AI 的使用也需要創造新的工作和責任,並確保 AI 以合乎道德和負責任的方式使用。因此,在日常使用生成式 AI 時,仍然需要有意識地使用人類才有的技能,例如批判性思維,才能實現最大化應用價值。

雖然表面上來看,AI似乎會對一些簡單、重複的工作構成威脅,但其實如果善加運用,生成式 AI 將能提供人類更多幫助、創造更多機會,並釋放人類更多的創造力,讓人們在工作時更加脫穎而出。

加碼:ChatGPT 怎麼看人類與它分享公司內部敏感數據?

參考資料:VentureBeataxios,首圖來源:Unsplash

(責任編輯:藍立晴)