2024年7月12日 星期五

轉載「使用外部 AI 工具,如何避免公司機密外流、降低資安風險?」訊息

在2023 年,幾名三星( Samsung )電子研發單位的員工,無意中將內部的敏感資料洩漏到外部的 AI 系統。其中一位員工將內部軟體的程式碼貼進 ChatGPT 的對話框,以尋找程式碼的錯誤;也有職員將會議紀錄上傳到 ChatGPT,轉換為簡報檔。這些做法雖然可以顯著提高工作效率,但又會對企業造成哪些潛在傷害?

舉例來說,AI 提供商為了優化效能,常會利用使用者上傳的資料來訓練自己的 AI 模型。因此當他人也利用 ChatGPT 撰寫類似的程式時,可能會意外取得三星的部分程式碼;當另一個半導體公司在擬定商業策略時,ChatGPT 也可能順便將三星的內部會議討論結果作為參考,整合在輸出的內容中。

外流的資訊已經覆水難收,而三星只能做出緊急處理,例如員工輸入到 ChatGPT 的內容限制在 1024 個位元組以下(約 300~400 個中文字)。然而事實上,若要洩漏機密,一兩行文字就已足夠造成巨大傷害,所以三星也緊鑼密鼓建立企業內部的 AI 工具來替代外部服務。

 

 

【資安新聞-經理人】


詳細資訊請參考:https://www.managertoday.com.tw/columns/view/68808?

沒有留言:

張貼留言