104學習

Steven Wu

稽核|104Giver職涯引導師 第3202410019號

2025/02/25

[稽核]如何在使用LLM等大語言模型工具時保持機密性?

稽核工作中非常重要的事情就是機密性
稽核常常需要接觸到公司許多機密的資料
要保持機密性不可洩漏是非常重要的事情
但在AI時代我們常常會使用網路上的AI工具
在使用這些AI工具時一定得非常小心,不能上傳公司資料或透漏消息
所以在與大型語言模型對話時,要把機密、個資等等資訊刪除
另外也建議要關閉大型語言模型儲存我們對話的數據來訓練資料
以下是關閉目前比較常用的幾項大語言模型儲存數據的方式分享給大家
一、OpenAI的ChatGPT
1. 首先點選右上角頭像後點選「設定」
2. 點選「資料控管」,將「為所有人改善模型」的選項關閉
3. 裡面也有一些隱私權政策,可以稍微閱讀一下確定自己可以接受再使用哦!
二、Google的Gemini
1. 點選左下角的「活動紀錄」
2. 將「儲存活動」的選項關閉,並且可以刪除過去的對話
如果不希望我們審查日後對話或將其用於改良 Google 機器學習技術,[請關閉 Gemini 系列應用程式活動記錄](https://support.google.com/gemini?p=pause_activity&sjid=12318481658026104633-NC)。如要查看 Gemini 系列應用程式活動記錄中的提示,或刪除對話內容,請前往 [myactivity.google.com/product/gemini](https://myactivity.google.com/product/gemini)。
三、Anthropic的Claude
1. Claude有提到不會使用對話來訓練模型
2. 直接問Claude他也有相關回應
總的來說,在使用AI工具、大型語言模型時一定要注意資訊安全及保密原則
就算有聲明不會儲存數據用來訓練,還是可能會有人工審查,同樣存在機密外洩的風險
尤其身為稽核人員更是需要注意
0 0 1016 0