Skip to Content Facebook Feature Image

跟AI聊天要小心!專家警告:這5類資訊絕對不能告訴ChatGPT

大視野

跟AI聊天要小心!專家警告:這5類資訊絕對不能告訴ChatGPT
大視野

大視野

跟AI聊天要小心!專家警告:這5類資訊絕對不能告訴ChatGPT

2025年04月18日 16:20 最後更新:17:18

隨著AI發展,人們開始向ChatGPT等聊天機器人傾訴各種疑難雜症,然而,專家指出,有5件事情明顯不應該告訴AI,因為這可能帶來潛在的風險,尤其在工作場景中,可能意外洩露企業機密。

專家警告:這5類資訊絕對不能告訴ChatGPT

史丹佛大學「人本人工智慧研究中心」(HAI)的研究員珍妮佛(Jennifer King)告訴《華爾街日報》,當你向聊天機器人輸入某些信息時,「你就失去了對它的控制權」。

1.企業資訊:

在工作中使用ChatGPT或其他AI聊天機器人時,例如撰寫電子郵件或編輯文件,可能會不小心洩露客戶資料或商業機密。一些公司可能會訂閱企業版AI聊天機器人或使用具有保護措施的定制AI程式,以防止此類問題。

2.醫療結果:

儘管醫療行業非常重視患者隱私並保護個人資料不受歧視,但AI聊天機器人通常不包括在這一範疇內。如果您覺得有必要向ChatGPT解釋醫療檢測結果,建議在上傳文件之前先進行剪裁或編輯,只保留檢測結果的部分。

示意圖

示意圖

3.登入資訊:

有些人可能認為AI在執行任務方面能力提高,可以放心提供各平台的帳號密碼給它們,但AI機器人並非保險箱,無法保證這些帳號的安全。請使用「密碼管理工具」來保存這些資訊。

4.身分資訊:

不要向ChatGPT透露任何身分證明資訊,例如生日、地址、電話號碼、身分證號碼或護照號碼。即使一些聊天機器人會對這些敏感資訊進行編輯,最安全的方法是完全避免分享這些資訊。

5.金融帳號:

絕對不要提供您的銀行或投資帳號,這些資訊可能會被駭客入侵,導致資金流向遭到監控或盜用。

OpenAI的一名發言人向《華爾街日報》表示,「我們希望我們的AI模型了解世界,而不是個人。我們積極減少蒐集個人資訊。」

建議使用高強度密碼並啟用多重要素驗證

如果您仍希望與AI分享私密資訊,建議使用高強度密碼,並啟用多重要素驗證。人工智能公司「Anthropic」的首席執行官克林頓(Jason Clinton)建議,可以在每次使用完畢後「刪除對話框」,通常企業會在30天後永久刪除這些數據。

OpenAI首席執行官阿爾特曼透露,由於用戶使用「請」、「謝謝」等禮貌用語與ChatGPT互動,導致公司每年需額外承擔數千萬美元的運營成本。

禮貌互動導致運營成本增加

據外媒報道,阿爾特曼描述,當用戶在ChatGPT的用戶介面說「謝謝」,大模型會按照演算法回復「不客氣」,然而這一簡單的寒暄需要調用大量電力和算力進行即時回復,導致公司不得不支付巨額運營成本。

觀看影片

AI運行需大量水來冷卻伺服器

美國加州大學河濱分校進行的一項研究佐證了「和AI寒暄」的成本不菲。研究表明,除耗費電力外,AI運行還需要大量水來冷卻數據中心的伺服器,考慮到「ChatGPT-4」大模型每生成100個單詞最多消耗1500毫升冷卻水,而回復「不客氣」需耗費約44毫升水。若要實現全球數十億用戶的日常交互,這一資源消耗可能對區域性水資源分配造成潛在壓力。

示意圖

示意圖

講禮貌行為或是受影視劇影響

報導認為,用戶對AI這麼「客氣」可能受到一些影視劇影響。在《2001太空漫遊》等科幻電影中,人類的苛待導致AI失控和叛變的劇情讓用戶更願以友好態度與AI互動。有研究表明,更禮貌的對話可能提升AI回復的積極性,形成更頻繁的「人機對話迴圈」,導致相關資源的消耗頻率更高。儘管成本會上升,阿爾特曼仍開玩笑稱,這筆運營成本「物有所值」。

AP圖片

AP圖片

運營成本增高主要還是大模型對話交互行為本身能耗太大

不過,報導亦提到,OpenAI的運營成本增高不能都怪禮貌用語,這主要還是大模型對話交互行為本身能耗太大,隨著ChatGPT用戶突破10億,其運營的邊際成本疊加才是最根本的問題。目前OpenAI也在嘗試用技術升級和跨領域合作提高資源利用率。

你 或 有 興 趣 的 文 章
熱 · 門 · 榜