您應該了解的 3 個聊天機器人隱私風險和擔憂
聊天機器人已經存在多年,但 ChatGPT 和 Google Bard 等大型語言模型的興起,為聊天機器人產業帶來了新的生命。
全球有數百萬人使用基於人工智慧的聊天機器人;然而,在探索此類技術時,考慮潛在的隱私危害至關重要。
資料收集
聊天機器人從其早期的版本作為可以簡單地向用戶打招呼的基本虛擬助手,已經發生了顯著的發展。現代聊天機器人能夠處理複雜的查詢並滿足一系列需求,通常需要使用者大量的輸入。儘管問題很簡單,但人們通常更喜歡將其限制在他們的互動範圍內。
根據OpenAI的支援部分,您可以隨時刪除ChatGPT聊天日誌,然後這些日誌將被刪除30天后從OpenAI 系統中永久刪除。但是,如果某些聊天記錄被標記為有害或不當內容,該公司將保留並審查某些聊天記錄。
另一個流行的人工智慧聊天機器人 Claude 也會追蹤您之前的對話。 Anthropic 的支援中心 指出,Claude 會追蹤「您在產品中的提示和輸出,以提供根據您的控制,您可以隨著時間的推移獲得一致的產品體驗。”您可以刪除與 Claude 的對話,這樣它就會忘記您一直在談論的內容,但這並不意味著 Anthropic 會立即從其係統中刪除您的日誌。
人們可能會詢問是否保留個人資訊。此外,它還引發了有關 ChatGPT 和其他對話式人工智慧系統等實體使用此類數據的問題。
但擔憂還不止於此。
ChatGPT 如何學習?
為了提供信息,大型語言模型需要使用大量數據進行訓練。根據科學焦點報道,光是ChatGPT-4在訓練期間就被輸入了3000億字的資訊。這並不是直接取自一些百科全書。相反,聊天機器人開發人員使用來自互聯網的大量資訊來訓練他們的模型。這可以包括來自書籍、電影、文章、維基百科條目、部落格文章、評論甚至評論網站的資料。
請記住,某些聊天機器人開發人員可能有不同的隱私權政策,因此在訓練過程中可能不會使用前面提到的一些資料來源。
ChatGPT 因其缺乏足夠的措施來保護用戶隱私而受到廣泛批評。這種情緒表明用戶擔心 ChatGPT 可能會濫用或洩露他們的個人資訊。因此,許多人將 ChatGPT 視為在保護敏感資料方面不值得信賴的實體。這些擔憂背後的原因可能源於多種因素,例如加密協議不足、資料處理實踐鬆懈以及資料收集和使用政策透明度不足。
ChatGPT-3.5 提供的關於在訓練過程中沒有直接接觸用戶文章評論和產品評論的聲明似乎很明確。然而,經過進一步審查,這種說法的範圍似乎有些含糊之處。當具體詢問此類資料來源時,ChatGPT-3.5 堅決否認;然而,模型響應中的間接暗示可能表明情況並非如此。
相反,它是利用從互聯網上挑選的各種文本進行教育的,包括網站、出版物、論文以及截至 2021 年 9 月可供公眾訪問的各種其他書面來源。
有鑑於此,人們可能想知道類似的模式是否也適用於 GPT-4。
在我們向 GPT-4 詢問期間,系統確認 OpenAI 沒有在聊天機器人的訓練階段使用特定的使用者批評、私人資訊或評論。此外,GPT-4 告訴我們,它的產出來自於它所受教育的資料集中發現的模式,這些模式主要包括文學作品、出版物和線上文本。
GPT-4 承認一些社群媒體內容可能會合併到其訓練資料集中;然而,它強調,負責創建此類內容的個人身份應保持不明。在這方面,GPT-4 明確聲稱它無法存取特定評論、提交內容或任何可能導致識別特定使用者身分的資訊。
GPT-4 答案的另一個相關方面是 OpenAI 尚未揭露其訓練過程中使用的所有特定資料來源。儘管該組織可能難以列舉全部 3000 億字的來源,但這種缺乏透明度的情況仍然為這些來源的性質和範圍留下了猜測和不確定性的空間。
在 Ars Technica 文章 中,據稱,ChatGPT 確實收集「未經同意而獲得的個人資訊」。在同一篇文章中,提到了上下文完整性,這個概念是指僅在最初使用某人的資訊的上下文中使用該資訊。如果 ChatGPT 破壞了這種上下文完整性,人們的資料可能會面臨風險。
另一個需要注意的問題涉及 OpenAI 遵守《一般資料保護規範》(GDPR)的情況,這是歐盟強加的旨在保護個人資訊的框架。值得注意的是,義大利和波蘭當局已對該組織是否遵守這項監管措施發起了調查。此外,由於擔心隱私問題,ChatGPT 在義大利一度遭到禁令。
據悉,OpenAI先前曾因擬議的人工智慧監管措施而考慮退出歐盟,不過這一立場隨後被撤銷。
雖然 ChatGPT 是目前最大的人工智慧聊天機器人之一,但重要的是要認識到,對聊天機器人隱私的擔憂不僅限於這個特定平台。事實上,如果個人使用隱私權政策不明確的可疑聊天機器人,他們的對話很可能會被不當利用,或者更令人擔憂的是,機密資訊可能會被納入聊天機器人的訓練資料中。
資料竊取
與其他數位資源或平台類似,聊天機器人也容易受到網路相關攻擊。儘管聊天機器人為保護用戶隱私和資訊而實施了強有力的安全措施,但熟練的駭客仍然存在破壞其係統防禦的固有風險。
如果會話代理保留與個人高級訂閱相關的敏感資訊(例如信用卡詳細資料或個人聯絡人資訊),那麼在網路入侵成功的情況下,這些資訊就有可能被洩露。
事實上,使用未配備強大安全措施的不合格聊天機器人可能會導致組織的資訊基礎設施遭到破壞,並且由於缺乏登入通知或驗證協議而可能危及個人帳戶。
不幸的是,人工智慧聊天機器人的激增引起了網路犯罪分子的注意,他們抓住這個新興產業作為實施詐騙計畫的機會。假冒ChatGPT 網站和外掛程式的盛行是此類惡意活動的一個顯著例子,自2022 年底OpenAI 聊天機器人發布以來,這種惡意活動變得尤為猖獗。因此,毫無戒心的個人成為這些騙局的受害者,在這些騙局下洩露了他們的個人資訊。與真實可靠的聊天機器人互動的虛假藉口。
2023 年 3 月,All Things N 披露,有一個欺詐性的 ChatGPT Chrome 擴充功能正在流通,該擴充程式旨在增強 Facebook 互動。不幸的是,這個特定的擴充功能被發現利用平台安全基礎設施中的漏洞非法取得登入憑證。此外,我們發現該實例只是眾多其他旨在欺騙毫無戒心的用戶的欺騙性 ChatGPT 服務之一。
惡意軟體感染
在不知不覺中使用不道德的聊天機器人可能會導致提供惡意網站的連結。聊天機器人可能會以誘人的贈品來吸引您,或透過此類來源為其主張提供理由。如果平台業者別有用心,他們的主要目標可能涉及透過有害的超連結傳播惡意軟體和詐騙。
或者,網路犯罪分子可以利用合法聊天機器人服務中的漏洞,隨後將其用作分發惡意軟體的管道。在這些聊天機器人在用戶中非常受歡迎的情況下,大量的人可能成為惡意軟體的受害者。值得注意的是,受人尊敬的蘋果應用程式商店中也出現了 ChatGPT 的假冒版本,從而凸顯了下載和使用應用程式時謹慎行事的重要性。
建議在與聊天機器人互動時謹慎行事,在點擊任何提供的連結之前先透過信譽良好的連結檢查服務。雖然這種預防措施看起來很乏味,但它是防範潛在惡意網站的重要保障。
事實上,在安裝任何聊天機器人插件或擴充功能之前,必須驗證其真實性。對應用程式進行一些研究以確定它是否收到了積極的評論,以及搜尋有關開發人員的信息,可以幫助識別潛在的危險信號。
聊天機器人並非不受隱私問題的影響
事實上,與許多當代數位資源一樣,聊天機器人經常受到資料保護和隱私方面潛在漏洞的審查。這包括對保護用戶福祉方面可能存在缺陷的擔憂,以及網路威脅和詐欺活動造成的普遍危害。因此,用戶必須了解他們選擇的聊天機器人平台收集的信息,並驗證是否已實施適當的安全措施來減輕這些風險。