OpenAI ChatGPT 的 8 個大問題
ChatGPT 是一個功能強大的人工智能聊天機器人,很快就給人留下了深刻的印象,但很多人指出它有一些嚴重的缺陷。
鑑於最近發生的安全違規和未經授權訪問敏感信息等事件,人們對在聊天機器人的開發中使用人工智能產生了許多擔憂。然而,儘管有這些保留,這種尖端技術的集成已在各種應用中廣泛應用,擁有從學術學者到企業專業人士的廣泛用戶群。
人工智能的擴散有增無減,使得與 ChatGPT 相關的挑戰變得更加緊迫。鑑於 ChatGPT 即將塑造我們未來的發展軌跡,因此有必要了解其最重要的缺點。
ChatGPT 是什麼?
ChatGPT 是一種先進的語言模型,旨在生成自然的人類話語。本質上,人們可以像與另一個人一樣與 ChatGPT 交互,交換對話並接收針對特定對話量身定制的響應。此外,該模型具有回憶先前交互的能力,同時修正交換過程中可能出現的任何錯誤或差異。
該模型使用大量在線文本進行訓練,包括維基百科等百科全書內容、稱為博客的個人著作、歸類為書籍的文學作品以及經常在學術期刊上發表的學術文章。除了以類似於人類交流的方式與用戶交互之外,該系統還具有訪問有關當代社會的信息並檢索與過去的事件和時代有關的數據的能力。
駕馭 ChatGPT 的使用需要一定程度的熟悉,而無縫功能的錯覺甚至可能很容易欺騙最挑剔的用戶。然而,隨著它的推出,一些與隱私、安全及其對人類生存的各個方面(包括就業和教育領域)產生深遠影響有關的關鍵問題已經浮出水面。
安全威脅和隱私問題
事實上,由於涉及潛在風險,在與人工智能聊天機器人交談時應該避免某些話題。共享財務詳細信息或機密工作場所信息等敏感信息可能會產生嚴重後果。值得注意的是,像 OpenAI 這樣的平台會在其服務器上存儲用戶聊天歷史記錄,甚至可能選擇與預先批准的第三方組織共享這些數據。
事實上,在 OpenAI 的範圍內維持對個人數據的保護已經成為一個問題。具體來說,據報導,在 2023 年 3 月期間,存在安全漏洞,導致 ChatGPT 的某些用戶在側邊欄中遇到與他們不相關的對話標題。用戶聊天記錄的無意洩露對任何科技公司來說都是一種嚴重的擔憂,特別是考慮到有大量的人使用這種廣泛使用的聊天機器人。
據路透社報導,ChatGPT 月流量達1億僅 2023 年 1 月的活躍用戶數。雖然導致洩露的漏洞很快得到了修復,但意大利禁止了 ChatGPT 並要求其停止處理意大利用戶的數據。
由於涉嫌違反歐洲數據保護法,一個監管組織進行了調查,隨後要求 OpenAI 滿足某些要求,以恢復聊天機器人的運行。
OpenAI 最終通過做出幾項重大改變解決了監管機構的問題。首先,添加了年齡限制,將應用程序的使用限制為 18 歲以上或 13 歲以上並獲得監護人許可的人。它還使其隱私政策更加明顯,並提供了一個選擇退出Google 表單,以便用戶將其數據從訓練中排除或完全刪除 ChatGPT 歷史記錄。
迄今為止實施的增強措施取得了值得稱讚的進展;然而,為了獲得最佳結果,必須將這些好處傳播給所有使用 ChatGPT 的個人。
人們很容易洩露個人信息,這可能會讓人感到驚訝,但即使是我們當中最謹慎的人也可能會無意中洩露個人信息,例如一名三星員工在隨意交談時無意中向ChatGPT 洩露了公司機密數據。
對 ChatGPT 培訓和隱私問題的擔憂
發布後,批評者對 OpenAI 為其廣受好評的 ChatGPT 所採用的訓練流程提出了質疑。
即使在數據洩露後 OpenAI 的隱私政策得到了改進,也可能不足以滿足覆蓋歐洲的數據保護法《通用數據保護條例》(GDPR)。據 TechCrunch 報導:
在將意大利個人的個人身份信息納入 GPT 模型之前,該信息的處理所使用的法律依據(涉及從在線來源提取此類數據)仍不確定。此外,對於模型訓練早期階段使用的任何數據是否可以根據那些尋求刪除其個人詳細信息的人目前的要求而刪除,也存在模糊性。
在 OpenAI 對 ChatGPT 的初始訓練期間,很可能收集了個人信息。儘管美國的法規可能沒有那麼明確,但歐洲的數據保護法適用於個人數據的公開和私人披露,從而為個人隱私權提供了更大的保障。
ChatGPT 訓練數據集中藝術品的使用受到了創作者的批評,他們聲稱他們沒有授予將其作品用作人工智能模型開發基礎的許可。與此同時,Getty Images 已對 Stability.AI 採取法律行動,指控其未經授權使用受版權保護的視覺內容來訓練人工智能係統。
OpenAI 訓練數據集披露的不透明性阻礙了我們對其使用是否遵守法律協議的理解。 ChatGPT 訓練方法的複雜性仍然不清楚,包括所使用的具體數據、其來源以及系統架構結構的全面描述。
ChatGPT 生成錯誤答案
ChatGPT 缺乏對基本數學概念的熟練程度,無法對基本邏輯查詢提供令人滿意的響應。此外,眾所周知,該程序會捍衛錯誤信息,儘管有大量相反的證據。不幸的是,許多人在各種社交媒體平台上親身經歷過這些缺點。
OpenAI 知道這一限制,並寫道:“ChatGPT 有時會寫出聽起來合理但不正確或無意義的答案。”正如人們所提到的,這種對事實和虛構的“幻覺”對於醫療建議或了解關鍵歷史事件的事實等事情尤其危險。
最初,ChatGPT 並沒有利用互聯網來獲取回复,這與人們可能熟悉的 Siri 或 Alexa 等其他人工智能助手不同。 ChatGPT 不是訪問外部信息源,而是通過逐字構建回復來生成回复,並利用概率推理根據其訓練數據確定要遵循的最合理的標記。因此,ChatGPT 通過知情推測過程得出響應,這在一定程度上解釋了它能夠提供看似有效但錯誤的答案。
2023年3月,OpenAI開發的人工智能係統ChatGPT的測試版已連接到互聯網進行測試。然而,由於擔心其顯示某些類型內容的能力,它隨後被斷開。雖然 OpenAI 沒有提供具體細節,但他們確實承認 ChatGPT 的瀏覽功能有時可能會以不良方式呈現材料。
“Search with Bing”功能的實現依賴於微軟的 Bing-AI 技術,但該技術在準確回答查詢方面存在局限性。如果系統無法提供令人滿意的響應,例如當被要求提供給定 URL 中描繪的特定圖像的描述時,人工智能更謹慎的做法是承認其無能力,而不是提供不相關或誤導性的信息。正如在本例中觀察到的那樣,必應搜索引擎提供了紅色和黃色金剛鸚鵡的詳細說明,而實際圖像顯示了一個坐著的人。
在我們對 ChatGPT 與 Microsoft Bing AI 和 Google Bard 的綜合評估中,我們發現了一系列有趣的錯覺,進一步凸顯了這些語言模型在提供準確的事實信息方面的局限性。事實證明,用戶依靠 ChatGPT 快速檢索數據的便捷性還不夠,因為該系統始終無法提供可靠的結果。在某些情況下,將 ChatGPT 與同樣不精確的搜索工具(例如 Bing)配對會加劇此問題,導致結果不一致。
ChatGPT 的系統中存在偏見
ChatGPT 的教育基礎是人類歷史和當代的全球書面作品。遺憾的是,這意味著社會中可以觀察到的同樣的偏見也可能在體制內表現出來。
ChatGPT 已表現出生成對某些人口群體(包括性別、種族和少數群體)表現出偏見的回复的傾向,這是該公司非常關注的問題。該組織正在積極努力解決這一問題,採取旨在減少此類事件發生的措施,以促進包容性和公平性。
解決這個問題的一種可能的觀點是將其歸因於手頭信息的性質,讓社會對數字領域內外存在的固有偏見負責。然而,鑑於 OpenAI 的研究人員和工程師團隊負責選擇用於完善 ChatGPT 功能的數據集,OpenAI 也應承擔相應的責任。
事實上,OpenAI 認識到了這一擔憂,並表示他們正在積極致力於通過用戶反饋機制來減輕偏見行為,並鼓勵對被認為令人反感、不恰當或事實錯誤的 ChatGPT 輸出進行報導。
可以說,考慮到 ChatGPT 對個人造成傷害的能力,在解決其危險影響之前向普通民眾傳播 ChatGPT 是不謹慎的。然而,或許科技公司之間為了爭奪頂級人工智能係統稱號而展開的激烈競爭,促使 OpenAI 在追求卓越的過程中忽視了審慎的態度。
相比之下,谷歌母公司Alphabet Inc.旗下的另一款名為Sparrow的人工智能聊天機器人於9月推出。然而,出於合理的安全考慮,其發布被故意隱瞞。與此同時,Facebook 推出了名為“卡拉狄加”的人工智能語言模型,旨在促進學術調查。遺憾的是,這一舉措遭到了多方面的強烈反對,因為用戶譴責它產生了與科學研究有關的誤導性和偏見的發現。
ChatGPT 可能會搶走人類的工作
雖然 ChatGPT 迅速實施的影響仍在顯現,但它與各種商業應用程序的集成已經開始。其中值得注意的是 Duolingo 和 Khan Academy,它們已將 GPT-4 作為基礎組件無縫整合到各自的平台中。
前者是語言能力應用程序,而後者包含廣泛的教育資源。兩者都提供了人工智能導師,無論是通過可以用目標語言與之交談的智能化身,還是通過能夠根據個人進步提供個性化指導的自適應導師。
人工智能 (AI) 的出現引起了人們對其對就業市場潛在影響的擔憂,特別是對於圖形設計、寫作和會計等某些職業。最近,人工智能技術取得了重大進展,包括開發了 GPT-4 等高級語言模型,這些模型能夠通過以前被認為是人類獨有的專業考試。例如,當有報導稱人工智能模型已成功完成律師資格考試(成為執業律師的先決條件)時,引發了關於人工智能即將取代各行業人類工人的討論。
據《衛報》報導(https://www.theguardian.com/technology/2023/may/03/ai-race-drives-down-stock-market-valuations-of-education-firms?CMP=Share_AndroidApp_Other)教育公司在倫敦和紐約證券交易所遭遇巨額虧損,突顯了人工智能在ChatGPT 推出後短短六個月內對一些市場造成的破壞。
歷史上,技術的出現總是伴隨著工作崗位的流失,但人工智能的快速進步正在導致多個行業發生廣泛的變化。隨著機器承擔起越來越多以前由人類執行的工作的責任,許多職業都見證了人工智能融入到他們的操作中。雖然某些角色可能會實現日常任務的自動化,但其他角色可能會在不久的將來完全過時。
ChatGPT 對教育提出了挑戰
ChatGPT 提供了多種改進書面內容的選項,包括校對服務以識別錯誤並提出改進建議以提高清晰度和連貫性。此外,客戶可以選擇讓 ChatGPT 從頭到尾組成一個完整的作品,只需要最少的人工輸入。
ChatGPT 已證明其在生成各種英語作業回複方面的熟練程度,超過了幾位學生作家的輸出質量。它的功能不僅僅是描述,還包括輕鬆自信地製作引人注目的求職信和闡明復雜的文學主題等任務。
考慮到 ChatGPT 具有生成書面內容的能力,這是否會使作文熟練程度對於學生的未來發展來說已經過時了?這種探究似乎是一個存在的問題,但隨著學生越來越多地使用 ChatGPT 來撰寫學術論文,教師必鬚麵對其影響並做出相應的調整。
毫不奇怪,學生們已經在嘗試人工智能。 《斯坦福日報》 報導稱,早期調查顯示,許多學生使用人工智能來協助作業和考試。
在不久的將來,教育機構正在採取措施修改有關利用人工智能完成學術任務的指導方針。這不僅涉及以英語為基礎的學科,還涉及廣泛的學科,其中 ChatGPT 可以提供集思廣益、凝結或推理判斷形成的幫助。
ChatGPT 可能會造成現實世界的傷害
沒花多少時間,人們就嘗試解放 ChatGPT,從而創建了一個人工智能模型,該模型能夠繞過 OpenAI 建立的保護措施,以防止有害和不當內容的產生。
ChatGPT Reddit 群組 上的一群用戶將他們的不受限制的AI 模型命名為Dan,是“Do Anything Now ”的縮寫。可悲的是,為所欲為導致黑客加大了網絡詐騙的力度。黑客還出售無規則的 ChatGPT 服務,這些服務會創建惡意軟件並生成網絡釣魚電子郵件,而人工智能創建的惡意軟件的結果好壞參半。
由於人工智能的進步,識別試圖獲取機密信息的網絡釣魚電子郵件變得越來越具有挑戰性。以前,語法錯誤是一個明確的警告標誌;然而,隨著 ChatGPT 的出現,此類缺陷已顯著減少。這種先進的語言模型能夠產生廣泛的書面內容,除了連貫的文章和詩句之外,還包括令人信服的欺騙性信息。
ChatGPT 的推出在 Stack Exchange 上引起了大量回复,該平台致力於為常見問題提供準確可靠的答案。結果,由於 ChatGPT 生成的大量內容,該網站遇到了挑戰,因為用戶已經開始提交從人工智能係統獲得的答案。
由於缺乏足夠數量的人類誌願者來處理累積的工作量,因此必須保留值得稱讚的響應標準。此外,我們發現提供的一些答案不夠準確。為了防止對網站造成不利後果,已禁止通過 ChatGPT 生成的任何及所有響應。
錯誤信息的傳播也構成了重大威脅。 ChatGPT 生成大量文本的能力及其令人信服地呈現欺騙性內容的能力只會增加所有在線材料的不確定性。這種強有力的配對進一步加劇了與深度造假技術相關的危險。
OpenAI 掌握所有力量
巨大權威的負擔與 OpenAI 有著千絲萬縷的聯繫,因為他們是通過 Dall-E 2、GPT-3 和 GPT-4 等創新生成人工智能模型顯著改變全球格局的先驅實體之一。
作為一個獨立的實體,OpenAI 可以自主選擇用於訓練 ChatGPT 的數據並確定其引入進步的速度。儘管專家們已經對人工智能相關的潛在風險發出了警告,但沒有跡象表明 OpenAI 會減緩其進展。
相反,ChatGPT 的盛行引發了各大科技公司之間的激烈競爭,力求推出後續突破性的人工智能創新;包括微軟的 Bing AI 和谷歌的 Bard。鑑於擔心快速進展可能會導致重大安全漏洞,全球科技先驅撰寫的一封信懇求推遲進展。
鑑於 OpenAI 對安全性的重視,必須承認,這些人工智能模型背後的複雜機制仍然存在很多模糊性。儘管如此,我們對 OpenAI 致力於以道德方式管理 ChatGPT 的開發和應用的承諾是堅定的。
無論人們對其方法持何種立場,都應該承認 OpenAI 作為一家私營實體運營,根據其個人目標和道德原則推動 ChatGPT 的發展。
解決人工智能最大的問題
ChatGPT 展現了一系列充滿希望的前景,激發了人們的熱情,但也帶來了需要仔細考慮的艱鉅挑戰。
OpenAI 承認 ChatGPT 能夠生成潛在有害且有偏見的響應,目的是通過徵求用戶輸入來減少此問題。然而,儘管該模型基於不准確的信息,但其生成有說服力內容的卓越能力卻給惡意個人帶來了巨大的利用風險。
之前的事件已經證明了 OpenAI 平台容易受到隱私和安全侵犯,對用戶的敏感信息構成潛在風險。此外,據報導,有人通過越獄的方式篡改ChatGPT,將修改後的版本用於惡意目的,例如創建有害的惡意軟件和大規模的欺詐計劃。
事實上,人們對工作保障和教育可能受到干擾的擔憂日益加劇,這進一步加劇了技術進步帶來的一系列問題。雖然未來會遇到不可預見的困難,但我們當前的現實卻充滿了障礙,ChatGPT 帶來的挑戰就是例證。