Contents

什麼是人工智慧監管?誰該監管人工智慧?

要點

鑑於網路安全漏洞和隱私問題的不斷發展,人工智慧必須受到更嚴格的監管。

為了有效監管人工智慧,包括政府、科技公司和個人在內的多個利害關係人必須承擔責任。然而,必須考慮與這些方法中的每一種相關的固有限制。

人工智慧監管是一項涉及媒體、非營利組織、科技業協會、學術機構和執法機構等各種利益相關者的協作努力。這些實體在確保負責任地開發和部署人工智慧技術,同時解決潛在的道德問題和法律影響方面發揮著重要作用。

儘管廣大民眾對人工智慧有不同的看法,但某些人認為機器最終將完全取代人類勞動力,而有些人則認為人工智慧只是一種轉瞬即逝的趨勢。儘管如此,人們似乎達成共識,認為有必要加強對人工智慧的監督和監管。

儘管在人工智慧領域實施監管措施至關重要,但對開發日益先進模型的追求掩蓋了對其治理的擔憂。事實上,開發人員如此專注於建立下一個突破性的人工智慧系統,不幸的是,他們在追求進步的過程中損害了網路安全。目前的中心問題不是人工智慧是否需要監管,而是哪個擁有足夠財力、人員和技術能力的政府實體應該承擔制定指導方針並執行的責任。

那麼,誰該監管人工智慧?

政府機構

/bc/images/government-institution-building.jpg

對人工智慧監管的情緒超越了各個領域,從普通公民到著名的技術先驅,人們都主張政府乾預。公共資助的組織擁有執行此類措施的必要資金,甚至像埃隆·馬斯克和薩姆·奧爾特曼這樣對塑造人工智慧格局具有影響力的知名人物也承認,與人工智慧相關的某些隱私問題值得監管機構關注。

為了讓管理機構有效監管人工智慧,他們必須優先考慮保護公民的隱私權和公民自由。不幸的是,網路犯罪分子不斷設計新方法來利用人工智慧系統的漏洞。因此,對人工智慧了解有限的個人可能容易受到合成語音、深度偽造和自動化線上角色等先進技術的操縱。

儘管人們對人工智慧系統的潛在負面影響存在合理的擔憂,但重要的是要考慮政府加強對技術進步的監管的更廣泛影響。監管幹預的一個可能的缺點是,透過施加一些約束或要求,可能會無意中阻礙創新,而負責監督這些系統的開發、部署和培訓的人員可能無法完全理解這些約束或要求。鑑於人工智慧的複雜性和快速變化的性質,任何監管嘗試都必須在防止有害結果和促進這一開創性領域的持續發展之間取得微妙的平衡。

人工智慧開發人員、科技公司和實驗室

/bc/images/two-researchers-training-robot-arm.jpg

考慮到政府對人工智慧技術的監控可能會造成障礙,有些人更傾向於讓科技公司負責監管自己的產品。這種方法使開發人員能夠專注於推動創新,同時確保此類系統的開發取得高效進展。

事實上,他們對人工智慧的深刻理解使他們能夠制定公平且消息靈通的政策,在用戶保護和維持營運效率之間取得平衡。在這方面,特定領域的專業知識對於有效監督至關重要。任命不熟練的當局來監督先進技術可能會帶來額外的複雜性,而不是提供實質的優勢。

以2018年美國參議院關於Facebook資料隱私法的聽證會為例。在華盛頓郵報的這份報告中,您€將會看到許多立法者對 Facebook 的基本功能感到困惑。因此,除非美國參議院設立一個單獨的技術專家部門,否則他們可能沒有資格監管人工智慧這樣先進、不斷變化的系統。

關於科技公司自我監管的一個潛在擔憂是,不道德的組織可能在沒有外部監督的情況下利用其權力。由於缺乏調解第三方,這些實體的行為相對不受懲罰,並以犧牲消費者保護或道德考慮為代價追求自身利益。

終端用戶

/bc/images/mobile-chatgpt-app.jpg

人們擔心公共和私人組織可能會濫用先進的人工智慧系統。賦予有限數量的監管機構對這些強大技術的絕對權力的想法引起了人們的擔憂,特別是考慮到人工智慧的持續發展階段。人們擔心這些治理機構之間可能會出現管轄權糾紛,這可能會阻礙有利於利益衝突的合作治理。

為了減輕這些潛在的陷阱,自由放任方法的支持者認為,個人應該在使用他們認為合適的人工智慧系統時擁有不受限制的自主權。他們認為,監管機構應將其參與僅限於人工智慧用戶違反法律界限的情況。這個願望看似崇高,但如果開源人工智慧開發者對產業產生重大影響,理論上是可行的。

事實上,目前的配置給沒有技術專業知識的人帶來了挑戰。建立限制的責任落在使用者身上,儘管並非所有人都具備執行此類任務的必要手段或能力。

消除專有人工智慧模式的流通同樣是短視的。開源人工智慧模型的傳播呈現出雙重結果,因為它表現出的優點和缺點對於不同的個人或組織來說程度不同。對於某些實體來說,缺點可能超過優點。

在人工智慧監管中發揮作用的其他實體

儘管監督和治理人工智慧 (AI) 的主要責任由領先的組織和機構承擔,但許多其他重要參與者也為這一過程做出了重大貢獻:

### 媒體轉載

/bc/images/media-news-reporter.jpg

媒體在塑造公眾對人工智慧的看法方面發揮關鍵作用。透過他們的報告,他們傳播有關行業內進步的信息,介紹新穎的技術創新,提高公眾對人工智慧有害應用的認識,並促進與領先專家就相關問題進行討論。

有關人工智慧的不準確資訊的傳播是一個重大問題,因為它主要源於媒體來源。虛假訊息的無意傳播可能會導致嚴重後果,因此應不惜一切代價避免,因為此類錯誤訊息傳播速度極快。

非政府組織

一些非營利組織致力於保護使用人工智慧技術的個人的隱私權和公民自由。這些組織向公眾免費提供教育材料,倡導新的政策舉措,與政府代表合作,並提高人們對與人工智慧使用相關的經常被忽視的問題的認識。

非營利組織 (NPO) 面臨的主要挑戰之一是其可用資源有限。由於這些實體不隸屬於任何政府機構,因此它們必須依靠私人捐款和呼籲來維持日常職能。不幸的是,只有極少數此類組織獲得足夠的財政支持。

科技業協會

以人工智慧為中心的科技業組織有能力透過代表公眾的權利和最佳利益來維護社會福利。此類實體的運作方式與非營利組織 (NPO) 類似,與立法者合作促進公平政策,代表受影響個人的關切,並提高對相關問題的認識。

雖然這兩類募款團體都可以進行募款活動,但它們與私人實體的隸屬關係有區別。屬於後一類的成員通常會得到其關聯公司或機構提供的足夠的財務支持,只要他們在籌款活動中取得了預期的成果。

學術機構

/bc/images/school-university-large-classroom.jpg

儘管人工智慧存在許多潛在危險,但它從根本上仍然是公正的。所有偏見、隱私問題、安全漏洞以及對網路犯罪活動的敏感性的根源都可以追溯到人類行為,而不是人工智慧本身的任何內在特徵。因此,將人工智慧描述為一個應該引起恐懼或憂慮的實體是不準確的。

儘管對當代人工智慧模型的理解僅限於少數人,但圍繞這些技術的誤導性信念導致了對人工智慧的扭曲觀點,以及對其對社會潛在影響的毫無根據的焦慮,例如擔心人工智慧取代人類或取代就業機會。

學術機構透過提供易於獲取的資源,在解決已確定的知識差距方面可以發揮至關重要的作用。儘管當代大語言模型 (LLM) 和自然語言處理 (NLP) 系統的學術出版物數量仍然有限,但提高對負責任的人工智慧使用和打擊網路犯罪的認識需要全面了解其基本機制。

### 執法機構

生成模型的日益普及導致犯罪分子在網路攻擊中越來越多地使用人工智慧。這些攻擊可能涉及產生虛假錄音、被稱為「深度偽造」的操縱影像,以及出於惡意目的而抓取個人識別資訊。此外,這些攻擊者還可能創建完全捏造的線上角色來欺騙毫無戒心的受害者。

許多執法機構缺乏有效打擊當代網路犯罪所需的資源和專業知識。為了提高逮捕此類犯罪行為者的能力,他們必須採用尖端技術並為其人員提供有關數位犯罪活動最新發展的全面培訓。如果不這樣做,可能會導致抓捕這些罪犯和保護社會免受傷害的能力下降。

人工智慧監管的未來

鑑於人工智慧領域技術進步的迅速步伐,單獨的監管機構對其開發和應用進行監督和治理將具有挑戰性。雖然技術領導者的影響力可能比最終用戶更大,但有效管理人工智慧的潛在風險需要多個利害關係人之間的合作。為了防止阻礙創新的意外後果,在實現通用人工智慧的前景仍處於推測階段時,明智的做法是在早期階段製定指導方針和協議。

儘管人工智慧的監管框架仍處於起步階段,與通用人工智慧(AGI)所取得的進步程度相對應,但個人必須採取謹慎的措施來應對與人工智慧威脅相關的潛在風險。透過遵守基本安全協議(例如限制對個人資訊的存取和限制虛擬網路內的連接),使用者可以有效地減輕這些危險。