Contents

กฎระเบียบ AI คืออะไร? ใครควรควบคุม AI?

ประเด็นที่สำคัญ

ในแง่ของการพัฒนาอย่างต่อเนื่องในด้านช่องโหว่ด้านความปลอดภัยทางไซเบอร์และความกังวลเรื่องความเป็นส่วนตัว ปัญญาประดิษฐ์จะต้องอยู่ภายใต้การควบคุมดูแลที่เข้มงวดมากขึ้น

เพื่อควบคุมปัญญาประดิษฐ์อย่างมีประสิทธิภาพ ผู้มีส่วนได้ส่วนเสียหลายรายรวมถึงรัฐบาล บริษัทเทคโนโลยี และบุคคลต่างๆ จะต้องรับผิดชอบ อย่างไรก็ตาม มีข้อจำกัดโดยธรรมชาติที่เกี่ยวข้องกับแต่ละแนวทางเหล่านี้ที่ต้องพิจารณา

กฎระเบียบด้าน AI เป็นความพยายามในการทำงานร่วมกันที่เกี่ยวข้องกับผู้มีส่วนได้ส่วนเสียต่างๆ รวมถึงสื่อ องค์กรที่ไม่แสวงหาผลกำไร สมาคมอุตสาหกรรมเทคโนโลยี สถาบันการศึกษา และหน่วยงานบังคับใช้กฎหมาย หน่วยงานเหล่านี้มีบทบาทสำคัญในการรับรองการพัฒนาและการใช้เทคโนโลยีปัญญาประดิษฐ์อย่างรับผิดชอบ ขณะเดียวกันก็จัดการกับข้อกังวลด้านจริยธรรมที่อาจเกิดขึ้นและผลกระทบทางกฎหมาย

แม้ว่าจะมีมุมมองที่หลากหลายในหมู่ประชากรในวงกว้างเกี่ยวกับปัญญาประดิษฐ์ แต่บุคคลบางคนยืนยันว่าในที่สุดเครื่องจักรจะเข้ามาแทนที่แรงงานมนุษย์โดยสิ้นเชิง ในขณะที่คนอื่นๆ แย้งว่า AI เป็นเพียงแนวโน้มที่เกิดขึ้นเพียงชั่วขณะ อย่างไรก็ตาม ดูเหมือนว่าจะมีฉันทามติที่เพิ่มการกำกับดูแลและกฎระเบียบของ AI

แม้จะมีความสำคัญอย่างยิ่งยวดในการใช้มาตรการกำกับดูแลในขอบเขตของปัญญาประดิษฐ์ แต่การแสวงหาการพัฒนาแบบจำลองขั้นสูงมากขึ้นได้บดบังความกังวลเกี่ยวกับการกำกับดูแลของมัน แท้จริงแล้ว นักพัฒนาต่างมุ่งความสนใจไปที่การสร้างระบบ AI ที่ก้าวล้ำถัดไป ซึ่งโชคไม่ดีที่พวกเขามีต่อความปลอดภัยทางไซเบอร์ในการแสวงหาความก้าวหน้า ประเด็นสำคัญในปัจจุบันไม่ใช่ว่า AI จำเป็นต้องมีการกำกับดูแลหรือไม่ แต่หน่วยงานของรัฐซึ่งมีทรัพยากรทางการเงิน บุคลากร และความสามารถทางเทคนิคเพียงพอ จะเข้ามารับผิดชอบในการกำหนดแนวทางและบังคับใช้

แล้วใครควรควบคุม AI?

หน่วยงานของรัฐ

/th/images/government-institution-building.jpg

ความรู้สึกเกี่ยวกับกฎระเบียบด้าน AI อยู่เหนือภาคส่วนต่างๆ โดยมีบุคคลตั้งแต่ประชาชนทั่วไปไปจนถึงผู้บุกเบิกเทคโนโลยีที่โดดเด่นที่สนับสนุนให้มีการแทรกแซงโดยรัฐบาล องค์กรที่ได้รับทุนสนับสนุนจากสาธารณะมีวิธีบังคับใช้มาตรการดังกล่าว แม้แต่บุคคลสำคัญอย่าง Elon Musk และ Sam Altman ซึ่งมีอิทธิพลในการกำหนดภูมิทัศน์ของ AI ยอมรับว่าปัญหาความเป็นส่วนตัวบางอย่างที่เกี่ยวข้องกับปัญญาประดิษฐ์รับประกันความสนใจจากหน่วยงานกำกับดูแล

เพื่อให้หน่วยงานกำกับดูแลควบคุมปัญญาประดิษฐ์ได้อย่างมีประสิทธิภาพ จำเป็นอย่างยิ่งที่จะต้องจัดลำดับความสำคัญในการปกป้องสิทธิความเป็นส่วนตัวและเสรีภาพของพลเมืองของตน น่าเสียดายที่อาชญากรไซเบอร์คิดค้นวิธีการใหม่ๆ อย่างต่อเนื่องเพื่อใช้ประโยชน์จากช่องโหว่ภายในระบบ AI ด้วยเหตุนี้ บุคคลที่มีความรู้จำกัดเกี่ยวกับ AI อาจเสี่ยงต่อการถูกบงการผ่านการใช้เทคโนโลยีขั้นสูง เช่น คำพูดสังเคราะห์ ดีพเฟค และตัวตนออนไลน์แบบอัตโนมัติ

แม้ว่าจะมีข้อกังวลที่ถูกต้องเกี่ยวกับผลเสียที่อาจเกิดขึ้นจากระบบ AI แต่สิ่งสำคัญคือต้องพิจารณาผลกระทบที่กว้างขึ้นจากการกำกับดูแลของรัฐบาลที่เพิ่มขึ้นเกี่ยวกับความก้าวหน้าทางเทคโนโลยี ข้อเสียเปรียบประการหนึ่งที่เป็นไปได้ของการแทรกแซงด้านกฎระเบียบคือความเสี่ยงของการขัดขวางนวัตกรรมโดยไม่ได้ตั้งใจด้วยการกำหนดข้อจำกัดหรือข้อกำหนดที่อาจไม่เข้าใจโดยผู้ที่รับผิดชอบในการดูแลการพัฒนา การใช้งาน และการฝึกอบรมระบบเหล่านี้ เมื่อพิจารณาถึงความซับซ้อนและการเปลี่ยนแปลงอย่างรวดเร็วของปัญญาประดิษฐ์ ความพยายามในการควบคุมจะต้องสร้างความสมดุลที่ละเอียดอ่อนระหว่างการป้องกันผลลัพธ์ที่เป็นอันตรายและส่งเสริมการพัฒนาอย่างต่อเนื่องของสาขาที่ก้าวล้ำนี้

นักพัฒนา AI บริษัทเทคโนโลยี และห้องปฏิบัติการ

/th/images/two-researchers-training-robot-arm.jpg

เมื่อพิจารณาถึงความเป็นไปได้ที่จะมีสิ่งกีดขวางที่เกิดจากการสอดส่องของรัฐบาลเกี่ยวกับเทคโนโลยี AI บุคคลบางคนต้องการให้บริษัทเทคโนโลยีรับผิดชอบในการควบคุมผลิตภัณฑ์ของตนเอง แนวทางนี้ช่วยให้นักพัฒนามีสมาธิกับการขับเคลื่อนนวัตกรรม ในขณะเดียวกันก็รับประกันความก้าวหน้าที่มีประสิทธิภาพในการพัฒนาระบบดังกล่าว

แท้จริงแล้ว ความเข้าใจอย่างลึกซึ้งเกี่ยวกับปัญญาประดิษฐ์ทำให้พวกเขาสามารถกำหนดนโยบายที่เท่าเทียมและมีข้อมูลครบถ้วน ซึ่งจะสร้างสมดุลระหว่างการปกป้องผู้ใช้ ขณะเดียวกันก็รักษาประสิทธิภาพการดำเนินงานไว้ได้ ในเรื่องนี้ความเชี่ยวชาญเฉพาะด้านมีความสำคัญต่อการกำกับดูแลที่มีประสิทธิผล การแต่งตั้งหน่วยงานที่ไม่มีทักษะเพื่อดูแลเทคโนโลยีขั้นสูงอาจทำให้เกิดภาวะแทรกซ้อนเพิ่มเติม แทนที่จะให้ข้อได้เปรียบที่สำคัญ

ยกตัวอย่างการพิจารณาของวุฒิสภาสหรัฐอเมริกาปี 2018 เกี่ยวกับกฎหมายความเป็นส่วนตัวของข้อมูลของ Facebook ในรายงานนี้โดย The Washington Post คุณ€ จะพบว่าผู้ร่างกฎหมายหลายคนสับสนกับฟังก์ชันพื้นฐานของ Facebook ดังนั้น เว้นแต่วุฒิสภาสหรัฐอเมริกาจะสร้างแผนกผู้เชี่ยวชาญด้านเทคโนโลยีเพียงแผนกเดียว พวกเขาอาจไม่มีคุณสมบัติที่จะควบคุมระบบขั้นสูงและเปลี่ยนแปลงตลอดเวลาเช่น AI

ข้อกังวลประการหนึ่งเกี่ยวกับการกำกับดูแลตนเองโดยบริษัทเทคโนโลยีคือความเป็นไปได้ที่องค์กรไร้ศีลธรรมจะใช้ประโยชน์จากอำนาจของตนโดยไม่มีการกำกับดูแลจากภายนอก การไม่มีบุคคลที่สามที่เป็นสื่อกลางทำให้หน่วยงานดังกล่าวสามารถดำเนินการได้โดยไม่ต้องรับโทษและแสวงหาผลประโยชน์ของตนเองโดยเสียค่าใช้จ่ายในการคุ้มครองผู้บริโภคหรือการพิจารณาด้านจริยธรรม

ผู้ใช้ปลายทาง

/th/images/mobile-chatgpt-app.jpg

มีความกังวลว่าทั้งองค์กรภาครัฐและเอกชนอาจใช้ระบบปัญญาประดิษฐ์ขั้นสูงในทางที่ผิด แนวคิดในการมอบอำนาจเบ็ดเสร็จให้กับหน่วยงานกำกับดูแลจำนวนจำกัดเหนือเทคโนโลยีที่มีศักยภาพเหล่านี้ ทำให้เกิดความกังวล โดยเฉพาะอย่างยิ่งเมื่อพิจารณาถึงขั้นตอนการพัฒนา AI ที่กำลังดำเนินอยู่ เป็นที่เกรงว่าข้อพิพาทเรื่องเขตอำนาจศาลอาจเกิดขึ้นระหว่างหน่วยงานกำกับดูแลเหล่านี้ ซึ่งอาจขัดขวางธรรมาภิบาลของสหกรณ์เพื่อผลประโยชน์ที่ขัดแย้งกัน

เพื่อบรรเทาข้อผิดพลาดที่อาจเกิดขึ้นเหล่านี้ ผู้เสนอแนวทางแบบไม่มีเงื่อนไขโต้แย้งว่าบุคคลควรมีอิสระในการใช้ระบบปัญญาประดิษฐ์อย่างอิสระตามที่เห็นสมควร พวกเขายืนยันว่าหน่วยงานกำกับดูแลควรจำกัดการมีส่วนร่วมเฉพาะในกรณีที่ผู้ใช้ AI ละเมิดขอบเขตทางกฎหมาย ความทะเยอทะยานนี้อาจดูสูงส่ง แต่ก็เป็นไปได้ในทางทฤษฎีหากนักพัฒนา AI แบบโอเพ่นซอร์สใช้อิทธิพลอย่างมีนัยสำคัญเหนืออุตสาหกรรม

แท้จริงแล้ว การกำหนดค่าปัจจุบันก่อให้เกิดความท้าทายสำหรับผู้ที่ไม่มีความเชี่ยวชาญด้านเทคนิค ความรับผิดชอบในการกำหนดข้อจำกัดตกอยู่ที่ผู้ใช้ แม้ว่าจะไม่ใช่ทุกคนที่มีวิธีการหรือความสามารถที่จำเป็นในการดำเนินงานดังกล่าวก็ตาม

การกำจัดโมเดล AI ที่เป็นกรรมสิทธิ์ออกจากการเผยแพร่นั้นเป็นเรื่องที่สายตาสั้นพอๆ กัน การเผยแพร่โมเดล AI แบบโอเพ่นซอร์สนำเสนอผลลัพธ์แบบสองด้าน เนื่องจากแสดงให้เห็นทั้งข้อดีและข้อเสียที่แตกต่างกันตามขนาดสำหรับบุคคลหรือองค์กรที่แตกต่างกัน สำหรับบางหน่วยงาน ผลเสียอาจมากกว่าผลดี

หน่วยงานอื่น ๆ ที่มีบทบาทในการควบคุมของ AI

แม้ว่าความรับผิดชอบหลักในการดูแลและควบคุมปัญญาประดิษฐ์ (AI) จะตกเป็นขององค์กรและสถาบันชั้นนำ แต่ผู้เล่นที่สำคัญอีกจำนวนหนึ่งก็มีส่วนสำคัญต่อกระบวนการนี้เช่นกัน:

สื่อต่างๆ

/th/images/media-news-reporter.jpg

สื่อต่างๆ มีบทบาทสำคัญในการปั้นมุมมองของประชากรทั่วไปเกี่ยวกับปัญญาประดิษฐ์ พวกเขาเผยแพร่ข้อมูลเกี่ยวกับความก้าวหน้าในอุตสาหกรรม แนะนำนวัตกรรมทางเทคโนโลยีใหม่ๆ เพิ่มจิตสำนึกสาธารณะเกี่ยวกับการประยุกต์ใช้ AI ที่เป็นอันตราย และอำนวยความสะดวกในการหารือกับผู้เชี่ยวชาญชั้นนำในประเด็นที่เกี่ยวข้องผ่านการรายงาน

การเผยแพร่ข้อมูลที่ไม่ถูกต้องเกี่ยวกับปัญญาประดิษฐ์ถือเป็นข้อกังวลที่สำคัญ เนื่องจากข้อมูลดังกล่าวมีสาเหตุมาจากแหล่งสื่อเป็นหลัก การเผยแพร่ข้อมูลเท็จโดยไม่ได้ตั้งใจสามารถนำไปสู่ผลลัพธ์ร้ายแรงได้ และควรหลีกเลี่ยงค่าใช้จ่ายทั้งหมด เนื่องจากความรวดเร็วในการเผยแพร่ข้อมูลที่ไม่ถูกต้องดังกล่าว

องค์กรพัฒนาเอกชน

องค์กรที่ไม่แสวงหาผลกำไรหลายแห่งมุ่งความสนใจไปที่การปกป้องสิทธิ์ความเป็นส่วนตัวและเสรีภาพของบุคคลที่ใช้เทคโนโลยีปัญญาประดิษฐ์ องค์กรเหล่านี้จัดเตรียมสื่อการศึกษาให้กับประชาชนทั่วไปโดยไม่มีค่าใช้จ่าย สนับสนุนการริเริ่มนโยบายใหม่ๆ ร่วมมือกับตัวแทนของรัฐบาล และสร้างความตระหนักรู้เกี่ยวกับปัญหาที่เกี่ยวข้องกับการใช้งาน AI ที่มักถูกละเลย

หนึ่งในความท้าทายหลักที่องค์กรไม่แสวงหาผลกำไร (NPO) เผชิญคือความพร้อมด้านทรัพยากรที่จำกัด เนื่องจากหน่วยงานเหล่านี้ไม่มีส่วนเกี่ยวข้องกับหน่วยงานของรัฐ จึงต้องขึ้นอยู่กับการบริจาคของเอกชนและการอุทธรณ์เพื่อรักษาหน้าที่ตามปกติ น่าเสียดายที่มีองค์กรดังกล่าวเพียงไม่กี่แห่งเท่านั้นที่ได้รับการสนับสนุนทางการเงินอย่างเพียงพอ

สมาคมอุตสาหกรรมเทคโนโลยี

องค์กรอุตสาหกรรมเทคโนโลยีที่มีศูนย์กลางอยู่ที่ปัญญาประดิษฐ์มีความสามารถในการรักษาสวัสดิภาพของสังคมโดยการสนับสนุนในนามของสิทธิและผลประโยชน์สูงสุดของประชาชนทั่วไป หน่วยงานดังกล่าวดำเนินงานคล้ายกับองค์กรไม่แสวงหาผลกำไร (NPO) โดยร่วมมือกับสมาชิกสภานิติบัญญัติเพื่อส่งเสริมนโยบายที่เท่าเทียม เป็นตัวแทนของข้อกังวลของบุคคลที่ได้รับผลกระทบ และสร้างความตระหนักรู้เกี่ยวกับเรื่องที่เกี่ยวข้อง

แม้ว่ากลุ่มระดมทุนทั้งสองประเภทอาจดำเนินกิจกรรมชักชวน แต่ก็มีความแตกต่างระหว่างกลุ่มทั้งสองในแง่ของความร่วมมือกับหน่วยงานเอกชน โดยทั่วไปสมาชิกที่อยู่ในกลุ่มหลังจะได้รับการสนับสนุนทางการเงินอย่างเพียงพอจากบริษัทหรือสถาบันที่เกี่ยวข้อง ตราบใดที่พวกเขาบรรลุผลลัพธ์ที่ต้องการในการระดมทุน

สถาบันการศึกษา

/th/images/school-university-large-classroom.jpg

แม้ว่าปัญญาประดิษฐ์จะนำเสนออันตรายที่อาจเกิดขึ้นหลายประการ แต่ปัญญาประดิษฐ์ยังคงมีความเป็นกลางโดยพื้นฐาน แหล่งที่มาของอคติทั้งหมด ความกังวลเรื่องความเป็นส่วนตัว ความล่มสลายด้านความปลอดภัย และความอ่อนแอต่อกิจกรรมทางอาญาทางไซเบอร์นั้นสามารถสืบย้อนกลับไปที่การกระทำของมนุษย์มากกว่าลักษณะภายในของ AI เอง ดังนั้นจึงไม่ถูกต้องที่จะกำหนดลักษณะ AI ให้เป็นเอนทิตีที่ควรสร้างแรงบันดาลใจให้เกิดความกลัวหรือความเข้าใจ

แม้ว่าความเข้าใจเกี่ยวกับโมเดลปัญญาประดิษฐ์ร่วมสมัยจะถูกจำกัดอยู่เพียงบางส่วนเท่านั้น แต่ความเชื่อที่เข้าใจผิดเกี่ยวกับเทคโนโลยีเหล่านี้มีส่วนทำให้เกิดมุมมองที่บิดเบือนเกี่ยวกับ AI และความวิตกกังวลที่ไม่มีมูลเกี่ยวกับผลกระทบที่อาจเกิดขึ้นกับสังคม เช่น ความกังวลเกี่ยวกับ AI ที่เข้ามาแทนที่มนุษย์ หรือการแทนที่โอกาสในการจ้างงาน

สถาบันการศึกษามีบทบาทสำคัญในการแก้ไขช่องว่างความรู้ที่ระบุโดยการจัดหาทรัพยากรที่เข้าถึงได้ง่าย แม้ว่ายังมีสิ่งพิมพ์ทางวิชาการจำนวนจำกัดเกี่ยวกับโมเดลภาษาขนาดใหญ่ร่วมสมัย (LLM) และระบบประมวลผลภาษาธรรมชาติ (NLP) การสร้างความตระหนักรู้เกี่ยวกับการใช้งาน AI อย่างมีความรับผิดชอบ และการต่อสู้กับอาชญากรรมในโลกไซเบอร์นั้น จำเป็นต้องมีความเข้าใจที่ครอบคลุมเกี่ยวกับกลไกที่ซ่อนอยู่

หน่วยงานบังคับใช้กฎหมาย

ความแพร่หลายที่เพิ่มขึ้นของโมเดลเชิงกำเนิดได้นำไปสู่การเพิ่มการใช้ปัญญาประดิษฐ์ในการโจมตีทางไซเบอร์โดยอาชญากร การโจมตีเหล่านี้อาจเกี่ยวข้องกับการสร้างการบันทึกเสียงปลอม รูปภาพที่ถูกดัดแปลงที่เรียกว่า “ดีพเฟค” และการคัดลอกข้อมูลระบุตัวตนส่วนบุคคลเพื่อวัตถุประสงค์ที่เป็นอันตราย นอกจากนี้ ผู้โจมตีเหล่านี้อาจสร้างบุคลิกออนไลน์ปลอมขึ้นมาเพื่อหลอกลวงเหยื่อที่ไม่สงสัย

หน่วยงานบังคับใช้กฎหมายหลายแห่งขาดทรัพยากรและความเชี่ยวชาญที่จำเป็นในการต่อสู้กับอาชญากรรมในโลกไซเบอร์ในปัจจุบันอย่างมีประสิทธิภาพ เพื่อที่จะปรับปรุงความสามารถในการจับกุมผู้กระทำความผิดดังกล่าว จำเป็นอย่างยิ่งที่พวกเขาจะต้องใช้เทคโนโลยีที่ทันสมัย ​​และจัดให้มีการฝึกอบรมที่ครอบคลุมสำหรับบุคลากรของตนเกี่ยวกับการพัฒนาล่าสุดในกิจกรรมทางอาญาทางดิจิทัล การไม่ปฏิบัติตามอาจส่งผลให้ความสามารถในการจับกุมผู้กระทำผิดเหล่านี้ลดลงและปกป้องสังคมจากอันตราย

อนาคตของกฎระเบียบ AI

เมื่อพิจารณาถึงความก้าวหน้าทางเทคโนโลยีที่รวดเร็วในขอบเขตของปัญญาประดิษฐ์ จึงเป็นเรื่องท้าทายสำหรับหน่วยงานกำกับดูแลที่โดดเดี่ยวในการใช้การกำกับดูแลและการกำกับดูแลเหนือการพัฒนาและการประยุกต์ใช้ แม้ว่าผู้นำด้านเทคโนโลยีอาจคาดหวังได้ว่าผู้นำด้านเทคโนโลยีจะมีอิทธิพลมากกว่าผู้ใช้ปลายทาง แต่การจัดการความเสี่ยงที่อาจเกิดขึ้นจาก AI อย่างมีประสิทธิผลจำเป็นต้องอาศัยความร่วมมือระหว่างผู้มีส่วนได้ส่วนเสียหลายราย เพื่อป้องกันผลกระทบที่ไม่ได้ตั้งใจจากการขัดขวางนวัตกรรม จึงควรกำหนดแนวทางและระเบียบปฏิบัติในระยะเริ่มต้นนี้เมื่อโอกาสในการบรรลุปัญญาประดิษฐ์ทั่วไปยังคงเป็นการคาดเดา

แม้ว่ากรอบการกำกับดูแลสำหรับปัญญาประดิษฐ์ยังคงอยู่ในระยะเริ่มต้น ซึ่งสอดคล้องกับระดับความก้าวหน้าที่ปัญญาประดิษฐ์ทั่วไป (AGI) ทำได้ บุคคลจำเป็นอย่างยิ่งที่ต้องใช้มาตรการที่รอบคอบเพื่อรับมือกับความเสี่ยงที่อาจเกิดขึ้นที่เกี่ยวข้องกับภัยคุกคามจาก AI ด้วยการยึดมั่นในโปรโตคอลความปลอดภัยขั้นพื้นฐาน เช่น การจำกัดการเข้าถึงข้อมูลส่วนบุคคล และการจำกัดการเชื่อมต่อภายในเครือข่ายเสมือน ผู้ใช้สามารถบรรเทาอันตรายเหล่านี้ได้อย่างมีประสิทธิภาพ