ใครตรวจจับ Deepfakes ได้ดีกว่า: มนุษย์หรือเครื่องจักร?
ประเด็นที่สำคัญ
การแพร่กระจายของเทคโนโลยี Deepfake ทำให้เกิดความท้าทายมากมายต่อสังคมร่วมสมัย โดยครอบคลุมถึงศักยภาพในการทำให้การแพร่กระจายของข้อมูลที่เข้าใจผิดรุนแรงขึ้น บ่อนทำลายความน่าเชื่อถือของบุคคลผ่านการเป็นตัวแทนที่ฉ้อโกง และแม้แต่การปลุกปั่นให้เกิดความขัดแย้งที่กระทบต่อความมั่นคงของชาติ
แม้จะมีเทคโนโลยี AI ขั้นสูงที่ออกแบบมาเพื่อตรวจจับการปลอมแปลงอย่างลึกซึ้ง แต่สิ่งสำคัญคือต้องรับรู้ว่าวิธีการเหล่านี้ไม่มีข้อผิดพลาด ด้วยเหตุนี้ การตัดสินของมนุษย์จึงยังคงมีบทบาทสำคัญในการระบุกรณีที่อาจเกิดขึ้นจากการปลอมแปลงอย่างลึกซึ้ง
ด้วยการบูรณาการความสามารถเฉพาะตัวของทั้งนักวิเคราะห์มนุษย์และระบบปัญญาประดิษฐ์ ทำให้สามารถเพิ่มประสิทธิภาพในการตรวจจับและตอบโต้ภัยคุกคามที่เกิดจากเทคโนโลยี Deepfake ได้ แม้ว่าแต่ละวิธีจะมีข้อดีและข้อจำกัดของตัวเอง แต่การผสมผสานระหว่างสองแนวทางนี้ทำให้มีแนวทางที่ครอบคลุมมากขึ้นในการจัดการกับความท้าทายที่เกิดขึ้นใหม่นี้
การเกิดขึ้นของเทคโนโลยีดีพเฟคก่อให้เกิดภัยคุกคามที่แพร่หลายต่อแง่มุมต่างๆ ของสังคมร่วมสมัย ความสามารถในการแยกแยะความถูกต้องในสื่อดิจิทัลมีความสำคัญมากขึ้นในการต่อสู้กับข้อมูลที่ผิด แต่ในขณะที่ปัญญาประดิษฐ์ยังคงก้าวหน้าอย่างรวดเร็ว เราจึงต้องพิจารณาว่าการพึ่งพาสัญชาตญาณของมนุษย์หรือความสามารถทางเทคโนโลยีนั้นเหมาะสมกว่าในการระบุการบิดเบือนดังกล่าวหรือไม่
อันตรายจากดีฟเฟค
ในขณะที่ปัญญาประดิษฐ์ยังคงพัฒนาและพัฒนาอย่างต่อเนื่อง เทคโนโลยี Deepfake ที่มีศักยภาพจะสร้างความเสียหายให้กับสังคมก็เช่นกัน การแพร่กระจายของดีพเฟคก่อให้เกิดความท้าทายมากมายที่เราต้องจัดการเพื่อป้องกันผลกระทบที่เป็นอันตราย ข้อกังวลบางประการเหล่านี้ ได้แก่ การแพร่กระจายของข้อมูลที่ไม่ถูกต้อง การพังทลายของความไว้วางใจในสถาบัน และการคงอยู่ของคำพูดแสดงความเกลียดชังและการเลือกปฏิบัติ จำเป็นอย่างยิ่งที่เราต้องระมัดระวังในความพยายามของเราในการต่อสู้กับภัยคุกคามที่กำลังเกิดขึ้นนี้ และทำงานร่วมกันเพื่อบรรเทาผลกระทบ
เทคโนโลยี Deepfake มีศักยภาพในการเผยแพร่ข้อมูลที่ทำให้เข้าใจผิดผ่านเนื้อหาวิดีโอและเสียงที่มีการดัดแปลง รวมถึงการรายงานข่าวเท็จที่อาจนำไปสู่ความเข้าใจผิดหรือแม้แต่ความไม่สงบในที่สาธารณะ
ด้วยการแอบอ้างเป็นบุคคลจริง DeepFakes มีศักยภาพที่จะทำลายชื่อเสียงและทำให้ผู้ที่คุ้นเคยกับพวกเขาเข้าใจผิด
ข้อกังวลด้านความมั่นคงแห่งชาติที่เกี่ยวข้องกับเทคโนโลยี Deepfake ส่วนใหญ่เกี่ยวข้องกับศักยภาพของเนื้อหาภาพและเสียงที่ผลิตขึ้นมา ซึ่งแสดงถึงผู้นำโลกที่ยุยงให้เกิดสงคราม ซึ่งอาจนำไปสู่ผลที่ตามมาที่เป็นหายนะในระดับนานาชาติ
การใช้ภาพและเสียงที่ทำให้เข้าใจผิดอาจกระตุ้นให้เกิดความขัดแย้งและความวุ่นวายภายในกลุ่มใดกลุ่มหนึ่ง โดยใช้ประโยชน์จากอารมณ์เพื่อวัตถุประสงค์ในการบงการ
ความปลอดภัยทางไซเบอร์กลายเป็นข้อกังวลที่เพิ่มมากขึ้น เนื่องจากอาชญากรไซเบอร์ใช้เทคโนโลยีการโคลนเสียงที่ขับเคลื่อนด้วยปัญญาประดิษฐ์เพื่อปลอมตัวเป็นแหล่งที่มาที่น่าเชื่อถือ และหลอกลวงเหยื่อที่ไม่สงสัยผ่านการสื่อสารส่วนบุคคล ซึ่งจะช่วยเพิ่มศักยภาพในการโจมตีเป้าหมายแต่ละรายได้สำเร็จ
การประยุกต์ใช้เทคโนโลยี Deepfake ที่ชั่วร้ายเกี่ยวข้องกับการจัดสรรภาพลักษณ์หรือความคล้ายคลึงของบุคคลโดยไม่ได้รับอนุญาต ซึ่งสามารถเผยแพร่ในวงกว้างได้โดยไม่ต้องได้รับความยินยอมอย่างชัดแจ้ง
การสร้างความไว้วางใจและความมั่นใจนั้นขึ้นอยู่กับความสามารถในการแยกแยะระหว่างความจริงและความเท็จ ในกรณีที่ไม่สามารถแยกความแตกต่างดังกล่าวได้ ข้อมูลทั้งหมดดูเหมือนจะไม่น่าเชื่อถือโดยเนื้อแท้
ความก้าวหน้าในเทคโนโลยี Deepfake กำลังปรับปรุงความสมจริงอย่างต่อเนื่อง ทำให้การพัฒนาวิธีการที่เชื่อถือได้ในการระบุเนื้อหาสื่อที่ถูกดัดแปลงเหล่านี้มีความสำคัญมากขึ้น ปัญญาประดิษฐ์ (AI) นำเสนอโซลูชันที่เป็นไปได้ผ่านการปรับใช้โมเดลการตรวจจับ Deepfake แบบพิเศษ แม้ว่าเครื่องมือเหล่านี้จะแสดงศักยภาพในการตั้งค่าสถานะวิดีโอหรือรูปภาพที่ฉ้อโกง แต่ก็ไม่มีข้อผิดพลาด คล้ายกับอัลกอริทึมอื่นๆ ที่พยายามระบุข้อความที่สร้างโดย AI
ปัจจุบัน ความสามารถในการตัดสินและวิจารณญาณของมนุษย์ยังคงเป็นทรัพยากรสำคัญในการแยกแยะระหว่างเนื้อหาที่แท้จริงและสื่อที่มีการดัดแปลง อย่างไรก็ตาม คำถามเกิดขึ้นว่ามนุษย์มีความสามารถเท่าเทียมกันในการตรวจจับรูปภาพและวิดีโอที่มีการปลอมแปลงอย่างล้ำลึกหรือไม่ เมื่อเทียบกับอัลกอริธึมขั้นสูงที่พัฒนาขึ้นเพื่อจุดประสงค์นี้
อัลกอริทึมสามารถตรวจจับ Deepfakes ได้ดีกว่ามนุษย์หรือไม่?
Deepfakes ถือเป็นภัยคุกคามที่ร้ายแรงพอที่ยักษ์ใหญ่ด้านเทคโนโลยีและกลุ่มวิจัยต่างทุ่มเททรัพยากรจำนวนมหาศาลเพื่อการวิจัยและพัฒนา ในปี 2019 ผู้ชื่นชอบ Meta, Microsoft และ Amazon เสนอรางวัลมูลค่า 1,000,000 ดอลลาร์ระหว่าง Deepfake Detection Challenge เพื่อโมเดลการตรวจจับที่แม่นยำที่สุด
โมเดลที่มีประสิทธิภาพสูงสุดแสดงอัตราความแม่นยำ 82.56% ในชุดข้อมูลที่ประกอบด้วยวิดีโอที่สาธารณะเข้าถึงได้ อย่างไรก็ตาม เมื่อต้องผ่านการทดสอบที่เกี่ยวข้องกับชุดวิดีโอ 10,000 รายการที่ไม่เคยสังเกตมาก่อน ซึ่งเรียกว่า “ชุดข้อมูลกล่องดำ” ประสิทธิภาพของรุ่นเดียวกันนั้นลดลงอย่างมาก โดยมีความแม่นยำเพียง 65.18%
การวิจัยของเราครอบคลุมการตรวจสอบที่หลากหลายเพื่อตรวจสอบประสิทธิภาพของระบบตรวจจับ Deepfake ที่ใช้ปัญญาประดิษฐ์เมื่อเปรียบเทียบกับประสิทธิภาพของมนุษย์ แม้ว่าการค้นพบจะแตกต่างกันไปในการศึกษาต่างๆ แต่เป็นที่น่าสังเกตว่าโดยส่วนใหญ่แล้ว มนุษย์มีประวัติที่เท่าเทียมกันหรือเหนือกว่าในการระบุ Deepfakes เมื่อเทียบกับเทคโนโลยีเหล่านี้
การศึกษาหนึ่งในปี 2021 ที่เผยแพร่บน PNAS พบว่า “ผู้สังเกตการณ์ที่เป็นมนุษย์ธรรมดา” มีอัตราความแม่นยำที่สูงกว่าเครื่องมือตรวจจับ Deepfake ชั้นนำเล็กน้อย อย่างไรก็ตาม การศึกษายังพบว่าผู้เข้าร่วมที่เป็นมนุษย์และแบบจำลอง AI มีความเสี่ยงต่อข้อผิดพลาดประเภทต่างๆ
สิ่งที่น่าสนใจคือการวิจัยที่ดำเนินการโดย The University of Sydney พบว่าสมองของมนุษย์มีประสิทธิภาพในการตรวจจับ Deepfake โดยไม่รู้ตัว มากกว่าความพยายามอย่างมีสติของเรา
การตรวจจับเบาะแสภาพใน Deepfakes
ความซับซ้อนของการตรวจจับ Deepfake จำเป็นต้องมีระดับการตรวจสอบที่แตกต่างกันไปตามประเภทของเนื้อหาที่เกี่ยวข้อง ตัวอย่างที่โดดเด่นในปี 2020 คือการปลอมแปลงโดยแสดงภาพผู้นำเกาหลีเหนือ คิม จองอึน เป็นคนพูด ในกรณีเช่นนี้ อาจเป็นประโยชน์ในการพิจารณาองค์ประกอบภาพ เช่น รูปร่างปาก (visemes) และเสียงคำพูด (หน่วยเสียง) เพื่อหาความแตกต่างที่อาจหักล้างการปลอมแปลง
ผู้เชี่ยวชาญที่เป็นมนุษย์ ผู้ดูทั่วไป และอัลกอริธึมสามารถทำการวิเคราะห์ประเภทนี้ได้ แม้ว่าผลลัพธ์จะแตกต่างกันไปก็ตาม MIT ให้คำจำกัดความ 8 ข้อเพื่อช่วยระบุวิดีโอ Deepfake ดังนี้
ในการสร้างดีพเฟคคุณภาพสูง สิ่งสำคัญคือต้องเน้นไปที่ลักษณะใบหน้าของแต่ละบุคคล เนื่องจากมักจะได้รับการเปลี่ยนแปลงที่สำคัญในระหว่างกระบวนการ
เมื่อประเมินลักษณะใบหน้า สิ่งสำคัญคือต้องพิจารณาพื้นผิวและความลึกของผิวหนังบริเวณแก้มและหน้าผาก ลักษณะของผิวควรสอดคล้องกับการเปลี่ยนแปลงตามอายุเมื่อเปรียบเทียบกับคุณสมบัติอื่นๆ เช่น สีผมและตา แม้ว่าเทคโนโลยี Deepfake จะก้าวหน้าไปมาก แต่ก็ยังอาจมีความไม่สอดคล้องกันที่เห็นได้ชัดเจนเมื่อเปรียบเทียบบางแง่มุมของใบหน้า
โปรดใส่ใจกับดวงตาและคิ้วเมื่อวิเคราะห์ภาพ มีเงาที่ไม่คาดคิดซึ่งอาจบ่งบอกถึงการใช้เทคโนโลยี Deepfake หรือไม่? แม้ว่าอัลกอริธึม Deepfake ได้รับการออกแบบมาเพื่อจำลองฟิสิกส์ในโลกแห่งความเป็นจริงอย่างแม่นยำที่สุดเท่าที่จะเป็นไปได้ แต่ก็อาจไม่สามารถจับภาพทุกความแตกต่างของสถานการณ์ได้เสมอไป ดังนั้นจึงเป็นสิ่งสำคัญที่จะต้องตรวจสอบองค์ประกอบภาพของภาพอย่างรอบคอบ เพื่อระบุความไม่สอดคล้องกันหรือความผิดปกติที่อาจเกิดขึ้น ซึ่งอาจบ่งบอกถึงการมีอยู่ของการปรับแต่งแบบ Deepfake
โปรดสังเกตแว่นตาที่คุณใส่ สิ่งเหล่านี้ทำให้เกิดความรู้สึกไม่สบายหรือบิดเบือนหรือไม่? มีลักษณะมันเงาหรือหมองคล้ำมากเกินไปหรือไม่? นอกจากนี้ สิ่งสำคัญคือต้องพิจารณาว่าตำแหน่งและการเคลื่อนไหวของศีรษะส่งผลต่อความเข้มและทิศทางของการสะท้อนบนเลนส์อย่างไร แม้ว่าเทคโนโลยีดีพเฟคได้สร้างความก้าวหน้าที่สำคัญในการจำลองสภาพแวดล้อมในโลกแห่งความเป็นจริง รวมถึงไดนามิกของแสง แต่ก็ยังเป็นไปได้ที่ความแตกต่างบางอย่างอาจไม่แม่นยำ โดยเฉพาะอย่างยิ่งในส่วนที่เกี่ยวกับฟิสิกส์ธรรมชาติของการโต้ตอบของแสง
สิ่งสำคัญที่ควรทราบคือเทคโนโลยีที่เรียกว่า DeepFakes มีความสามารถในการเพิ่มหรือกำจัดขนบนใบหน้า เช่น หนวด จอน หรือเครา ด้วยความแม่นยำสูง แม้ว่าจะสามารถสร้างผลลัพธ์ที่น่าเชื่อถือในเรื่องเหล่านี้ได้ แต่ความเป็นธรรมชาติของการเปลี่ยนแปลงขนบนใบหน้าที่ทำได้ผ่าน DeepFakes อาจไม่ประสบความสำเร็จเสมอไป
โปรดสังเกตความผิดปกติหรือความไม่สมดุลในไฝบนใบหน้าของคุณ เนื่องจากอาจบ่งบอกถึงความเสี่ยงต่อสุขภาพที่อาจเกิดขึ้นได้ สิ่งสำคัญคือต้องตรวจสอบไฝของคุณอย่างรอบคอบและพิจารณาว่าไฝนั้นดูเป็นธรรมชาติหรือไม่ หากไฝดูไม่เป็นธรรมชาติหรือมีการเปลี่ยนแปลง ควรได้รับการประเมินโดยแพทย์ผิวหนังทันที การตรวจร่างกายด้วยตนเองเป็นประจำสามารถช่วยในการตรวจพบมะเร็งผิวหนังและอาการอื่นๆ ที่เกี่ยวข้องกับไฝที่ผิดปกติได้ตั้งแต่เนิ่นๆ
โปรดสังเกตกรณีของการกระพริบตามากเกินไปหรือไม่เพียงพอในส่วนของบุคคลที่เป็นปัญหา เนื่องจากอาจบ่งบอกถึงสภาวะหรือสภาวะทางจิตใจบางประการ
โปรดใส่ใจกับการเคลื่อนไหวของริมฝีปากของฉันในขณะที่ฉันพูด เนื่องจากวิดีโอ Deepfake บางรายการต้องใช้การซิงค์ริมฝีปากเพื่อความสมจริง เมื่อประเมินวิดีโอ ให้สังเกตว่าการเคลื่อนไหวของริมฝีปากนั้นดูเป็นธรรมชาติและสอดคล้องกับสิ่งที่กำลังพูดหรือไม่
ระบบปัญญาประดิษฐ์ขั้นสูงที่ออกแบบมาเพื่อตรวจจับ Deepfakes สามารถตรวจสอบตัวบ่งชี้ที่คล้ายกันได้หลากหลาย แม้ว่าจะมีระดับประสิทธิภาพที่แตกต่างกันก็ตาม ความพยายามอย่างต่อเนื่องของผู้เชี่ยวชาญด้านข้อมูลเกี่ยวข้องกับการคิดค้นเทคนิคที่เป็นนวัตกรรมใหม่ รวมถึงการระบุรูปแบบการไหลเวียนของเลือดบนใบหน้าตามปกติในหมู่บุคคลที่กล่าวสุนทรพจน์บนหน้าจอ เป็นไปได้ว่าการนำกลยุทธ์ใหม่ๆ ไปใช้หรือการปรับปรุงวิธีการปัจจุบันอาจนำไปสู่ AI ที่เหนือกว่าประสิทธิภาพของมนุษย์ในด้านนี้ในอนาคตอันใกล้ไม่ไกลนัก
การตรวจจับเบาะแสเสียงใน Deepfakes
การระบุเสียง Deepfake ทำให้เกิดอุปสรรคที่ชัดเจน เนื่องจากไม่มีตัวแสดงภาพปรากฏอยู่ในวิดีโอ และไม่มีโอกาสในการตรวจจับความคลาดเคลื่อนระหว่างเสียงและภาพ กระบวนการระบุ Deepfakes จะขึ้นอยู่กับการตรวจสอบการได้ยินเป็นหลัก โดยจะได้รับความช่วยเหลือเพิ่มเติมจากการตรวจสอบความถูกต้องของข้อมูลเมตาในบางสถานการณ์
การศึกษาที่ตีพิมพ์โดย University College London ในปี 2023 พบว่ามนุษย์สามารถตรวจจับได้ คำพูดปลอมๆ 73% ของเวลา (ภาษาอังกฤษและภาษาจีนกลาง) เช่นเดียวกับวิดีโอ Deepfake ผู้ฟังที่เป็นมนุษย์มักจะตรวจจับรูปแบบคำพูดที่ไม่เป็นธรรมชาติในคำพูดที่สร้างโดย AI โดยสัญชาตญาณ แม้ว่าพวกเขาจะไม่สามารถระบุสิ่งที่ดูเหมือนผิดปกติได้ก็ตาม
สัญญาณทั่วไป ได้แก่:
⭐การเบลอ
⭐ขาดการแสดงออก
⭐เสียงพื้นหลังหรือสัญญาณรบกวน
⭐เสียงหรือคำพูดไม่สอดคล้องกัน
⭐ขาด “ความสมบูรณ์” ในน้ำเสียง
⭐การจัดส่งที่มีสคริปต์มากเกินไป
การไม่มีข้อบกพร่องหรือสิ่งผิดปกติ เช่น การเริ่มต้นที่ผิดพลาด การแก้ไข และการลบเส้นเสียง เรียกว่า การขาดความไม่สมบูรณ์
อัลกอริธึมยังสามารถวิเคราะห์คำพูดสำหรับสัญญาณ Deepfake เดียวกันได้อีกครั้ง แต่วิธีการใหม่กำลังทำให้เครื่องมือมีประสิทธิภาพมากขึ้น การวิจัยโดย USENIX ระบุรูปแบบในการสร้างระบบเสียงพูดของ AI ขึ้นมาใหม่ซึ่งไม่สามารถเลียนแบบคำพูดที่เป็นธรรมชาติได้ โดยสรุปว่าเครื่องกำเนิดเสียงของ AI จะสร้างเสียงที่เข้าคู่กับเส้นเสียงที่แคบ (ขนาดประมาณหลอดดื่ม) โดยไม่มีการเคลื่อนไหวตามธรรมชาติของคำพูดของมนุษย์
การวิจัยก่อนหน้านี้จาก Horst Görtz Institute ได้วิเคราะห์เสียงของแท้และ Deepfake ในภาษาอังกฤษและภาษาญี่ปุ่น โดยเผยให้เห็นถึงความละเอียดอ่อน ความแตกต่างในความถี่ที่สูงขึ้นของคำพูดของแท้และ Deepfakes
ทั้งสัญญาณการได้ยินและความแตกต่างเล็กๆ น้อยๆ ในรูปแบบคำพูดนั้น สามารถมองเห็นได้จากทั้งผู้สังเกตการณ์ที่เป็นมนุษย์และระบบปัญญาประดิษฐ์ขั้นสูง ด้วยความเคารพต่อความแปรผันเล็กน้อยในความถี่ที่สูงกว่า เป็นไปได้ว่าโมเดลการตรวจจับ AI อาจบรรลุระดับความแม่นยำที่สมส่วน แม้ว่าการปรับปรุงที่เทียบเท่ากันก็สามารถคาดหวังได้เช่นกัน เกี่ยวกับการหลอกลวงหรือการจัดการที่ AI สร้างขึ้น
มนุษย์และอัลกอริทึมต่างถูกหลอกโดย Deepfakes แต่ด้วยวิธีที่ต่างกัน
การวิจัยระบุว่าทั้งการรับรู้ของมนุษย์และเทคโนโลยีการตรวจจับปัญญาประดิษฐ์ขั้นสูงนั้นมีความสามารถที่เทียบเคียงได้ในสื่อ Deepfake ที่ชาญฉลาด ประสิทธิภาพของระบบเหล่านี้อาจอยู่ในช่วงตั้งแต่ประมาณ 50% ถึงมากกว่า 90% โดยผลลัพธ์ด้านประสิทธิภาพขึ้นอยู่กับเกณฑ์เฉพาะที่ใช้ในระหว่างการทดสอบ
จากมุมมองที่กว้างขึ้น เห็นได้ชัดว่าทั้งมนุษย์และระบบปัญญาประดิษฐ์มีความเสี่ยงต่อการหลอกลวงที่เกิดจาก Deepfakes ในทำนองเดียวกัน อย่างไรก็ตาม มีความแตกต่างที่สำคัญในลักษณะที่เราตกเป็นเหยื่อของการยักย้ายดังกล่าว ความแตกต่างนี้อาจพิสูจน์ได้ว่าเป็นข้อได้เปรียบที่มีศักยภาพที่สุดของเราในการเผชิญหน้ากับอันตรายที่เกิดจากเทคโนโลยี Deepfake การบรรจบกันของความสามารถของมนุษย์กับเครื่องตรวจจับขั้นสูงสำหรับ Deepfakes สัญญาว่าจะชดเชยข้อบกพร่องโดยธรรมชาติของฝ่ายใดฝ่ายหนึ่ง ซึ่งจะเป็นการเพิ่มผลลัพธ์โดยรวม
ตัวอย่างเช่น การวิจัยของ MIT พบว่ามนุษย์สามารถระบุการปลอมแปลงของผู้นำระดับโลกและบุคคลที่มีชื่อเสียงได้ดีกว่าแบบจำลอง AI นอกจากนี้ยังเผยให้เห็นว่าโมเดล AI ประสบปัญหากับวิดีโอที่มีคนหลายคน แม้ว่าจะแนะนำว่าสิ่งนี้อาจเป็นผลมาจากการฝึกอบรมอัลกอริธึมเกี่ยวกับวิดีโอที่มีลำโพงตัวเดียว
ในทางตรงกันข้าม การวิจัยข้างต้นได้เปิดเผยกรณีที่ปัญญาประดิษฐ์เหนือกว่าประสิทธิภาพของมนุษย์เมื่อวิเคราะห์คลิปวิดีโอที่มีคุณภาพต่ำกว่ามาตรฐาน เช่น ความพร่ามัว ความหยาบ และความมืด ซึ่งอาจจงใจนำไปใช้เพื่อทำให้ผู้สังเกตการณ์เข้าใจผิด นอกจากนี้ เทคนิคการตรวจจับ AI ร่วมสมัย เช่น การตรวจสอบการไหลเวียนของเลือดภายในบริเวณใบหน้าเฉพาะนั้นเกี่ยวข้องกับการประเมินที่เกินความสามารถของมนุษย์
ความก้าวหน้าในวิธีการสำหรับระบบปัญญาประดิษฐ์ในการระบุสัญญาณอันละเอียดอ่อนที่มนุษย์ไม่สามารถรับรู้ได้ จะช่วยเพิ่มความสามารถในการแยกแยะตัวบ่งชี้ดังกล่าวเมื่อเวลาผ่านไปอย่างไม่ต้องสงสัย อย่างไรก็ตาม ความก้าวหน้าเหล่านี้อาจนำไปสู่การเพิ่มความซับซ้อนของเทคนิคการหลอกลวงที่ใช้โดย AI ดังนั้น การพิจารณาที่สำคัญเกี่ยวกับการพัฒนาในอนาคตของสาขานี้จึงอยู่ที่การพิจารณาว่านวัตกรรมทางเทคโนโลยีที่ออกแบบมาเพื่อเปิดโปง Deepfake จะสามารถก้าวข้ามธรรมชาติที่ซับซ้อนมากขึ้นของความสามารถในการสร้าง Deepfake ได้หรือไม่
มองสิ่งต่าง ๆ ในยุคแห่ง Deepfakes
ในขณะที่เทคโนโลยีการตรวจจับปลอมเชิงลึกของปัญญาประดิษฐ์ก้าวหน้าและความสามารถของสื่อปลอมเชิงลึกเพิ่มขึ้น ศักยภาพในการหลอกลวงผ่าน AI ที่เกินกว่าความสามารถในการระบุการบิดเบือนดังกล่าวอาจกลายเป็นข้อกังวล เช่นเดียวกับในกรณีของข้อความที่สร้างโดย AI ซึ่งการตัดสินของมนุษย์ในปัจจุบัน วิธีการหลักในการต่อสู้กับการประดิษฐ์ดังกล่าว
บุคคลจำเป็นต้องทำความคุ้นเคยกับตัวชี้วัดของวิดีโอปลอมเพื่อป้องกันตนเองจากแผนการฉ้อโกงที่อาจเกิดขึ้น รวมถึงลดความเสี่ยงในการแพร่กระจายข้อมูลที่ไม่ถูกต้อง ความแพร่หลายของการสื่อสารแบบดิจิทัลจำเป็นต้องมีการระมัดระวังมากขึ้นในการตรวจสอบข้อมูลที่แบ่งปันทางออนไลน์ เกรงว่าจะกระทบต่อความสมบูรณ์ของการโต้ตอบและการแลกเปลี่ยนของเรา