Contents

ใครตรวจจับ Deepfakes ได้ดีกว่า: มนุษย์หรือเครื่องจักร?

ประเด็นที่สำคัญ

การแพร่กระจายของเทคโนโลยี Deepfake ทำให้เกิดความท้าทายมากมายต่อสังคมร่วมสมัย โดยครอบคลุมถึงศักยภาพในการทำให้การแพร่กระจายของข้อมูลที่เข้าใจผิดรุนแรงขึ้น บ่อนทำลายความน่าเชื่อถือของบุคคลผ่านการเป็นตัวแทนที่ฉ้อโกง และแม้แต่การปลุกปั่นให้เกิดความขัดแย้งที่กระทบต่อความมั่นคงของชาติ

แม้จะมีเทคโนโลยี AI ขั้นสูงที่ออกแบบมาเพื่อตรวจจับการปลอมแปลงอย่างลึกซึ้ง แต่สิ่งสำคัญคือต้องรับรู้ว่าวิธีการเหล่านี้ไม่มีข้อผิดพลาด ด้วยเหตุนี้ การตัดสินของมนุษย์จึงยังคงมีบทบาทสำคัญในการระบุกรณีที่อาจเกิดขึ้นจากการปลอมแปลงอย่างลึกซึ้ง

ด้วยการบูรณาการความสามารถเฉพาะตัวของทั้งนักวิเคราะห์มนุษย์และระบบปัญญาประดิษฐ์ ทำให้สามารถเพิ่มประสิทธิภาพในการตรวจจับและตอบโต้ภัยคุกคามที่เกิดจากเทคโนโลยี Deepfake ได้ แม้ว่าแต่ละวิธีจะมีข้อดีและข้อจำกัดของตัวเอง แต่การผสมผสานระหว่างสองแนวทางนี้ทำให้มีแนวทางที่ครอบคลุมมากขึ้นในการจัดการกับความท้าทายที่เกิดขึ้นใหม่นี้

การเกิดขึ้นของเทคโนโลยีดีพเฟคก่อให้เกิดภัยคุกคามที่แพร่หลายต่อแง่มุมต่างๆ ของสังคมร่วมสมัย ความสามารถในการแยกแยะความถูกต้องในสื่อดิจิทัลมีความสำคัญมากขึ้นในการต่อสู้กับข้อมูลที่ผิด แต่ในขณะที่ปัญญาประดิษฐ์ยังคงก้าวหน้าอย่างรวดเร็ว เราจึงต้องพิจารณาว่าการพึ่งพาสัญชาตญาณของมนุษย์หรือความสามารถทางเทคโนโลยีนั้นเหมาะสมกว่าในการระบุการบิดเบือนดังกล่าวหรือไม่

อันตรายจากดีฟเฟค

ในขณะที่ปัญญาประดิษฐ์ยังคงพัฒนาและพัฒนาอย่างต่อเนื่อง เทคโนโลยี Deepfake ที่มีศักยภาพจะสร้างความเสียหายให้กับสังคมก็เช่นกัน การแพร่กระจายของดีพเฟคก่อให้เกิดความท้าทายมากมายที่เราต้องจัดการเพื่อป้องกันผลกระทบที่เป็นอันตราย ข้อกังวลบางประการเหล่านี้ ได้แก่ การแพร่กระจายของข้อมูลที่ไม่ถูกต้อง การพังทลายของความไว้วางใจในสถาบัน และการคงอยู่ของคำพูดแสดงความเกลียดชังและการเลือกปฏิบัติ จำเป็นอย่างยิ่งที่เราต้องระมัดระวังในความพยายามของเราในการต่อสู้กับภัยคุกคามที่กำลังเกิดขึ้นนี้ และทำงานร่วมกันเพื่อบรรเทาผลกระทบ

เทคโนโลยี Deepfake มีศักยภาพในการเผยแพร่ข้อมูลที่ทำให้เข้าใจผิดผ่านเนื้อหาวิดีโอและเสียงที่มีการดัดแปลง รวมถึงการรายงานข่าวเท็จที่อาจนำไปสู่ความเข้าใจผิดหรือแม้แต่ความไม่สงบในที่สาธารณะ

ด้วยการแอบอ้างเป็นบุคคลจริง DeepFakes มีศักยภาพที่จะทำลายชื่อเสียงและทำให้ผู้ที่คุ้นเคยกับพวกเขาเข้าใจผิด

ข้อกังวลด้านความมั่นคงแห่งชาติที่เกี่ยวข้องกับเทคโนโลยี Deepfake ส่วนใหญ่เกี่ยวข้องกับศักยภาพของเนื้อหาภาพและเสียงที่ผลิตขึ้นมา ซึ่งแสดงถึงผู้นำโลกที่ยุยงให้เกิดสงคราม ซึ่งอาจนำไปสู่ผลที่ตามมาที่เป็นหายนะในระดับนานาชาติ

การใช้ภาพและเสียงที่ทำให้เข้าใจผิดอาจกระตุ้นให้เกิดความขัดแย้งและความวุ่นวายภายในกลุ่มใดกลุ่มหนึ่ง โดยใช้ประโยชน์จากอารมณ์เพื่อวัตถุประสงค์ในการบงการ

ความปลอดภัยทางไซเบอร์กลายเป็นข้อกังวลที่เพิ่มมากขึ้น เนื่องจากอาชญากรไซเบอร์ใช้เทคโนโลยีการโคลนเสียงที่ขับเคลื่อนด้วยปัญญาประดิษฐ์เพื่อปลอมตัวเป็นแหล่งที่มาที่น่าเชื่อถือ และหลอกลวงเหยื่อที่ไม่สงสัยผ่านการสื่อสารส่วนบุคคล ซึ่งจะช่วยเพิ่มศักยภาพในการโจมตีเป้าหมายแต่ละรายได้สำเร็จ

การประยุกต์ใช้เทคโนโลยี Deepfake ที่ชั่วร้ายเกี่ยวข้องกับการจัดสรรภาพลักษณ์หรือความคล้ายคลึงของบุคคลโดยไม่ได้รับอนุญาต ซึ่งสามารถเผยแพร่ในวงกว้างได้โดยไม่ต้องได้รับความยินยอมอย่างชัดแจ้ง

การสร้างความไว้วางใจและความมั่นใจนั้นขึ้นอยู่กับความสามารถในการแยกแยะระหว่างความจริงและความเท็จ ในกรณีที่ไม่สามารถแยกความแตกต่างดังกล่าวได้ ข้อมูลทั้งหมดดูเหมือนจะไม่น่าเชื่อถือโดยเนื้อแท้

ความก้าวหน้าในเทคโนโลยี Deepfake กำลังปรับปรุงความสมจริงอย่างต่อเนื่อง ทำให้การพัฒนาวิธีการที่เชื่อถือได้ในการระบุเนื้อหาสื่อที่ถูกดัดแปลงเหล่านี้มีความสำคัญมากขึ้น ปัญญาประดิษฐ์ (AI) นำเสนอโซลูชันที่เป็นไปได้ผ่านการปรับใช้โมเดลการตรวจจับ Deepfake แบบพิเศษ แม้ว่าเครื่องมือเหล่านี้จะแสดงศักยภาพในการตั้งค่าสถานะวิดีโอหรือรูปภาพที่ฉ้อโกง แต่ก็ไม่มีข้อผิดพลาด คล้ายกับอัลกอริทึมอื่นๆ ที่พยายามระบุข้อความที่สร้างโดย AI

ปัจจุบัน ความสามารถในการตัดสินและวิจารณญาณของมนุษย์ยังคงเป็นทรัพยากรสำคัญในการแยกแยะระหว่างเนื้อหาที่แท้จริงและสื่อที่มีการดัดแปลง อย่างไรก็ตาม คำถามเกิดขึ้นว่ามนุษย์มีความสามารถเท่าเทียมกันในการตรวจจับรูปภาพและวิดีโอที่มีการปลอมแปลงอย่างล้ำลึกหรือไม่ เมื่อเทียบกับอัลกอริธึมขั้นสูงที่พัฒนาขึ้นเพื่อจุดประสงค์นี้

อัลกอริทึมสามารถตรวจจับ Deepfakes ได้ดีกว่ามนุษย์หรือไม่?

Deepfakes ถือเป็นภัยคุกคามที่ร้ายแรงพอที่ยักษ์ใหญ่ด้านเทคโนโลยีและกลุ่มวิจัยต่างทุ่มเททรัพยากรจำนวนมหาศาลเพื่อการวิจัยและพัฒนา ในปี 2019 ผู้ชื่นชอบ Meta, Microsoft และ Amazon เสนอรางวัลมูลค่า 1,000,000 ดอลลาร์ระหว่าง Deepfake Detection Challenge เพื่อโมเดลการตรวจจับที่แม่นยำที่สุด

โมเดลที่มีประสิทธิภาพสูงสุดแสดงอัตราความแม่นยำ 82.56% ในชุดข้อมูลที่ประกอบด้วยวิดีโอที่สาธารณะเข้าถึงได้ อย่างไรก็ตาม เมื่อต้องผ่านการทดสอบที่เกี่ยวข้องกับชุดวิดีโอ 10,000 รายการที่ไม่เคยสังเกตมาก่อน ซึ่งเรียกว่า “ชุดข้อมูลกล่องดำ” ประสิทธิภาพของรุ่นเดียวกันนั้นลดลงอย่างมาก โดยมีความแม่นยำเพียง 65.18%

การวิจัยของเราครอบคลุมการตรวจสอบที่หลากหลายเพื่อตรวจสอบประสิทธิภาพของระบบตรวจจับ Deepfake ที่ใช้ปัญญาประดิษฐ์เมื่อเปรียบเทียบกับประสิทธิภาพของมนุษย์ แม้ว่าการค้นพบจะแตกต่างกันไปในการศึกษาต่างๆ แต่เป็นที่น่าสังเกตว่าโดยส่วนใหญ่แล้ว มนุษย์มีประวัติที่เท่าเทียมกันหรือเหนือกว่าในการระบุ Deepfakes เมื่อเทียบกับเทคโนโลยีเหล่านี้

การศึกษาหนึ่งในปี 2021 ที่เผยแพร่บน PNAS พบว่า “ผู้สังเกตการณ์ที่เป็นมนุษย์ธรรมดา” มีอัตราความแม่นยำที่สูงกว่าเครื่องมือตรวจจับ Deepfake ชั้นนำเล็กน้อย อย่างไรก็ตาม การศึกษายังพบว่าผู้เข้าร่วมที่เป็นมนุษย์และแบบจำลอง AI มีความเสี่ยงต่อข้อผิดพลาดประเภทต่างๆ

สิ่งที่น่าสนใจคือการวิจัยที่ดำเนินการโดย The University of Sydney พบว่าสมองของมนุษย์มีประสิทธิภาพในการตรวจจับ Deepfake โดยไม่รู้ตัว มากกว่าความพยายามอย่างมีสติของเรา

การตรวจจับเบาะแสภาพใน Deepfakes

ความซับซ้อนของการตรวจจับ Deepfake จำเป็นต้องมีระดับการตรวจสอบที่แตกต่างกันไปตามประเภทของเนื้อหาที่เกี่ยวข้อง ตัวอย่างที่โดดเด่นในปี 2020 คือการปลอมแปลงโดยแสดงภาพผู้นำเกาหลีเหนือ คิม จองอึน เป็นคนพูด ในกรณีเช่นนี้ อาจเป็นประโยชน์ในการพิจารณาองค์ประกอบภาพ เช่น รูปร่างปาก (visemes) และเสียงคำพูด (หน่วยเสียง) เพื่อหาความแตกต่างที่อาจหักล้างการปลอมแปลง

ผู้เชี่ยวชาญที่เป็นมนุษย์ ผู้ดูทั่วไป และอัลกอริธึมสามารถทำการวิเคราะห์ประเภทนี้ได้ แม้ว่าผลลัพธ์จะแตกต่างกันไปก็ตาม MIT ให้คำจำกัดความ 8 ข้อเพื่อช่วยระบุวิดีโอ Deepfake ดังนี้

ในการสร้างดีพเฟคคุณภาพสูง สิ่งสำคัญคือต้องเน้นไปที่ลักษณะใบหน้าของแต่ละบุคคล เนื่องจากมักจะได้รับการเปลี่ยนแปลงที่สำคัญในระหว่างกระบวนการ

เมื่อประเมินลักษณะใบหน้า สิ่งสำคัญคือต้องพิจารณาพื้นผิวและความลึกของผิวหนังบริเวณแก้มและหน้าผาก ลักษณะของผิวควรสอดคล้องกับการเปลี่ยนแปลงตามอายุเมื่อเปรียบเทียบกับคุณสมบัติอื่นๆ เช่น สีผมและตา แม้ว่าเทคโนโลยี Deepfake จะก้าวหน้าไปมาก แต่ก็ยังอาจมีความไม่สอดคล้องกันที่เห็นได้ชัดเจนเมื่อเปรียบเทียบบางแง่มุมของใบหน้า

โปรดใส่ใจกับดวงตาและคิ้วเมื่อวิเคราะห์ภาพ มีเงาที่ไม่คาดคิดซึ่งอาจบ่งบอกถึงการใช้เทคโนโลยี Deepfake หรือไม่? แม้ว่าอัลกอริธึม Deepfake ได้รับการออกแบบมาเพื่อจำลองฟิสิกส์ในโลกแห่งความเป็นจริงอย่างแม่นยำที่สุดเท่าที่จะเป็นไปได้ แต่ก็อาจไม่สามารถจับภาพทุกความแตกต่างของสถานการณ์ได้เสมอไป ดังนั้นจึงเป็นสิ่งสำคัญที่จะต้องตรวจสอบองค์ประกอบภาพของภาพอย่างรอบคอบ เพื่อระบุความไม่สอดคล้องกันหรือความผิดปกติที่อาจเกิดขึ้น ซึ่งอาจบ่งบอกถึงการมีอยู่ของการปรับแต่งแบบ Deepfake

โปรดสังเกตแว่นตาที่คุณใส่ สิ่งเหล่านี้ทำให้เกิดความรู้สึกไม่สบายหรือบิดเบือนหรือไม่? มีลักษณะมันเงาหรือหมองคล้ำมากเกินไปหรือไม่? นอกจากนี้ สิ่งสำคัญคือต้องพิจารณาว่าตำแหน่งและการเคลื่อนไหวของศีรษะส่งผลต่อความเข้มและทิศทางของการสะท้อนบนเลนส์อย่างไร แม้ว่าเทคโนโลยีดีพเฟคได้สร้างความก้าวหน้าที่สำคัญในการจำลองสภาพแวดล้อมในโลกแห่งความเป็นจริง รวมถึงไดนามิกของแสง แต่ก็ยังเป็นไปได้ที่ความแตกต่างบางอย่างอาจไม่แม่นยำ โดยเฉพาะอย่างยิ่งในส่วนที่เกี่ยวกับฟิสิกส์ธรรมชาติของการโต้ตอบของแสง

สิ่งสำคัญที่ควรทราบคือเทคโนโลยีที่เรียกว่า DeepFakes มีความสามารถในการเพิ่มหรือกำจัดขนบนใบหน้า เช่น หนวด จอน หรือเครา ด้วยความแม่นยำสูง แม้ว่าจะสามารถสร้างผลลัพธ์ที่น่าเชื่อถือในเรื่องเหล่านี้ได้ แต่ความเป็นธรรมชาติของการเปลี่ยนแปลงขนบนใบหน้าที่ทำได้ผ่าน DeepFakes อาจไม่ประสบความสำเร็จเสมอไป

โปรดสังเกตความผิดปกติหรือความไม่สมดุลในไฝบนใบหน้าของคุณ เนื่องจากอาจบ่งบอกถึงความเสี่ยงต่อสุขภาพที่อาจเกิดขึ้นได้ สิ่งสำคัญคือต้องตรวจสอบไฝของคุณอย่างรอบคอบและพิจารณาว่าไฝนั้นดูเป็นธรรมชาติหรือไม่ หากไฝดูไม่เป็นธรรมชาติหรือมีการเปลี่ยนแปลง ควรได้รับการประเมินโดยแพทย์ผิวหนังทันที การตรวจร่างกายด้วยตนเองเป็นประจำสามารถช่วยในการตรวจพบมะเร็งผิวหนังและอาการอื่นๆ ที่เกี่ยวข้องกับไฝที่ผิดปกติได้ตั้งแต่เนิ่นๆ

โปรดสังเกตกรณีของการกระพริบตามากเกินไปหรือไม่เพียงพอในส่วนของบุคคลที่เป็นปัญหา เนื่องจากอาจบ่งบอกถึงสภาวะหรือสภาวะทางจิตใจบางประการ

โปรดใส่ใจกับการเคลื่อนไหวของริมฝีปากของฉันในขณะที่ฉันพูด เนื่องจากวิดีโอ Deepfake บางรายการต้องใช้การซิงค์ริมฝีปากเพื่อความสมจริง เมื่อประเมินวิดีโอ ให้สังเกตว่าการเคลื่อนไหวของริมฝีปากนั้นดูเป็นธรรมชาติและสอดคล้องกับสิ่งที่กำลังพูดหรือไม่

ระบบปัญญาประดิษฐ์ขั้นสูงที่ออกแบบมาเพื่อตรวจจับ Deepfakes สามารถตรวจสอบตัวบ่งชี้ที่คล้ายกันได้หลากหลาย แม้ว่าจะมีระดับประสิทธิภาพที่แตกต่างกันก็ตาม ความพยายามอย่างต่อเนื่องของผู้เชี่ยวชาญด้านข้อมูลเกี่ยวข้องกับการคิดค้นเทคนิคที่เป็นนวัตกรรมใหม่ รวมถึงการระบุรูปแบบการไหลเวียนของเลือดบนใบหน้าตามปกติในหมู่บุคคลที่กล่าวสุนทรพจน์บนหน้าจอ เป็นไปได้ว่าการนำกลยุทธ์ใหม่ๆ ไปใช้หรือการปรับปรุงวิธีการปัจจุบันอาจนำไปสู่ ​​AI ที่เหนือกว่าประสิทธิภาพของมนุษย์ในด้านนี้ในอนาคตอันใกล้ไม่ไกลนัก

การตรวจจับเบาะแสเสียงใน Deepfakes

การระบุเสียง Deepfake ทำให้เกิดอุปสรรคที่ชัดเจน เนื่องจากไม่มีตัวแสดงภาพปรากฏอยู่ในวิดีโอ และไม่มีโอกาสในการตรวจจับความคลาดเคลื่อนระหว่างเสียงและภาพ กระบวนการระบุ Deepfakes จะขึ้นอยู่กับการตรวจสอบการได้ยินเป็นหลัก โดยจะได้รับความช่วยเหลือเพิ่มเติมจากการตรวจสอบความถูกต้องของข้อมูลเมตาในบางสถานการณ์

การศึกษาที่ตีพิมพ์โดย University College London ในปี 2023 พบว่ามนุษย์สามารถตรวจจับได้ คำพูดปลอมๆ 73% ของเวลา (ภาษาอังกฤษและภาษาจีนกลาง) เช่นเดียวกับวิดีโอ Deepfake ผู้ฟังที่เป็นมนุษย์มักจะตรวจจับรูปแบบคำพูดที่ไม่เป็นธรรมชาติในคำพูดที่สร้างโดย AI โดยสัญชาตญาณ แม้ว่าพวกเขาจะไม่สามารถระบุสิ่งที่ดูเหมือนผิดปกติได้ก็ตาม

สัญญาณทั่วไป ได้แก่:

⭐การเบลอ

⭐ขาดการแสดงออก

⭐เสียงพื้นหลังหรือสัญญาณรบกวน

⭐เสียงหรือคำพูดไม่สอดคล้องกัน

⭐ขาด “ความสมบูรณ์” ในน้ำเสียง

⭐การจัดส่งที่มีสคริปต์มากเกินไป

การไม่มีข้อบกพร่องหรือสิ่งผิดปกติ เช่น การเริ่มต้นที่ผิดพลาด การแก้ไข และการลบเส้นเสียง เรียกว่า การขาดความไม่สมบูรณ์

อัลกอริธึมยังสามารถวิเคราะห์คำพูดสำหรับสัญญาณ Deepfake เดียวกันได้อีกครั้ง แต่วิธีการใหม่กำลังทำให้เครื่องมือมีประสิทธิภาพมากขึ้น การวิจัยโดย USENIX ระบุรูปแบบในการสร้างระบบเสียงพูดของ AI ขึ้นมาใหม่ซึ่งไม่สามารถเลียนแบบคำพูดที่เป็นธรรมชาติได้ โดยสรุปว่าเครื่องกำเนิดเสียงของ AI จะสร้างเสียงที่เข้าคู่กับเส้นเสียงที่แคบ (ขนาดประมาณหลอดดื่ม) โดยไม่มีการเคลื่อนไหวตามธรรมชาติของคำพูดของมนุษย์

การวิจัยก่อนหน้านี้จาก Horst Görtz Institute ได้วิเคราะห์เสียงของแท้และ Deepfake ในภาษาอังกฤษและภาษาญี่ปุ่น โดยเผยให้เห็นถึงความละเอียดอ่อน ความแตกต่างในความถี่ที่สูงขึ้นของคำพูดของแท้และ Deepfakes

ทั้งสัญญาณการได้ยินและความแตกต่างเล็กๆ น้อยๆ ในรูปแบบคำพูดนั้น สามารถมองเห็นได้จากทั้งผู้สังเกตการณ์ที่เป็นมนุษย์และระบบปัญญาประดิษฐ์ขั้นสูง ด้วยความเคารพต่อความแปรผันเล็กน้อยในความถี่ที่สูงกว่า เป็นไปได้ว่าโมเดลการตรวจจับ AI อาจบรรลุระดับความแม่นยำที่สมส่วน แม้ว่าการปรับปรุงที่เทียบเท่ากันก็สามารถคาดหวังได้เช่นกัน เกี่ยวกับการหลอกลวงหรือการจัดการที่ AI สร้างขึ้น

มนุษย์และอัลกอริทึมต่างถูกหลอกโดย Deepfakes แต่ด้วยวิธีที่ต่างกัน

การวิจัยระบุว่าทั้งการรับรู้ของมนุษย์และเทคโนโลยีการตรวจจับปัญญาประดิษฐ์ขั้นสูงนั้นมีความสามารถที่เทียบเคียงได้ในสื่อ Deepfake ที่ชาญฉลาด ประสิทธิภาพของระบบเหล่านี้อาจอยู่ในช่วงตั้งแต่ประมาณ 50% ถึงมากกว่า 90% โดยผลลัพธ์ด้านประสิทธิภาพขึ้นอยู่กับเกณฑ์เฉพาะที่ใช้ในระหว่างการทดสอบ

จากมุมมองที่กว้างขึ้น เห็นได้ชัดว่าทั้งมนุษย์และระบบปัญญาประดิษฐ์มีความเสี่ยงต่อการหลอกลวงที่เกิดจาก Deepfakes ในทำนองเดียวกัน อย่างไรก็ตาม มีความแตกต่างที่สำคัญในลักษณะที่เราตกเป็นเหยื่อของการยักย้ายดังกล่าว ความแตกต่างนี้อาจพิสูจน์ได้ว่าเป็นข้อได้เปรียบที่มีศักยภาพที่สุดของเราในการเผชิญหน้ากับอันตรายที่เกิดจากเทคโนโลยี Deepfake การบรรจบกันของความสามารถของมนุษย์กับเครื่องตรวจจับขั้นสูงสำหรับ Deepfakes สัญญาว่าจะชดเชยข้อบกพร่องโดยธรรมชาติของฝ่ายใดฝ่ายหนึ่ง ซึ่งจะเป็นการเพิ่มผลลัพธ์โดยรวม

ตัวอย่างเช่น การวิจัยของ MIT พบว่ามนุษย์สามารถระบุการปลอมแปลงของผู้นำระดับโลกและบุคคลที่มีชื่อเสียงได้ดีกว่าแบบจำลอง AI นอกจากนี้ยังเผยให้เห็นว่าโมเดล AI ประสบปัญหากับวิดีโอที่มีคนหลายคน แม้ว่าจะแนะนำว่าสิ่งนี้อาจเป็นผลมาจากการฝึกอบรมอัลกอริธึมเกี่ยวกับวิดีโอที่มีลำโพงตัวเดียว

ในทางตรงกันข้าม การวิจัยข้างต้นได้เปิดเผยกรณีที่ปัญญาประดิษฐ์เหนือกว่าประสิทธิภาพของมนุษย์เมื่อวิเคราะห์คลิปวิดีโอที่มีคุณภาพต่ำกว่ามาตรฐาน เช่น ความพร่ามัว ความหยาบ และความมืด ซึ่งอาจจงใจนำไปใช้เพื่อทำให้ผู้สังเกตการณ์เข้าใจผิด นอกจากนี้ เทคนิคการตรวจจับ AI ร่วมสมัย เช่น การตรวจสอบการไหลเวียนของเลือดภายในบริเวณใบหน้าเฉพาะนั้นเกี่ยวข้องกับการประเมินที่เกินความสามารถของมนุษย์

ความก้าวหน้าในวิธีการสำหรับระบบปัญญาประดิษฐ์ในการระบุสัญญาณอันละเอียดอ่อนที่มนุษย์ไม่สามารถรับรู้ได้ จะช่วยเพิ่มความสามารถในการแยกแยะตัวบ่งชี้ดังกล่าวเมื่อเวลาผ่านไปอย่างไม่ต้องสงสัย อย่างไรก็ตาม ความก้าวหน้าเหล่านี้อาจนำไปสู่การเพิ่มความซับซ้อนของเทคนิคการหลอกลวงที่ใช้โดย AI ดังนั้น การพิจารณาที่สำคัญเกี่ยวกับการพัฒนาในอนาคตของสาขานี้จึงอยู่ที่การพิจารณาว่านวัตกรรมทางเทคโนโลยีที่ออกแบบมาเพื่อเปิดโปง Deepfake จะสามารถก้าวข้ามธรรมชาติที่ซับซ้อนมากขึ้นของความสามารถในการสร้าง Deepfake ได้หรือไม่

มองสิ่งต่าง ๆ ในยุคแห่ง Deepfakes

ในขณะที่เทคโนโลยีการตรวจจับปลอมเชิงลึกของปัญญาประดิษฐ์ก้าวหน้าและความสามารถของสื่อปลอมเชิงลึกเพิ่มขึ้น ศักยภาพในการหลอกลวงผ่าน AI ที่เกินกว่าความสามารถในการระบุการบิดเบือนดังกล่าวอาจกลายเป็นข้อกังวล เช่นเดียวกับในกรณีของข้อความที่สร้างโดย AI ซึ่งการตัดสินของมนุษย์ในปัจจุบัน วิธีการหลักในการต่อสู้กับการประดิษฐ์ดังกล่าว

บุคคลจำเป็นต้องทำความคุ้นเคยกับตัวชี้วัดของวิดีโอปลอมเพื่อป้องกันตนเองจากแผนการฉ้อโกงที่อาจเกิดขึ้น รวมถึงลดความเสี่ยงในการแพร่กระจายข้อมูลที่ไม่ถูกต้อง ความแพร่หลายของการสื่อสารแบบดิจิทัลจำเป็นต้องมีการระมัดระวังมากขึ้นในการตรวจสอบข้อมูลที่แบ่งปันทางออนไลน์ เกรงว่าจะกระทบต่อความสมบูรณ์ของการโต้ตอบและการแลกเปลี่ยนของเรา