Contents

3 ความเสี่ยงและข้อกังวลด้านความเป็นส่วนตัวของ Chatbot ที่คุณควรรู้

Chatbot มีมานานหลายปีแล้ว แต่การเพิ่มขึ้นของโมเดลภาษาขนาดใหญ่ เช่น ChatGPT และ Google Bard ทำให้อุตสาหกรรมแชทบอทมีชีวิตใหม่

ผู้คนทั่วโลกใช้แชทบอทที่ใช้ปัญญาประดิษฐ์นับล้าน อย่างไรก็ตาม การพิจารณาถึงอันตรายต่อความเป็นส่วนตัวที่อาจเกิดขึ้นเมื่อสำรวจเทคโนโลยีดังกล่าวเป็นสิ่งสำคัญ

การเก็บรวบรวมข้อมูล

Chatbots มีการพัฒนาอย่างมากจากชาติแรกๆ ในฐานะผู้ช่วยเสมือนขั้นพื้นฐานที่สามารถทักทายผู้ใช้ได้อย่างง่ายดาย แชทบอทร่วมสมัยมีความสามารถในการจัดการกับคำถามที่ซับซ้อนและตอบสนองความต้องการที่หลากหลาย ซึ่งบ่อยครั้งจำเป็นต้องได้รับข้อมูลมากมายจากผู้ใช้ แม้ว่าคำถามจะตรงไปตรงมา แต่โดยทั่วไปแล้วบุคคลทั่วไปมักชอบให้คำถามนั้นอยู่ในขอบเขตของการโต้ตอบของตน

ตาม ส่วนการสนับสนุนของ OpenAI คุณสามารถลบบันทึกการแชท ChatGPT ได้ทุกเมื่อที่คุณต้องการ และบันทึกเหล่านั้นจะ ถูกลบออกจากระบบของ OpenAI อย่างถาวรหลังจาก 30 วัน อย่างไรก็ตาม บริษัทจะเก็บรักษาและตรวจสอบบันทึกการแชทบางรายการ หากพบว่ามีเนื้อหาที่เป็นอันตรายหรือไม่เหมาะสม

Claude แชทบอท AI ยอดนิยมอีกตัวหนึ่งยังคอยติดตามการสนทนาก่อนหน้าของคุณ ศูนย์สนับสนุนของ Anthropic ระบุว่า Claude ติดตาม"พร้อมท์และผลลัพธ์ของคุณในผลิตภัณฑ์เพื่อให้บริการ คุณมีประสบการณ์ผลิตภัณฑ์ที่สอดคล้องกันตลอดเวลาตามการควบคุมของคุณ” คุณสามารถลบการสนทนาของคุณกับ Claude ได้ เพื่อให้ลืมสิ่งที่คุณกำลังพูดถึง แต่ไม่ได้หมายความว่า Anthropic จะลบบันทึกของคุณออกจากระบบทันที

อาจมีการสอบถามว่าข้อมูลส่วนบุคคลถูกเก็บรักษาไว้หรือไม่ นอกจากนี้ยังทำให้เกิดคำถามเกี่ยวกับการใช้ข้อมูลดังกล่าวโดยหน่วยงาน เช่น ChatGPT และระบบ AI การสนทนาอื่นๆ

แต่ข้อกังวลไม่ได้หยุดอยู่แค่นี้

ChatGPT เรียนรู้อย่างไร

ในการให้ข้อมูล โมเดลภาษาขนาดใหญ่ได้รับการฝึกอบรมด้วยข้อมูลจำนวนมหาศาล จากข้อมูลของ Science Focus ระบุว่า ChatGPT-4 เพียงอย่างเดียวได้รับข้อมูลจำนวน 3 แสนล้านคำในระหว่างระยะเวลาการฝึกอบรม สิ่งนี้ไม่ได้นำมาจากสารานุกรมบางฉบับโดยตรง แต่นักพัฒนาแชทบอทใช้ข้อมูลจำนวนมากจากอินเทอร์เน็ตเพื่อฝึกโมเดลของตน ซึ่งอาจรวมถึงข้อมูลจากหนังสือ ภาพยนตร์ บทความ รายการ Wikipedia บล็อกโพสต์ ความคิดเห็น และแม้แต่ไซต์บทวิจารณ์

โปรดทราบว่านักพัฒนาแชทบอทบางรายอาจมีนโยบายความเป็นส่วนตัวที่แตกต่างกัน จึงเป็นไปได้ว่าแหล่งข้อมูลบางส่วนที่กล่าวถึงก่อนหน้านี้อาจไม่ถูกนำมาใช้ในระหว่างกระบวนการฝึกอบรม

ChatGPT ถูกวิพากษ์วิจารณ์อย่างกว้างขวางเนื่องจากขาดมาตรการที่เพียงพอในการปกป้องความเป็นส่วนตัวของผู้ใช้ ความรู้สึกนี้ชี้ให้เห็นว่าผู้ใช้มีความกังวลเกี่ยวกับการใช้ ChatGPT ในทางที่ผิดหรือการเปิดเผยข้อมูลส่วนบุคคลที่อาจเกิดขึ้น ด้วยเหตุนี้ บุคคลจำนวนมากจึงมองว่า ChatGPT เป็นหน่วยงานที่ไม่น่าเชื่อถือในการปกป้องข้อมูลที่ละเอียดอ่อน เหตุผลที่อยู่เบื้องหลังข้อกังวลเหล่านี้อาจเกิดจากปัจจัยต่างๆ เช่น โปรโตคอลการเข้ารหัสไม่เพียงพอ แนวทางปฏิบัติในการจัดการข้อมูลที่ไม่เข้มงวด และความโปร่งใสไม่เพียงพอเกี่ยวกับนโยบายการรวบรวมและการใช้งานข้อมูล

คำแถลงของ ChatGPT-3.5 เกี่ยวกับการไม่เปิดเผยความคิดเห็นต่อบทความของผู้ใช้และบทวิจารณ์ผลิตภัณฑ์โดยตรงในระหว่างกระบวนการฝึกอบรมดูเหมือนจะไม่มีความชัดเจน อย่างไรก็ตาม จากการตรวจสอบเพิ่มเติม ดูเหมือนจะมีความคลุมเครือบางประการเกี่ยวกับขอบเขตของการยืนยันนี้ เมื่อสอบถามโดยเฉพาะเกี่ยวกับแหล่งข้อมูลดังกล่าว ChatGPT-3.5 จะยังคงเน้นย้ำการปฏิเสธ อย่างไรก็ตาม การพาดพิงทางอ้อมภายในการตอบสนองของแบบจำลองอาจแนะนำเป็นอย่างอื่น

/th/images/gpt-3-5-question.jpg

แต่ได้รับการศึกษาโดยใช้ข้อความหลากหลายประเภทที่คัดมาจากอินเทอร์เน็ต ครอบคลุมเว็บไซต์ สิ่งตีพิมพ์ บทความ และแหล่งข้อมูลลายลักษณ์อักษรอื่นๆ มากมายที่สาธารณชนเข้าถึงได้ ณ เดือนกันยายน 2021

ด้วยเหตุนี้ จึงอาจสงสัยว่ารูปแบบที่คล้ายกันนี้ใช้ได้กับ GPT-4 หรือไม่

ในระหว่างการสอบถาม GPT-4 ของเรา ระบบได้รับการยืนยันว่า OpenAI ไม่ได้ใช้คำวิจารณ์ของผู้ใช้ ข้อมูลส่วนตัว หรือความคิดเห็นใดๆ ในบริบทของขั้นตอนการฝึกอบรมของแชทบอท นอกจากนี้ GPT-4 ยังแจ้งให้เราทราบว่าผลลัพธ์ที่ได้มาจากรูปแบบที่พบในชุดข้อมูลที่ได้รับการศึกษา ซึ่งประกอบด้วยงานวรรณกรรม สิ่งพิมพ์ และข้อความออนไลน์เป็นส่วนใหญ่

GPT-4 รับทราบว่าเนื้อหาโซเชียลมีเดียบางส่วนอาจรวมอยู่ในชุดข้อมูลการฝึกอบรม อย่างไรก็ตาม เน้นย้ำว่าบุคคลที่รับผิดชอบในการสร้างเนื้อหาดังกล่าวจะไม่ถูกระบุตัวตน ในเรื่องนี้ GPT-4 ยืนยันอย่างชัดเจนว่าไม่สามารถเข้าถึงความคิดเห็น การส่ง หรือข้อมูลใดๆ ที่อาจนำไปสู่การระบุตัวตนของผู้ใช้รายใดรายหนึ่งได้

อีกแง่มุมที่เกี่ยวข้องของคำตอบของ GPT-4 ก็คือ OpenAI ไม่ได้เปิดเผยแหล่งข้อมูลเฉพาะทั้งหมดที่ใช้ในกระบวนการฝึกอบรม แม้ว่าองค์กรอาจเป็นเรื่องยากที่จะระบุแหล่งที่มาของคำทั้งหมด 300 พันล้านคำ แต่การขาดความโปร่งใสนี้ยังเหลือพื้นที่สำหรับการคาดเดาและความไม่แน่นอนเกี่ยวกับลักษณะและขอบเขตของแหล่งข้อมูลเหล่านี้

ใน บทความ Ars Technica มีการระบุว่า ChatGPT รวบรวม"ข้อมูลส่วนบุคคลที่ได้รับโดยไม่ได้รับความยินยอม"ในบทความเดียวกัน มีการกล่าวถึงความสมบูรณ์ของบริบท ซึ่งเป็นแนวคิดที่หมายถึงการใช้ข้อมูลของใครบางคนในบริบทที่ถูกใช้ในตอนแรกเท่านั้น หาก ChatGPT ละเมิดความสมบูรณ์ของบริบท ข้อมูลของผู้คนก็อาจตกอยู่ในความเสี่ยง

อีกประเด็นที่ต้องให้ความสนใจคือการปฏิบัติตามกฎระเบียบคุ้มครองข้อมูลทั่วไป (GDPR) ของ OpenAI ซึ่งเป็นกรอบการทำงานที่สหภาพยุโรปกำหนดซึ่งมีวัตถุประสงค์เพื่อปกป้องข้อมูลส่วนบุคคลของบุคคล โดยเฉพาะอย่างยิ่ง ทางการอิตาลีและโปแลนด์ได้เริ่มการสอบสวนเกี่ยวกับความสอดคล้องขององค์กรกับมาตรการกำกับดูแลนี้ นอกจากนี้ ในช่วงระยะเวลาสั้นๆ ChatGPT ยังถูกแบนในอิตาลีเนื่องจากความกังวลด้านความเป็นส่วนตัว

มีรายงานว่า OpenAI เคยพิจารณาที่จะถอนตัวออกจากสหภาพยุโรปอันเป็นผลมาจากมาตรการกำกับดูแล AI ที่เสนอ แม้ว่าจุดยืนนี้จะถูกยกเลิกในภายหลังก็ตาม

แม้ว่าปัจจุบัน ChatGPT จะเป็นหนึ่งในแชทบอตที่ขับเคลื่อนด้วย AI ที่ใหญ่ที่สุดที่มีอยู่ แต่สิ่งสำคัญคือต้องตระหนักว่าข้อกังวลเกี่ยวกับความเป็นส่วนตัวของแชทบอตขยายไปไกลกว่าแพลตฟอร์มนี้โดยเฉพาะ ในความเป็นจริง หากบุคคลใช้แชทบอทที่น่าสงสัยและมีนโยบายความเป็นส่วนตัวที่ไม่ชัดเจน มีความเป็นไปได้ที่ชัดเจนที่การสนทนาของพวกเขาอาจถูกนำไปใช้ประโยชน์อย่างไม่เหมาะสม หรือที่น่าตกใจยิ่งกว่านั้นคือข้อมูลที่เป็นความลับอาจถูกรวมไว้ในข้อมูลการฝึกอบรมของแชทบอท

การโจรกรรมข้อมูล

เช่นเดียวกับแหล่งข้อมูลหรือแพลตฟอร์มดิจิทัลอื่น ๆ แชทบอทสามารถเสี่ยงต่อการกระทำผิดที่เกี่ยวข้องกับไซเบอร์ได้ ไม่ว่าแชทบอตจะใช้มาตรการรักษาความปลอดภัยที่แข็งแกร่งเพื่อปกป้องความเป็นส่วนตัวและข้อมูลของผู้ใช้อย่างไร ก็มีความเสี่ยงโดยธรรมชาติที่แฮกเกอร์ที่มีทักษะจะละเมิดการป้องกันระบบ

ในกรณีที่ตัวแทนการสนทนาเก็บรักษาข้อมูลที่ละเอียดอ่อนที่เกี่ยวข้องกับการสมัครสมาชิกแบบพรีเมียมของแต่ละบุคคล เช่น รายละเอียดบัตรเครดิตหรือข้อมูลติดต่อส่วนตัว ก็มีความเสี่ยงที่ข้อมูลเหล่านี้จะถูกโจมตีในกรณีที่การบุกรุกทางไซเบอร์ประสบความสำเร็จ

แท้จริงแล้ว การใช้แชทบอทที่ไม่ได้มาตรฐานซึ่งไม่ได้ติดตั้งมาตรการรักษาความปลอดภัยที่แข็งแกร่งอาจส่งผลให้เกิดการละเมิดโครงสร้างพื้นฐานข้อมูลขององค์กร และอาจเป็นอันตรายต่อบัญชีส่วนบุคคลเนื่องจากไม่มีการแจ้งเตือนการเข้าสู่ระบบหรือโปรโตคอลการตรวจสอบ

การแพร่กระจายของแชทบอท AI โชคไม่ดีที่ดึงดูดความสนใจของอาชญากรไซเบอร์ที่ยึดอุตสาหกรรมเกิดใหม่นี้เป็นโอกาสในการก่อแผนการฉ้อโกง ความแพร่หลายของเว็บไซต์และปลั๊กอิน ChatGPT ปลอมเป็นตัวอย่างที่ชัดเจนของกิจกรรมที่เป็นอันตรายดังกล่าว ซึ่งเริ่มแพร่หลายมากขึ้นนับตั้งแต่เปิดตัวแชทบอตของ OpenAI ในปลายปี 2565 ด้วยเหตุนี้ บุคคลที่ไม่สงสัยจึงตกเป็นเหยื่อของการหลอกลวงเหล่านี้ และทำให้ข้อมูลส่วนบุคคลของพวกเขาเสียหายภายใต้ การเสแสร้งเป็นเท็จในการโต้ตอบกับแชทบอทของแท้และเชื่อถือได้

ในเดือนมีนาคม 2023 All Things N เปิดเผยว่ามีการเผยแพร่ส่วนขยาย ChatGPT Chrome ที่เป็นการฉ้อโกง ซึ่งอ้างว่าเพื่อปรับปรุงการโต้ตอบบน Facebook น่าเสียดายที่ส่วนขยายนี้พบว่าได้รับข้อมูลรับรองการเข้าสู่ระบบอย่างผิดกฎหมายโดยการใช้ประโยชน์จากช่องโหว่ภายในโครงสร้างพื้นฐานด้านความปลอดภัยของแพลตฟอร์ม นอกจากนี้ ยังพบว่าอินสแตนซ์นี้เป็นเพียงหนึ่งในบริการ ChatGPT หลอกลวงอื่นๆ ที่มุ่งเป้าไปที่การหลอกลวงผู้ใช้ที่ไม่สงสัย

การติดเชื้อมัลแวร์

/th/images/system-hacked-graphic.jpg

การใช้แชทบอทที่ไร้ยางอายโดยไม่รู้ตัวอาจส่งผลให้มีลิงก์ไปยังเว็บไซต์ที่ชั่วร้าย แชทบอทอาจล่อลวงคุณด้วยโอกาสในการแจกของรางวัลที่น่าดึงดูดใจ หรือให้เหตุผลสำหรับการอ้างสิทธิ์ผ่านแหล่งข้อมูลดังกล่าว ในกรณีที่ผู้ให้บริการแพลตฟอร์มปกปิดเจตนาแอบแฝง วัตถุประสงค์หลักของพวกเขาอาจเกี่ยวข้องกับการเผยแพร่มัลแวร์และการหลอกลวงโดยใช้ไฮเปอร์ลิงก์ที่เป็นอันตราย

อีกทางหนึ่ง อาชญากรไซเบอร์สามารถใช้ประโยชน์จากช่องโหว่ในบริการแชทบอทที่ถูกกฎหมาย ซึ่งต่อมาพวกเขาใช้เป็นช่องทางในการเผยแพร่ซอฟต์แวร์ที่เป็นอันตราย ในกรณีที่แชทบอทเหล่านี้ได้รับความนิยมอย่างมากในหมู่ผู้ใช้ บุคคลจำนวนมากอาจตกเป็นเหยื่อของมัลแวร์ เป็นที่น่าสังเกตว่า ChatGPT เวอร์ชันปลอมยังปรากฏบน Apple App Store ที่ได้รับการยกย่อง ดังนั้นจึงเน้นย้ำถึงความสำคัญของการใช้ความระมัดระวังเมื่อดาวน์โหลดและใช้งานแอปพลิเคชัน

ขอแนะนำให้ใช้ความระมัดระวังในการโต้ตอบกับแชทบอทโดยส่งลิงก์ใดๆ ที่ให้มาผ่านบริการตรวจสอบลิงก์ที่มีชื่อเสียงก่อนที่จะคลิกลิงก์เหล่านั้น แม้ว่ามาตรการป้องกันไว้ก่อนนี้อาจดูน่าเบื่อ แต่ก็ทำหน้าที่เป็นการป้องกันที่จำเป็นต่อเว็บไซต์ที่อาจเป็นอันตราย

แน่นอนว่าก่อนที่จะติดตั้งปลั๊กอินหรือส่วนขยายแชทบอท จำเป็นต้องตรวจสอบความถูกต้องก่อน การทำวิจัยเกี่ยวกับแอปพลิเคชันเพื่อพิจารณาว่าได้รับคำวิจารณ์เชิงบวกหรือไม่ รวมถึงการค้นหาข้อมูลเกี่ยวกับนักพัฒนา สามารถช่วยระบุธงสีแดงที่อาจเกิดขึ้นได้

Chatbots ไม่สามารถหลีกเลี่ยงปัญหาความเป็นส่วนตัวได้

เช่นเดียวกับแหล่งข้อมูลดิจิทัลร่วมสมัยอื่นๆ แชทบอทมักถูกตรวจสอบอย่างละเอียดเกี่ยวกับช่องโหว่ที่อาจเกิดขึ้นในแง่ของการปกป้องข้อมูลและความเป็นส่วนตัว ซึ่งรวมถึงความกังวลเกี่ยวกับความเป็นไปได้ของข้อบกพร่องในการปกป้องความเป็นอยู่ที่ดีของผู้ใช้ ตลอดจนอันตรายที่แพร่หลายที่เกิดจากภัยคุกคามทางไซเบอร์และกิจกรรมฉ้อโกง ดังนั้นจึงจำเป็นอย่างยิ่งที่ผู้ใช้จะต้องตระหนักถึงข้อมูลที่รวบรวมโดยแพลตฟอร์มแชทบอทที่พวกเขาเลือก และตรวจสอบว่ามีการใช้มาตรการรักษาความปลอดภัยที่เหมาะสมเพื่อลดความเสี่ยงเหล่านี้หรือไม่