3 rủi ro và mối quan tâm về quyền riêng tư của Chatbot bạn nên biết
Chatbot đã xuất hiện được nhiều năm, nhưng sự nổi lên của các mô hình ngôn ngữ lớn, chẳng hạn như ChatGPT và Google Bard, đã mang lại cho ngành công nghiệp chatbot một luồng sinh khí mới.
Hàng triệu cá nhân trên toàn cầu sử dụng chatbot dựa trên trí tuệ nhân tạo; tuy nhiên, điều quan trọng là phải xem xét các mối nguy tiềm ẩn về quyền riêng tư khi khám phá những công nghệ như vậy.
Thu thập dữ liệu
Chatbots đã phát triển đáng kể so với phiên bản đầu tiên của chúng với tư cách là trợ lý ảo cơ bản có thể chào đón người dùng một cách đơn giản. Các chatbot hiện đại có khả năng xử lý các truy vấn phức tạp và đáp ứng nhiều nhu cầu, thường đòi hỏi nhiều ý kiến đóng góp từ người dùng. Mặc dù truy vấn rất đơn giản nhưng các cá nhân thường thích nó nằm trong giới hạn tương tác của họ.
Theo phần hỗ trợ của OpenAI, bạn có thể xóa nhật ký trò chuyện ChatGPT bất cứ khi nào bạn muốn và sau đó những nhật ký đó sẽ sẽ bị xóa vĩnh viễn khỏi hệ thống của OpenAI sau 30 ngày. Tuy nhiên, công ty sẽ giữ lại và xem xét một số nhật ký trò chuyện nhất định nếu chúng bị gắn cờ vì nội dung có hại hoặc không phù hợp.
Một chatbot AI phổ biến khác, Claude, cũng theo dõi các cuộc trò chuyện trước đó của bạn. Trung tâm hỗ trợ của Anthropic tuyên bố rằng Claude theo dõi “lời nhắc và kết quả đầu ra của bạn trong sản phẩm để cung cấp bạn có trải nghiệm sản phẩm nhất quán theo thời gian theo sự kiểm soát của bạn.” Bạn có thể xóa các cuộc trò chuyện của mình với Claude để nó quên những gì bạn đang nói, nhưng điều này không có nghĩa là Anthropic sẽ xóa ngay nhật ký của bạn khỏi hệ thống của nó.
Người ta có thể truy vấn liệu thông tin cá nhân có được giữ lại hay không. Hơn nữa, nó đặt ra câu hỏi liên quan đến việc sử dụng dữ liệu đó của các thực thể như ChatGPT và các hệ thống AI đàm thoại khác.
Nhưng mối lo ngại không dừng lại ở đây.
ChatGPT học như thế nào?
Để cung cấp thông tin, các mô hình ngôn ngữ lớn được đào tạo với lượng dữ liệu khổng lồ. Theo Science Focus, riêng ChatGPT-4 đã được cung cấp 300 tỷ từ thông tin trong thời gian đào tạo. Điều này không được lấy trực tiếp từ một số bộ bách khoa toàn thư. Thay vào đó, các nhà phát triển chatbot sử dụng lượng lớn thông tin từ internet để đào tạo mô hình của họ. Điều này có thể bao gồm dữ liệu từ sách, phim, bài viết, mục Wikipedia, bài đăng trên blog, nhận xét và thậm chí cả các trang web đánh giá.
Hãy nhớ rằng một số nhà phát triển chatbot nhất định có thể có các chính sách bảo mật khác nhau, có thể một số nguồn dữ liệu được đề cập trước đó có thể không được sử dụng trong quá trình đào tạo.
ChatGPT đã phải hứng chịu sự chỉ trích rộng rãi vì nhận thấy thiếu các biện pháp thích hợp để bảo vệ quyền riêng tư của người dùng. Ý kiến này cho thấy người dùng lo ngại về việc ChatGPT có thể lạm dụng hoặc tiết lộ thông tin cá nhân của họ. Do đó, nhiều cá nhân xem ChatGPT là một thực thể không đáng tin cậy trong việc bảo vệ dữ liệu nhạy cảm. Lý do đằng sau những lo ngại này có thể xuất phát từ nhiều yếu tố khác nhau như giao thức mã hóa không đầy đủ, phương pháp xử lý dữ liệu lỏng lẻo và tính minh bạch không đầy đủ về chính sách thu thập và sử dụng dữ liệu.
Tuyên bố do ChatGPT-3.5 đưa ra về việc không tiếp xúc trực tiếp với nhận xét bài viết của người dùng và đánh giá sản phẩm trong quá trình đào tạo của nó dường như là rõ ràng. Tuy nhiên, khi xem xét kỹ hơn, dường như có một số mơ hồ về mức độ của khẳng định này. Khi được truy vấn cụ thể về các nguồn dữ liệu đó, ChatGPT-3.5 kiên quyết từ chối; tuy nhiên, những ám chỉ gián tiếp trong câu trả lời của mô hình có thể gợi ý điều ngược lại.
Thay vào đó, nó được đào tạo bằng cách sử dụng nhiều loại văn bản được chọn lọc từ Internet, bao gồm các trang web, ấn phẩm, bài tiểu luận và nhiều nguồn văn bản khác mà công chúng có thể truy cập kể từ tháng 9 năm 2021.
Do đó, người ta có thể tự hỏi liệu mô hình tương tự có đúng với GPT-4 hay không.
Trong quá trình tìm hiểu GPT-4 của chúng tôi, hệ thống đã xác nhận rằng OpenAI không sử dụng các lời phê bình, thông tin cá nhân hoặc bình luận cụ thể của người dùng trong bối cảnh giai đoạn đào tạo của chatbot. Hơn nữa, GPT-4 đã thông báo cho chúng tôi rằng đầu ra của nó bắt nguồn từ các mẫu được tìm thấy trong tập dữ liệu mà nó được đào tạo, chủ yếu bao gồm các tác phẩm văn học, ấn phẩm và văn bản trực tuyến.
GPT-4 đã thừa nhận rằng một số nội dung truyền thông xã hội có thể được đưa vào tập dữ liệu đào tạo của nó; tuy nhiên, nó nhấn mạnh rằng các cá nhân chịu trách nhiệm tạo ra nội dung đó sẽ không được xác định danh tính. Về vấn đề này, GPT-4 khẳng định rõ ràng rằng họ không thể truy cập các nhận xét, nội dung gửi cụ thể hoặc bất kỳ thông tin nào có khả năng dẫn đến việc nhận dạng một người dùng cụ thể.
Một khía cạnh liên quan khác trong câu trả lời của GPT-4 là OpenAI chưa tiết lộ tất cả các nguồn dữ liệu cụ thể được sử dụng trong quá trình đào tạo của mình. Mặc dù tổ chức có thể gặp khó khăn khi liệt kê tất cả các nguồn có giá trị 300 tỷ từ, tuy nhiên, sự thiếu minh bạch này vẫn tạo cơ hội cho sự phỏng đoán và sự không chắc chắn về bản chất và phạm vi của các nguồn này.
Trong một bài viết của Ars Technica, người ta tuyên bố rằng ChatGPT thu thập “thông tin cá nhân có được mà không có sự đồng ý”. Trong cùng một bài viết, tính toàn vẹn theo ngữ cảnh đã được đề cập, một khái niệm đề cập đến việc chỉ sử dụng thông tin của ai đó trong bối cảnh thông tin đó được sử dụng ban đầu. Nếu ChatGPT vi phạm tính toàn vẹn theo ngữ cảnh này, dữ liệu của mọi người có thể gặp rủi ro.
Một vấn đề khác cần chú ý liên quan đến việc OpenAI tuân thủ Quy định bảo vệ dữ liệu chung (GDPR), đây là khuôn khổ do EU áp đặt nhằm bảo vệ thông tin cá nhân của cá nhân. Đáng chú ý, chính quyền Ý và Ba Lan đã khởi xướng các cuộc điều tra liên quan đến sự liên kết của tổ chức này với biện pháp quản lý này. Ngoài ra, trong một thời gian ngắn, ChatGPT phải đối mặt với lệnh cấm ở Ý do lo ngại về quyền riêng tư.
Có thông tin cho rằng OpenAI trước đây đã dự tính rút khỏi Liên minh châu Âu do các biện pháp quản lý AI được đề xuất, mặc dù lập trường này sau đó đã bị hủy bỏ.
Mặc dù ChatGPT hiện là một trong những chatbot hỗ trợ AI lớn nhất hiện có, nhưng điều quan trọng là phải nhận ra rằng những lo ngại về quyền riêng tư của chatbot không chỉ dừng lại ở nền tảng cụ thể này. Trên thực tế, nếu một cá nhân sử dụng một chatbot có vấn đề với chính sách quyền riêng tư không rõ ràng, thì có khả năng rõ ràng là các cuộc trò chuyện của họ có thể bị khai thác không đúng cách hoặc thậm chí đáng báo động hơn là thông tin bí mật có thể được đưa vào dữ liệu đào tạo của chatbot.
Trộm cắp dữ liệu
Tương tự như các tài nguyên hoặc nền tảng kỹ thuật số khác, chatbot có thể dễ bị tấn công liên quan đến mạng. Bất kể các biện pháp bảo mật mạnh mẽ được chatbot triển khai để bảo vệ quyền riêng tư và thông tin của người dùng, vẫn có nguy cơ cố hữu là các tin tặc lành nghề sẽ vi phạm hệ thống phòng thủ của nó.
Trong trường hợp tác nhân đàm thoại duy trì thông tin nhạy cảm liên quan đến đăng ký trả phí của một cá nhân, chẳng hạn như chi tiết thẻ tín dụng hoặc liên hệ cá nhân, thì có nguy cơ tiềm ẩn những thông tin này bị xâm phạm trong trường hợp xâm nhập mạng thành công.
Thật vậy, việc sử dụng một chatbot không đạt tiêu chuẩn và không được trang bị các biện pháp bảo mật mạnh mẽ có thể dẫn đến việc vi phạm cơ sở hạ tầng thông tin của tổ chức và có khả năng gây nguy hiểm cho tài khoản cá nhân của một người do không có thông báo đăng nhập hoặc giao thức xác minh.
Thật không may, sự phổ biến của các chatbot AI đã thu hút sự chú ý của tội phạm mạng, những kẻ đã lợi dụng ngành công nghiệp mới nổi này như một cơ hội để thực hiện các âm mưu lừa đảo. Sự phổ biến của các trang web và plugin ChatGPT giả mạo là một ví dụ đáng chú ý về hoạt động độc hại như vậy. Hoạt động này đặc biệt lan tràn kể từ khi phát hành chatbot của OpenAI vào cuối năm 2022. Kết quả là, những cá nhân không nghi ngờ đã trở thành nạn nhân của những trò lừa đảo này, xâm phạm thông tin cá nhân của họ theo giả vờ tương tác với một chatbot chính hãng và đáng tin cậy.
Vào tháng 3 năm 2023, All Things N tiết lộ rằng có một tiện ích mở rộng ChatGPT Chrome lừa đảo đang được lưu hành nhằm mục đích nâng cao khả năng tương tác trên Facebook. Thật không may, tiện ích mở rộng cụ thể này đã bị phát hiện lấy thông tin đăng nhập bất hợp pháp bằng cách lợi dụng lỗ hổng trong cơ sở hạ tầng bảo mật của nền tảng. Hơn nữa, người ta đã phát hiện ra rằng trường hợp này chỉ đại diện cho một trong số nhiều dịch vụ ChatGPT lừa đảo khác nhằm mục đích lừa đảo những người dùng không nghi ngờ.
Nhiễm phần mềm độc hại
Việc vô tình sử dụng một chatbot vô đạo đức có thể dẫn đến việc cung cấp các liên kết đến các trang web bất chính. Chatbot có thể lôi kéo bạn với triển vọng về một món quà hấp dẫn hoặc đưa ra lời biện minh cho tuyên bố của mình thông qua các nguồn đó. Trong trường hợp người điều hành nền tảng che giấu những động cơ thầm kín, mục tiêu chính của họ có thể liên quan đến việc phát tán phần mềm độc hại và lừa đảo bằng các siêu liên kết có hại.
Ngoài ra, tội phạm mạng có thể khai thác các lỗ hổng trong các dịch vụ chatbot hợp pháp, sau đó chúng sử dụng làm đường dẫn để phân phối phần mềm độc hại. Trong những trường hợp mà các chatbot này có mức độ phổ biến đáng kể đối với người dùng, một số lượng lớn cá nhân có thể trở thành nạn nhân của phần mềm độc hại. Điều đáng chú ý là các phiên bản ChatGPT giả mạo cũng đã xuất hiện trên Apple App Store quý giá, do đó nhấn mạnh tầm quan trọng của việc thận trọng khi tải xuống và sử dụng ứng dụng.
Bạn nên thận trọng khi tương tác với chatbot bằng cách trước tiên chuyển bất kỳ liên kết nào được cung cấp thông qua dịch vụ kiểm tra liên kết có uy tín trước khi nhấp vào chúng. Mặc dù biện pháp phòng ngừa này có vẻ tẻ nhạt nhưng nó đóng vai trò như một biện pháp bảo vệ thiết yếu chống lại các trang web bất chính tiềm ẩn.
Thật vậy, trước khi cài đặt bất kỳ plugin hoặc tiện ích mở rộng chatbot nào, điều cần thiết là phải xác minh tính xác thực của nó. Tiến hành một số nghiên cứu về ứng dụng để xác định xem ứng dụng có nhận được đánh giá tích cực hay không, cũng như tìm kiếm thông tin về nhà phát triển, có thể giúp xác định các dấu hiệu nguy hiểm tiềm ẩn.
Chatbot không tránh khỏi các vấn đề về quyền riêng tư
Thật vậy, cũng như nhiều tài nguyên kỹ thuật số hiện đại, chatbot thường phải chịu sự giám sát chặt chẽ về các lỗ hổng tiềm ẩn về bảo vệ dữ liệu và quyền riêng tư. Điều này bao gồm những lo ngại về khả năng xảy ra những thiếu sót trong việc bảo vệ sức khỏe của người dùng cũng như các mối nguy hiểm phổ biến do các mối đe dọa mạng và hoạt động lừa đảo gây ra. Do đó, điều cần thiết là người dùng phải biết thông tin đang được thu thập bởi nền tảng chatbot đã chọn của họ và xác minh xem các biện pháp bảo mật thích hợp đã được triển khai để giảm thiểu những rủi ro này hay chưa.