Contents

8 vấn đề lớn với ChatGPT của OpenAI

ChatGPT là một chatbot AI mạnh mẽ và nhanh chóng gây ấn tượng, tuy nhiên nhiều người đã chỉ ra rằng nó có một số cạm bẫy nghiêm trọng.

Trước những sự kiện gần đây như vi phạm an ninh và truy cập trái phép vào thông tin nhạy cảm, đã có rất nhiều lo ngại về việc sử dụng trí tuệ nhân tạo trong quá trình phát triển chatbot. Tuy nhiên, bất chấp những hạn chế này, việc tích hợp công nghệ tiên tiến này đã trở nên phổ biến trong nhiều ứng dụng khác nhau, với cơ sở người dùng rộng rãi, từ các học giả hàn lâm đến các chuyên gia doanh nghiệp.

Sự phát triển của trí tuệ nhân tạo tiếp tục không suy giảm, khiến những thách thức liên quan đến ChatGPT càng trở nên cấp bách hơn. Vì ChatGPT đã sẵn sàng định hình quỹ đạo tương lai của chúng ta nên bắt buộc phải hiểu được những thiếu sót đáng kể nhất của nó.

ChatGPT là gì?

ChatGPT là một mô hình ngôn ngữ tiên tiến được phát triển để tạo ra diễn ngôn tự nhiên của con người. Về bản chất, một người có thể tương tác với ChatGPT giống như với người khác, trao đổi đối thoại và nhận phản hồi phù hợp với cuộc trò chuyện cụ thể. Ngoài ra, mô hình này có khả năng nhớ lại các tương tác trước đó đồng thời sửa đổi mọi lỗi hoặc sai lệch có thể phát sinh trong quá trình trao đổi.

/vi/images/chat-gpt-open-ai.jpg

Mô hình này đã được đào tạo bằng cách sử dụng nhiều loại văn bản được tìm thấy trực tuyến, bao gồm nội dung bách khoa toàn thư như Wikipedia, các bài viết cá nhân được gọi là blog, các tác phẩm văn học được phân loại là sách và các tác phẩm học thuật thường được xuất bản trên các tạp chí học thuật. Ngoài việc tương tác với người dùng theo cách giống với giao tiếp của con người, hệ thống này còn có khả năng truy cập thông tin về xã hội đương đại và truy xuất dữ liệu liên quan đến các sự kiện và thời đại trong quá khứ.

Việc điều hướng việc sử dụng ChatGPT đòi hỏi một chút hiểu biết, trong khi ảo tưởng về chức năng liền mạch có thể dễ dàng đánh lừa ngay cả những người dùng khó tính nhất. Tuy nhiên, sau khi được giới thiệu, một số mối quan ngại nghiêm trọng liên quan đến quyền riêng tư, an toàn và những hậu quả sâu rộng của nó đối với các khía cạnh khác nhau của sự tồn tại của con người, bao gồm cả lĩnh vực việc làm và giáo dục, đã được đưa ra ánh sáng.

Các mối đe dọa bảo mật và mối lo ngại về quyền riêng tư

Thật vậy, có một số chủ đề nhất định cần tránh khi trò chuyện với chatbot AI do những rủi ro tiềm ẩn liên quan. Chia sẻ thông tin nhạy cảm như chi tiết tài chính hoặc thông tin bí mật nơi làm việc có thể gây ra hậu quả nghiêm trọng. Điều quan trọng cần lưu ý là các nền tảng như OpenAI lưu trữ lịch sử trò chuyện của người dùng trên máy chủ của họ và thậm chí có thể chọn chia sẻ dữ liệu này với các tổ chức bên thứ ba đã được phê duyệt trước.

Thật vậy, việc duy trì bảo vệ dữ liệu của một người trong giới hạn của OpenAI đã nổi lên như một vấn đề. Cụ thể, trong tháng 3 năm 2023, được cho là đã xảy ra một vi phạm về bảo mật khiến một số người dùng ChatGPT gặp phải các tiêu đề cuộc trò chuyện trong thanh bên không liên quan đến họ. Việc vô tình tiết lộ lịch sử trò chuyện của người dùng thể hiện sự lo ngại đáng kể đối với bất kỳ công ty công nghệ nào, đặc biệt là với số lượng đáng kể các cá nhân sử dụng chatbot được sử dụng rộng rãi này.

Theo báo cáo của Reuters, ChatGPT có 100 triệu hàng tháng người dùng đang hoạt động chỉ trong tháng 1 năm 2023. Trong khi lỗi gây ra vi phạm đã nhanh chóng được vá, Ý đã cấm ChatGPT và yêu cầu công ty này ngừng xử lý dữ liệu của người dùng Ý.

/vi/images/security-lock-privacy-breach.jpg

Do nghi ngờ vi phạm luật bảo vệ dữ liệu của Châu Âu, một nhóm giám sát đã tiến hành điều tra và sau đó kêu gọi OpenAI đáp ứng một số yêu cầu nhất định để khôi phục hoạt động của chatbot.

OpenAI cuối cùng đã giải quyết vấn đề với các cơ quan quản lý bằng cách thực hiện một số thay đổi quan trọng. Để bắt đầu, giới hạn độ tuổi đã được thêm vào, giới hạn việc sử dụng ứng dụng đối với những người 18\+ hoặc 13\+ với sự cho phép của người giám hộ. Nó cũng làm cho Chính sách quyền riêng tư của mình trở nên rõ ràng hơn và cung cấp biểu mẫu opt-out của Google để người dùng loại trừ dữ liệu của họ khỏi quá trình đào tạo của nó hoặc xóa hoàn toàn lịch sử ChatGPT.

Những cải tiến được thực hiện cho đến nay cho thấy sự tiến bộ đáng khen ngợi; tuy nhiên, điều bắt buộc là những lợi ích này phải được phổ biến cho tất cả những cá nhân sử dụng ChatGPT để đạt được kết quả tối ưu.

Có thể thật ngạc nhiên khi một người sẵn sàng tiết lộ thông tin cá nhân, tuy nhiên ngay cả những người thận trọng nhất trong chúng ta cũng có thể dễ bị tiết lộ ngoài ý muốn, chẳng hạn như khi một nhân viên Samsung vô tình tiết lộ dữ liệu bí mật của công ty cho ChatGPT trong một cuộc trò chuyện thông thường.

Lo ngại về các vấn đề về quyền riêng tư và đào tạo ChatGPT

Sau khi ra mắt, các nhà phê bình đã đặt ra nhiều thắc mắc liên quan đến quá trình đào tạo mà OpenAI sử dụng cho ChatGPT được đánh giá cao của họ.

Ngay cả với những thay đổi được cải thiện đối với chính sách quyền riêng tư của OpenAI sau khi vi phạm dữ liệu, điều đó có thể không đủ để đáp ứng Quy định bảo vệ dữ liệu chung (GDPR), luật bảo vệ dữ liệu áp dụng ở Châu Âu. Theo báo cáo của TechCrunch:

Tình trạng cơ sở pháp lý được sử dụng để xử lý thông tin nhận dạng cá nhân của các cá nhân Ý trước khi đưa thông tin đó vào mô hình GPT, liên quan đến việc trích xuất dữ liệu đó từ các nguồn trực tuyến, vẫn chưa chắc chắn. Hơn nữa, vẫn tồn tại sự mơ hồ về việc liệu bất kỳ dữ liệu nào được sử dụng trong các giai đoạn đào tạo mô hình trước đó có thể bị xóa theo yêu cầu hiện tại của những người muốn xóa thông tin cá nhân của họ hay không.

Trong quá trình đào tạo ChatGPT ban đầu của OpenAI, có thể thông tin cá nhân đã được thu thập. Mặc dù các quy định ở Hoa Kỳ có thể không rõ ràng, nhưng luật bảo vệ dữ liệu ở Châu Âu áp dụng cho cả việc tiết lộ dữ liệu cá nhân ở chế độ công khai và riêng tư, từ đó mang lại các biện pháp bảo vệ tốt hơn cho quyền riêng tư của cá nhân.

Việc sử dụng tác phẩm nghệ thuật trong tập dữ liệu đào tạo của ChatGPT đã vấp phải sự chỉ trích từ những người sáng tạo khẳng định rằng họ không cấp phép cho tác phẩm của mình được sử dụng làm cơ sở cho việc phát triển mô hình AI. Đồng thời, Getty Images đã thực hiện hành động pháp lý chống lại Stability.AI do các cáo buộc liên quan đến việc sử dụng trái phép nội dung hình ảnh có bản quyền cho mục đích đào tạo hệ thống trí tuệ nhân tạo.

Sự mờ ám xung quanh việc tiết lộ tập dữ liệu đào tạo của OpenAI cản trở sự hiểu biết của chúng tôi về việc liệu việc sử dụng nó có tuân thủ các giao thức pháp lý hay không. Những vấn đề phức tạp liên quan đến phương pháp đào tạo cho ChatGPT vẫn chưa rõ ràng, bao gồm dữ liệu cụ thể được sử dụng, nguồn gốc của nó và mô tả toàn diện về cấu trúc kiến ​​trúc của hệ thống.

ChatGPT tạo ra câu trả lời sai

/vi/images/wrong-math-answer.jpg

ChatGPT thể hiện sự thiếu thành thạo về các khái niệm toán học cơ bản và không thể cung cấp câu trả lời thỏa đáng cho các truy vấn logic thô sơ. Hơn nữa, chương trình này còn nổi tiếng là bảo vệ thông tin sai lệch mặc dù có rất nhiều bằng chứng ngược lại. Thật không may, nhiều cá nhân đã trực tiếp gặp phải những thiếu sót như vậy trên các nền tảng truyền thông xã hội khác nhau.

OpenAI biết về hạn chế này và viết rằng: “ChatGPT đôi khi viết những câu trả lời nghe có vẻ hợp lý nhưng không chính xác hoặc vô nghĩa”. “Ảo giác” về sự thật và hư cấu này, như người ta đã nhắc đến, đặc biệt nguy hiểm đối với những thứ như tư vấn y tế hoặc hiểu đúng sự thật về các sự kiện lịch sử quan trọng.

Ban đầu, ChatGPT không sử dụng Internet để nhận phản hồi, khác với các trợ lý AI khác như Siri hay Alexa mà người ta có thể quen thuộc. Thay vì truy cập các nguồn thông tin bên ngoài, ChatGPT đã tạo ra các câu trả lời bằng cách xây dựng chúng từng từ một, sử dụng lý luận xác suất để xác định mã thông báo hợp lý nhất để làm theo dựa trên dữ liệu đào tạo của nó. Do đó, ChatGPT đạt được phản hồi thông qua quá trình suy đoán có hiểu biết, điều này phần nào giải thích khả năng cung cấp các câu trả lời có vẻ hợp lệ nhưng lại sai lầm.

Vào tháng 3 năm 2023, phiên bản beta của ChatGPT, một hệ thống trí tuệ nhân tạo do OpenAI phát triển, đã được kết nối với Internet cho mục đích thử nghiệm. Tuy nhiên, do lo ngại về khả năng hiển thị một số loại nội dung nhất định nên sau đó nó đã bị ngắt kết nối. Mặc dù OpenAI không cung cấp thông tin chi tiết cụ thể nhưng họ thừa nhận rằng tính năng duyệt của ChatGPT đôi khi có thể hiển thị tài liệu theo cách không mong muốn.

Việc triển khai chức năng “Tìm kiếm bằng Bing” dựa trên công nghệ Bing-AI của Microsoft, công nghệ này đã bộc lộ những hạn chế trong việc trả lời chính xác các truy vấn. Trong trường hợp hệ thống không thể cung cấp phản hồi thỏa đáng, chẳng hạn như khi được yêu cầu cung cấp mô tả về một hình ảnh cụ thể được mô tả trong một URL nhất định, AI sẽ thận trọng hơn khi thừa nhận sự bất lực của mình thay vì đưa ra một thông tin không liên quan hoặc gây hiểu nhầm. lời giải thích, như đã thấy trong trường hợp này, trong đó công cụ tìm kiếm Bing cung cấp thông tin chi tiết về một con vẹt đuôi dài màu đỏ và vàng, trong khi hình ảnh thực tế hiển thị một cá thể đang ngồi.

/vi/images/bing-ai-hallucinates-image-description.jpg

Trong đánh giá toàn diện của chúng tôi về ChatGPT so với Microsoft Bing AI và Google Bard, chúng tôi đã phát hiện ra một loạt ảo tưởng thú vị làm nổi bật thêm những hạn chế của các mô hình ngôn ngữ này khi cung cấp thông tin thực tế chính xác. Sự dễ dàng mà người dùng có thể dựa vào ChatGPT để truy xuất dữ liệu nhanh chóng đã được chứng minh là chưa đủ vì hệ thống này liên tục không cung cấp được kết quả đáng tin cậy. Trong một số trường hợp, việc ghép nối ChatGPT với một công cụ tìm kiếm không chính xác như Bing sẽ làm trầm trọng thêm vấn đề này, dẫn đến kết quả không nhất quán.

ChatGPT đã đưa sự thiên vị vào hệ thống của nó

ChatGPT đã được giáo dục dựa trên các tác phẩm viết trên toàn cầu của nhân loại, cả lịch sử và đương đại. Đáng tiếc, điều này hàm ý rằng những thành kiến ​​tương tự có thể quan sát được trong xã hội cũng có thể biểu hiện trong hệ thống.

ChatGPT đã chứng tỏ xu hướng tạo ra các phản hồi thể hiện sự thiên vị đối với các nhóm nhân khẩu học nhất định, bao gồm giới tính, chủng tộc và dân tộc thiểu số, một vấn đề mà công ty rất quan tâm. Tổ chức đang tích cực làm việc để giải quyết vấn đề này bằng cách thực hiện các biện pháp nhằm giảm thiểu những sự cố như vậy nhằm thúc đẩy tính toàn diện và công bằng.

Một quan điểm khả thi để giải quyết vấn đề này liên quan đến việc quy nó vào bản chất của thông tin hiện có, buộc xã hội phải chịu trách nhiệm về những định kiến ​​cố hữu hiện diện trong lĩnh vực kỹ thuật số và hơn thế nữa. Tuy nhiên, phần lỗi tương ứng cũng phải được chia cho OpenAI, vì nhóm điều tra viên và kỹ sư của họ chịu trách nhiệm chọn tập dữ liệu được sử dụng để tinh chỉnh các khả năng của ChatGPT.

Thật vậy, OpenAI nhận ra mối lo ngại này và đã chỉ ra rằng họ đang tích cực nỗ lực giảm thiểu hành vi sai lệch thông qua cơ chế phản hồi của người dùng và khuyến khích đưa tin về các kết quả đầu ra của ChatGPT được coi là phản cảm, không phù hợp hoặc sai về mặt thực tế.

Có thể lập luận rằng việc phổ biến ChatGPT tới đại chúng trước khi giải quyết những tác động nguy hiểm của nó là thiếu thận trọng, do nó có khả năng gây thương tích cho các cá nhân. Tuy nhiên, có lẽ sự cạnh tranh gay gắt giữa các công ty công nghệ để giành lấy danh hiệu sản xuất hệ thống AI tối cao đã thúc đẩy OpenAI bỏ qua sự thận trọng trong việc theo đuổi tính ưu việt.

Ngược lại, một chatbot AI khác có tên Sparrow, thuộc sở hữu của Alphabet Inc., công ty mẹ của Google, đã được ra mắt vào tháng 9. Tuy nhiên, việc phát hành nó đã được cố tình che giấu do những lo ngại về an toàn chính đáng. Đồng thời, Facebook cũng tiết lộ một mô hình ngôn ngữ AI có tên Galactica, được thiết kế để tạo điều kiện thuận lợi cho việc điều tra học thuật. Đáng tiếc, sáng kiến ​​này đã vấp phải phản ứng dữ dội từ nhiều phía khi người dùng tố cáo nó tạo ra những phát hiện sai lệch và thiên vị liên quan đến nghiên cứu khoa học.

ChatGPT có thể đảm nhận công việc của con người

/vi/images/litlte-girl-holding-hands-with-robot.jpg

Mặc dù ý nghĩa của việc triển khai nhanh chóng ChatGPT vẫn đang được bộc lộ nhưng việc tích hợp nó vào các ứng dụng thương mại khác nhau đã bắt đầu. Đáng chú ý trong số này là Duolingo và Khan Academy, đã kết hợp liền mạch GPT-4 như một thành phần nền tảng trong nền tảng tương ứng của họ.

Cái trước là một ứng dụng về trình độ ngôn ngữ, trong khi cái sau bao gồm một loạt các tài nguyên giáo dục. Cả hai đều cung cấp một người hướng dẫn trí tuệ nhân tạo, cho dù được thể hiện bằng một hình đại diện thông minh mà người ta có thể trò chuyện bằng ngôn ngữ mục tiêu hay bởi một người cố vấn thích ứng có khả năng cung cấp hướng dẫn cá nhân hóa dựa trên tiến bộ của từng cá nhân.

Sự xuất hiện của Trí tuệ nhân tạo (AI) đã làm dấy lên mối lo ngại về tác động tiềm tàng của nó đối với thị trường việc làm, đặc biệt đối với một số ngành nghề như thiết kế đồ họa, viết lách và kế toán. Gần đây, đã có những tiến bộ đáng kể trong công nghệ AI, bao gồm cả việc phát triển các mô hình ngôn ngữ tiên tiến như GPT-4, có khả năng vượt qua các kỳ thi chuyên nghiệp trước đây được cho là dành riêng cho con người. Ví dụ: khi có thông tin cho rằng một mô hình AI đã hoàn thành xuất sắc kỳ thi luật sư, điều kiện tiên quyết để trở thành luật sư được cấp phép, nó đã làm dấy lên các cuộc thảo luận xung quanh khả năng AI sắp thay thế nhân công của con người trong nhiều ngành khác nhau.

Theo báo cáo của The Guardian Các công ty giáo dục đã báo lỗ lớn trên các sàn giao dịch chứng khoán London và New York, nêu bật sự gián đoạn mà AI đang gây ra cho một số thị trường chỉ sáu tháng sau khi ChatGPT ra mắt.

Sự ra đời của công nghệ trong lịch sử luôn đi kèm với tình trạng dịch chuyển việc làm, tuy nhiên tốc độ phát triển nhanh chóng của trí tuệ nhân tạo đang dẫn đến những thay đổi rộng rãi trên nhiều ngành công nghiệp. Một loạt các ngành nghề đang chứng kiến ​​​​sự tích hợp của AI vào hoạt động của họ, khi máy móc đảm nhận trách nhiệm về một loạt công việc ngày càng tăng trước đây do con người thực hiện. Trong khi một số vai trò có thể được tự động hóa các nhiệm vụ trần tục, những vai trò khác có thể trở nên lỗi thời hoàn toàn trong một tương lai không xa.

ChatGPT đang thách thức giáo dục

ChatGPT cung cấp một số tùy chọn để tinh chỉnh nội dung bằng văn bản, bao gồm dịch vụ hiệu đính để xác định lỗi và đề xuất cải tiến nhằm nâng cao tính rõ ràng và mạch lạc. Ngoài ra, khách hàng có thể chọn yêu cầu ChatGPT soạn toàn bộ phần từ đầu đến cuối mà không cần nhiều thông tin đầu vào của con người.

ChatGPT đã chứng tỏ sự thành thạo của mình trong việc tạo ra câu trả lời cho các bài tập tiếng Anh khác nhau, vượt qua chất lượng đầu ra của một số nhà văn sinh viên. Khả năng của nó vượt ra ngoài mô tả đơn thuần, bao gồm các nhiệm vụ như tạo thư xin việc hấp dẫn và làm sáng tỏ các chủ đề văn học phức tạp một cách dễ dàng và tự tin.

/vi/images/open-ai-chat-gpt-books-themes.jpg

xét rằng ChatGPT sở hữu khả năng tạo nội dung bằng văn bản, liệu điều này có làm cho trình độ sáng tác trở nên lỗi thời đối với những sinh viên sắp tới không? Câu hỏi này có vẻ như đã tồn tại, nhưng khi học sinh ngày càng sử dụng ChatGPT để soạn bài luận học thuật của mình, giáo viên phải đối mặt với những tác động và điều chỉnh cho phù hợp.

Không có gì đáng ngạc nhiên khi sinh viên đã thử nghiệm AI. Nhật báo Stanford báo cáo rằng các cuộc khảo sát ban đầu cho thấy tác động đáng kể số lượng sinh viên đã sử dụng AI để hỗ trợ làm bài tập và bài kiểm tra.

Trước mắt, các cơ sở giáo dục đang thực hiện các bước sửa đổi các hướng dẫn của họ về việc sử dụng trí tuệ nhân tạo trong việc hoàn thành các nhiệm vụ học tập. Điều này không chỉ liên quan đến các chủ đề bắt nguồn từ tiếng Anh mà còn mở rộng sang nhiều lĩnh vực khác nhau trong đó ChatGPT có thể hỗ trợ việc động não, cô đọng hoặc hình thành các phán đoán suy luận.

ChatGPT có thể gây hại cho thế giới thực

Không mất nhiều thời gian để một người cố gắng giải phóng ChatGPT, điều này dẫn đến việc tạo ra một mô hình trí tuệ nhân tạo có khả năng phá vỡ các biện pháp bảo vệ do OpenAI thiết lập để ngăn chặn việc tạo ra nội dung có hại và không phù hợp.

Một nhóm người dùng trên nhóm ChatGPT Reddit đã đặt tên cho mô hình AI không hạn chế của họ là Dan, viết tắt của “Do Anything Now”. Đáng buồn thay, làm bất cứ điều gì bạn thích đã dẫn đến việc tin tặc gia tăng các hoạt động lừa đảo trực tuyến. Người ta cũng thấy tin tặc bán các dịch vụ ChatGPT không có quy tắc để tạo phần mềm độc hại và tạo email lừa đảo, với nhiều kết quả khác nhau về phần mềm độc hại do AI tạo ra.

Việc xác định các email lừa đảo nhằm lấy thông tin bí mật ngày càng trở nên khó khăn hơn do những tiến bộ của trí tuệ nhân tạo. Trước đây, lỗi ngữ pháp được coi là một dấu hiệu cảnh báo rõ ràng; tuy nhiên, với sự ra đời của ChatGPT, những khuyết điểm đó đã giảm đi đáng kể. Mô hình ngôn ngữ tiên tiến này có khả năng tạo ra nhiều loại nội dung văn bản, bao gồm cả những thông điệp lừa đảo một cách thuyết phục, bên cạnh những bài tiểu luận mạch lạc và những câu thơ đầy chất thơ.

/vi/images/chat-gpt-scammers-malware.jpg

Việc ra mắt ChatGPT đã dẫn đến một loạt phản hồi trên Stack Exchange, một nền tảng cố gắng cung cấp câu trả lời chính xác và đáng tin cậy cho các câu hỏi phổ biến. Do đó, trang web đã gặp phải những thách thức do lượng nội dung khổng lồ do ChatGPT tạo ra, khi người dùng bắt đầu gửi câu trả lời thu được từ hệ thống AI.

Việc không có đủ số lượng tình nguyện viên để xử lý khối lượng công việc tích lũy đòi hỏi phải duy trì một tiêu chuẩn phản hồi đáng khen ngợi. Hơn nữa, một số câu trả lời được cung cấp được cho là không chính xác. Để ngăn chặn những hậu quả bất lợi cho trang web, lệnh cấm đã được áp dụng đối với bất kỳ và tất cả các phản hồi được tạo ra bằng ChatGPT.

Việc phổ biến thông tin sai lệch cũng gây ra một mối đe dọa đáng kể. Khả năng ChatGPT tạo ra số lượng lớn văn bản và khả năng hiển thị nội dung lừa đảo một cách thuyết phục chỉ làm tăng thêm sự không chắc chắn xung quanh tất cả tài liệu trực tuyến. Sự kết hợp mạnh mẽ này càng làm trầm trọng thêm những mối nguy hiểm liên quan đến công nghệ deepfake.

OpenAI nắm giữ mọi quyền lực

Gánh nặng của quyền lực to lớn gắn bó chặt chẽ với OpenAI, vì họ là một trong những thực thể tiên phong biến đổi đáng kể bối cảnh toàn cầu thông qua các mô hình AI có tính sáng tạo như Dall-E 2, GPT-3 và GPT-4.

Là một thực thể độc lập, OpenAI có quyền tự chủ trong việc lựa chọn dữ liệu được sử dụng để đào tạo ChatGPT và xác định tốc độ giới thiệu các tiến bộ. Mặc dù các cảnh báo thận trọng từ các chuyên gia về những rủi ro tiềm ẩn liên quan đến trí tuệ nhân tạo đã được đưa ra nhưng không có dấu hiệu nào cho thấy OpenAI sẽ giảm tốc độ phát triển của nó.

Ngược lại, sự phổ biến của ChatGPT đã gây ra sự cạnh tranh gay gắt giữa các công ty công nghệ lớn đang cố gắng giới thiệu cải tiến AI mang tính đột phá tiếp theo; bao gồm Bing AI của Microsoft và Bard của Google. Do lo ngại rằng tiến bộ nhanh chóng có thể gây ra những sai sót nghiêm trọng về an ninh, một lá thư được soạn bởi những người tiên phong về công nghệ toàn cầu đã kêu gọi trì hoãn sự tiến bộ.

/vi/images/open-ai-chat-gpt-open-source.jpg

Do OpenAI nhấn mạnh vào tính an toàn, phải thừa nhận rằng vẫn còn nhiều điều mơ hồ liên quan đến các cơ chế phức tạp làm nền tảng cho các mô hình AI này. Tuy nhiên, niềm tin của chúng tôi vào cam kết của OpenAI trong việc quản lý việc phát triển và ứng dụng ChatGPT một cách có đạo đức là rất kiên quyết.

Bất kể lập trường của ai đó về cách tiếp cận của họ, cần phải thừa nhận rằng OpenAI hoạt động như một thực thể do tư nhân nắm giữ, thúc đẩy sự phát triển của ChatGPT phù hợp với các mục tiêu cá nhân và nguyên tắc đạo đức của nó.

Giải quyết các vấn đề lớn nhất của AI

ChatGPT đưa ra một loạt các triển vọng đầy hứa hẹn khơi dậy sự nhiệt tình, tuy nhiên nó cũng kéo theo những thách thức ghê gớm đòi hỏi phải xem xét cẩn thận.

OpenAI đã thừa nhận rằng ChatGPT có khả năng tạo ra các phản hồi có thể gây bất lợi và sai lệch, với mục đích giảm bớt vấn đề này thông qua việc thu hút ý kiến ​​đóng góp của người dùng. Tuy nhiên, khả năng vượt trội của mô hình trong việc tạo ra nội dung thuyết phục, mặc dù dựa trên thông tin không chính xác, vẫn tiềm ẩn nguy cơ đáng kể bị các cá nhân ác tâm lợi dụng.

Tính nhạy cảm của nền tảng OpenAI đối với các hành vi vi phạm quyền riêng tư và bảo mật đã được chứng minh qua các sự cố trước đây, gây ra rủi ro tiềm ẩn đối với thông tin nhạy cảm của người dùng. Hơn nữa, có thông tin cho rằng các cá nhân đã giả mạo ChatGPT bằng cách bẻ khóa, sử dụng phiên bản sửa đổi cho các mục đích bất chính như tạo phần mềm độc hại có hại và các âm mưu lừa đảo trên quy mô rộng.

Thật vậy, những lo ngại ngày càng tăng xung quanh vấn đề an ninh việc làm và khả năng gián đoạn giáo dục càng làm phức tạp thêm một danh sách các vấn đề vốn đã ngày càng gia tăng bắt nguồn từ những tiến bộ trong công nghệ. Trong khi tương lai hứa hẹn những khó khăn không lường trước được thì thực tế hiện tại của chúng ta lại đầy rẫy những trở ngại, được minh chứng bằng những thách thức do ChatGPT đặt ra.