Quy định AI là gì? Ai nên quản lý AI?
Bài học chính
Trước những phát triển liên tục về các lỗ hổng an ninh mạng và những lo ngại về quyền riêng tư, trí tuệ nhân tạo bắt buộc phải chịu sự giám sát nghiêm ngặt hơn.
Để quản lý hiệu quả trí tuệ nhân tạo, điều quan trọng là nhiều bên liên quan bao gồm chính phủ, công ty công nghệ và cá nhân phải chịu trách nhiệm. Tuy nhiên, có những hạn chế cố hữu liên quan đến từng phương pháp tiếp cận này cần phải được xem xét.
Quy định về AI là một nỗ lực hợp tác có sự tham gia của nhiều bên liên quan khác nhau, bao gồm các cơ quan truyền thông, tổ chức phi lợi nhuận, hiệp hội ngành công nghệ, tổ chức học thuật và cơ quan thực thi pháp luật. Các thực thể này đóng vai trò quan trọng trong việc đảm bảo sự phát triển và triển khai có trách nhiệm các công nghệ trí tuệ nhân tạo, đồng thời giải quyết các mối lo ngại tiềm ẩn về đạo đức và pháp lý.
Mặc dù có nhiều quan điểm đa dạng trong cộng đồng rộng lớn hơn về trí tuệ nhân tạo, một số cá nhân vẫn cho rằng máy móc cuối cùng sẽ thay thế hoàn toàn sức lao động của con người, trong khi những người khác cho rằng AI chỉ đại diện cho một xu hướng thoáng qua. Tuy nhiên, dường như có sự đồng thuận rằng việc tăng cường giám sát và quản lý AI là cần thiết.
Bất chấp tầm quan trọng tối cao của việc thực hiện các biện pháp quản lý trong lĩnh vực trí tuệ nhân tạo, việc theo đuổi phát triển các mô hình ngày càng tiên tiến đã làm lu mờ những lo ngại về quản trị của nó. Thật vậy, các nhà phát triển đã quá tập trung vào việc xây dựng hệ thống AI đột phá tiếp theo đến nỗi thật không may, họ đã làm tổn hại đến an ninh mạng trong quá trình tìm kiếm sự tiến bộ. Vấn đề trọng tâm hiện nay không phải là liệu AI có cần giám sát hay không mà là cơ quan chính phủ nào, có đủ nguồn lực tài chính, nhân sự và năng lực kỹ thuật, sẽ chịu trách nhiệm thiết lập các hướng dẫn và thực thi chúng.
Vậy ai sẽ là người quản lý AI?
Hệ thống chính trị
Ý kiến liên quan đến quy định về AI vượt qua nhiều lĩnh vực khác nhau, với các cá nhân từ công dân bình thường đến những người tiên phong về công nghệ nổi tiếng đều ủng hộ sự can thiệp của chính phủ. Các tổ chức được nhà nước tài trợ có đủ nguồn lực để thực thi các biện pháp như vậy, ngay cả những nhân vật nổi tiếng như Elon Musk và Sam Altman, những người có ảnh hưởng trong việc định hình bối cảnh AI, thừa nhận rằng một số vấn đề về quyền riêng tư liên quan đến trí tuệ nhân tạo cần được các cơ quan quản lý chú ý.
Để cơ quan quản lý có thể quản lý hiệu quả trí tuệ nhân tạo, họ bắt buộc phải ưu tiên bảo vệ quyền riêng tư và quyền tự do dân sự của công dân mình. Thật không may, tội phạm mạng liên tục nghĩ ra các phương pháp mới để tận dụng các lỗ hổng trong hệ thống AI. Do đó, những cá nhân có kiến thức hạn chế về AI có thể dễ bị thao túng thông qua việc sử dụng các công nghệ tiên tiến như giọng nói tổng hợp, video giả mạo sâu và các nhân vật trực tuyến tự động.
Mặc dù có những lo ngại chính đáng về những hậu quả tiêu cực tiềm tàng của hệ thống AI, nhưng điều quan trọng là phải xem xét những tác động rộng hơn của việc tăng cường giám sát của chính phủ đối với tiến bộ công nghệ. Một nhược điểm có thể có của sự can thiệp bằng quy định là nguy cơ vô tình cản trở sự đổi mới bằng cách áp đặt các hạn chế hoặc yêu cầu mà những người chịu trách nhiệm giám sát việc phát triển, triển khai và đào tạo các hệ thống này có thể không hiểu đầy đủ. Do tính chất phức tạp và thay đổi nhanh chóng của trí tuệ nhân tạo, mọi nỗ lực điều chỉnh đều phải đạt được sự cân bằng tinh tế giữa việc bảo vệ khỏi những kết quả có hại và thúc đẩy sự phát triển liên tục của lĩnh vực mang tính đột phá này.
Nhà phát triển AI, Công ty công nghệ và Phòng thí nghiệm
Do khả năng có những trở ngại phát sinh từ sự giám sát của chính phủ đối với công nghệ AI, một số cá nhân muốn các công ty công nghệ chịu trách nhiệm quản lý các sản phẩm của chính họ. Cách tiếp cận này cho phép các nhà phát triển tập trung vào việc thúc đẩy đổi mới đồng thời đảm bảo tiến độ hiệu quả trong việc phát triển các hệ thống đó.
Thật vậy, sự hiểu biết sâu sắc về trí tuệ nhân tạo cho phép họ xây dựng các chính sách công bằng và đầy đủ thông tin nhằm cân bằng việc bảo vệ người dùng trong khi vẫn duy trì hiệu quả hoạt động. Về vấn đề này, chuyên môn trong một lĩnh vực cụ thể là rất quan trọng để giám sát hiệu quả. Việc bổ nhiệm các cơ quan có thẩm quyền không có tay nghề để giám sát các công nghệ tiên tiến có thể gây ra nhiều rắc rối hơn thay vì mang lại lợi ích đáng kể.
Lấy phiên điều trần của Thượng viện Hoa Kỳ năm 2018 về luật bảo mật dữ liệu của Facebook làm ví dụ. Trong báo cáo này của The Washington Post, bạn€ ™Bạn sẽ thấy rằng nhiều nhà lập pháp đang nhầm lẫn với các chức năng cơ bản của Facebook. Vì vậy, trừ khi Thượng viện Hoa Kỳ thành lập một bộ phận chuyên gia công nghệ duy nhất, họ có thể không đủ tiêu chuẩn để quản lý một hệ thống tiên tiến, luôn thay đổi như AI.
Một mối lo ngại tiềm tàng về khả năng tự điều chỉnh của các công ty công nghệ là khả năng các tổ chức vô đạo đức lợi dụng quyền lực của mình mà không có sự giám sát từ bên ngoài. Việc không có bên thứ ba hòa giải cho phép các thực thể đó hành động mà không bị trừng phạt tương đối và theo đuổi lợi ích riêng của mình mà gây tổn hại đến việc bảo vệ người tiêu dùng hoặc các cân nhắc về đạo đức.
Người dùng cuối
Có những lo ngại rằng cả tổ chức công và tư nhân đều có thể lạm dụng các hệ thống trí tuệ nhân tạo tiên tiến. Khái niệm giao phó quyền lực tuyệt đối cho một số cơ quan quản lý có hạn đối với các công nghệ mạnh mẽ này làm tăng thêm sự lo ngại, đặc biệt khi xem xét các giai đoạn phát triển đang diễn ra của AI. Người ta lo ngại rằng tranh chấp về quyền tài phán có thể nảy sinh giữa các cơ quan quản lý này, có khả năng cản trở việc quản lý hợp tác theo hướng có lợi cho các lợi ích xung đột.
Để giảm bớt những cạm bẫy tiềm ẩn này, những người ủng hộ cách tiếp cận tự do lập luận rằng các cá nhân phải có quyền tự chủ không bị hạn chế trong việc sử dụng hệ thống trí tuệ nhân tạo khi họ thấy phù hợp. Họ cho rằng các cơ quan quản lý nên hạn chế sự tham gia của họ chỉ trong những trường hợp người dùng AI vi phạm các ranh giới pháp lý. Khát vọng này có vẻ cao cả, nhưng về mặt lý thuyết nó khả thi nếu các nhà phát triển AI nguồn mở có ảnh hưởng đáng kể đến ngành.
Quả thực, cấu hình hiện tại đặt ra thách thức cho những người không có chuyên môn kỹ thuật. Trách nhiệm thiết lập các giới hạn thuộc về người dùng, mặc dù không phải tất cả đều sở hữu các phương tiện hoặc khả năng cần thiết để thực hiện các nhiệm vụ đó.
Việc loại bỏ các mô hình AI độc quyền khỏi lưu hành cũng là điều thiển cận không kém. Việc phổ biến các mô hình AI nguồn mở mang lại kết quả hai mặt, vì nó thể hiện cả ưu điểm và nhược điểm ở mức độ khác nhau đối với các cá nhân hoặc tổ chức khác nhau. Đối với một số thực thể nhất định, nhược điểm có thể vượt qua ưu điểm.
Các thực thể khác có vai trò trong việc quản lý AI
Mặc dù trách nhiệm chính trong việc giám sát và quản lý trí tuệ nhân tạo (AI) thuộc về các tổ chức và thể chế hàng đầu, một số bên tham gia quan trọng khác cũng đóng góp đáng kể vào quá trình này:
Phương tiện truyền thông
Các phương tiện truyền thông giữ một vị trí then chốt trong việc hình thành quan điểm của người dân nói chung về trí tuệ nhân tạo. Thông qua báo cáo của mình, họ phổ biến thông tin về những tiến bộ trong ngành, giới thiệu những cải tiến công nghệ mới, nâng cao nhận thức của công chúng về các ứng dụng có hại của AI và tạo điều kiện thảo luận với các chuyên gia hàng đầu về các vấn đề liên quan.
Việc phổ biến thông tin không chính xác về trí tuệ nhân tạo là một mối lo ngại đáng kể vì nó chủ yếu xuất phát từ các nguồn truyền thông. Việc vô tình truyền bá những thông tin sai lệch có thể dẫn đến những hậu quả nghiêm trọng và cần phải tránh bằng mọi giá do những thông tin sai lệch đó lan truyền nhanh chóng.
Các tổ chức phi chính phủ
Một số tổ chức phi lợi nhuận tập trung nỗ lực bảo vệ quyền riêng tư và quyền tự do dân sự của những cá nhân sử dụng công nghệ trí tuệ nhân tạo. Các tổ chức này cung cấp tài liệu giáo dục miễn phí cho công chúng, ủng hộ các sáng kiến chính sách mới, hợp tác với đại diện chính phủ và nâng cao nhận thức về các vấn đề thường bị bỏ qua liên quan đến việc sử dụng AI.
Một trong những thách thức chính mà các tổ chức phi lợi nhuận (NPO) phải đối mặt là nguồn lực hạn chế của họ. Vì các thực thể này không liên kết với bất kỳ cơ quan chính phủ nào nên chúng phải phụ thuộc vào sự đóng góp và kêu gọi của tư nhân để duy trì các chức năng thường lệ. Thật không may, chỉ có một số ít các tổ chức như vậy nhận được hỗ trợ tài chính đầy đủ.
Hiệp hội ngành công nghệ
Các tổ chức công nghiệp công nghệ tập trung vào trí tuệ nhân tạo có khả năng duy trì phúc lợi của xã hội bằng cách ủng hộ các quyền và lợi ích tốt nhất của công chúng. Các tổ chức này hoạt động tương tự như các tổ chức phi lợi nhuận (NPO), hợp tác với các nhà lập pháp để thúc đẩy chính sách công bằng, đại diện cho mối quan tâm của các cá nhân bị ảnh hưởng và nâng cao nhận thức về các vấn đề liên quan.
Mặc dù cả hai loại nhóm gây quỹ đều có thể tiến hành các hoạt động chào mời nhưng vẫn tồn tại sự khác biệt giữa chúng về mối liên kết của họ với các tổ chức tư nhân. Các thành viên thuộc nhóm sau thường được các công ty hoặc tổ chức liên kết của họ cung cấp đầy đủ hỗ trợ tài chính, miễn là họ đạt được kết quả mong muốn trong nỗ lực gây quỹ của mình.
Cơ quan học thuật
Mặc dù trí tuệ nhân tạo có một số mối nguy hiểm tiềm ẩn nhưng về cơ bản nó vẫn vô tư. Nguồn gốc của mọi thành kiến, lo ngại về quyền riêng tư, sai sót về bảo mật và tính nhạy cảm với hoạt động tội phạm mạng có thể bắt nguồn từ hành động của con người chứ không phải bất kỳ đặc điểm nội tại nào của bản thân AI. Do đó, sẽ không chính xác khi mô tả AI như một thực thể có thể gây ra sự sợ hãi hoặc e ngại.
Mặc dù sự hiểu biết về các mô hình trí tuệ nhân tạo hiện đại chỉ giới hạn ở một số ít người được chọn, nhưng niềm tin sai lầm xung quanh các công nghệ này góp phần tạo nên quan điểm lệch lạc về AI và những lo lắng vô căn cứ về tác động tiềm tàng của nó đối với xã hội, chẳng hạn như lo ngại về việc AI thay thế con người hoặc thay thế cơ hội việc làm.
Các tổ chức học thuật có vai trò quan trọng trong việc giải quyết những lỗ hổng kiến thức đã được xác định bằng cách cung cấp các nguồn tài nguyên dễ tiếp cận. Mặc dù số lượng ấn phẩm học thuật có sẵn trên các mô hình ngôn ngữ lớn (LLM) và hệ thống xử lý ngôn ngữ tự nhiên (NLP) hiện đại vẫn còn hạn chế, nhưng việc nâng cao nhận thức về việc sử dụng AI có trách nhiệm và chống tội phạm mạng đòi hỏi sự hiểu biết toàn diện về các cơ chế cơ bản của nó.
Cơ quan thực thi pháp luật
Sự phổ biến ngày càng tăng của các mô hình thế hệ đã dẫn đến sự gia tăng việc sử dụng trí tuệ nhân tạo trong các cuộc tấn công mạng của tội phạm. Các cuộc tấn công này có thể liên quan đến việc tạo ra các bản ghi âm giọng nói giả, hình ảnh bị chỉnh sửa được gọi là “deepfake” và thu thập thông tin nhận dạng cá nhân cho mục đích xấu. Ngoài ra, những kẻ tấn công này cũng có thể tạo ra các nhân cách trực tuyến hoàn toàn bịa đặt để đánh lừa những nạn nhân không nghi ngờ.
Nhiều cơ quan thực thi pháp luật thiếu nguồn lực và chuyên môn cần thiết để chống lại tội phạm mạng hiện đại một cách hiệu quả. Để nâng cao khả năng bắt giữ thủ phạm của những hành vi phạm tội như vậy, điều cần thiết là họ phải triển khai công nghệ tiên tiến và đào tạo toàn diện cho nhân viên của mình về những phát triển mới nhất trong hoạt động tội phạm kỹ thuật số. Nếu không làm như vậy có thể dẫn đến giảm khả năng truy bắt những thủ phạm này và bảo vệ xã hội khỏi bị tổn hại.
Tương lai của quy định AI
Với tốc độ tiến bộ công nghệ nhanh chóng trong lĩnh vực Trí tuệ nhân tạo, sẽ là thách thức đối với một cơ quan quản lý đơn độc trong việc thực hiện giám sát và quản trị đối với sự phát triển và ứng dụng của nó. Mặc dù có thể kỳ vọng rằng các nhà lãnh đạo công nghệ sẽ có ảnh hưởng lớn hơn người dùng cuối, nhưng việc quản lý hiệu quả các rủi ro tiềm ẩn của AI đòi hỏi phải có sự hợp tác giữa nhiều bên liên quan. Để ngăn chặn những hậu quả không lường trước do cản trở sự đổi mới, cần thận trọng thiết lập các hướng dẫn và giao thức ở giai đoạn đầu này khi triển vọng đạt được Trí tuệ nhân tạo tổng hợp vẫn còn mang tính suy đoán.
Mặc dù khung pháp lý cho trí tuệ nhân tạo vẫn còn ở giai đoạn sơ khai, tương ứng với mức độ tiến bộ mà Trí tuệ nhân tạo tổng hợp (AGI) đạt được, nhưng các cá nhân bắt buộc phải áp dụng các biện pháp thận trọng để chống lại các rủi ro tiềm ẩn liên quan đến các mối đe dọa dựa trên AI. Bằng cách tuân thủ các giao thức bảo mật cơ bản như hạn chế quyền truy cập vào thông tin cá nhân và hạn chế kết nối trong mạng ảo, người dùng có thể giảm thiểu những mối nguy hiểm này một cách hiệu quả.