Các ông lớn công nghệ áp dụng chuẩn nội dung AI, nhưng liệu đã đủ để ngăn chặn tin giả?

Trong bối cảnh thông tin giả mạo ngày càng trở nên phức tạp, các nhà cung cấp dịch vụ AI cùng với các cơ quan chính phủ đã bắt tay vào một loạt các biện pháp nhằm củng cố lá chắn bảo vệ không gian mạng trước những đợt sóng thông tin sai lệch do trí tuệ nhân tạo (AI) tạo ra.

Đối phó với thông tin giả mạo, các nhà cung cấp AI và chính phủ đã kích hoạt nhiều biện pháp.
Đối phó với thông tin giả mạo, các nhà cung cấp AI và chính phủ đã kích hoạt nhiều biện pháp.

Mới đây, các hãng công nghệ AI hàng đầu đã công bố công cụ mới nhằm tăng cường sự minh bạch và khả năng phát hiện nội dung do AI sinh sản. Chỉ vài giờ sau khi Meta công bố kế hoạch dán nhãn cho các hình ảnh AI từ các nền tảng khác, OpenAI đã tiến một bước xa hơn bằng việc thông báo sẽ tích hợp metadata cho hình ảnh do ChatGPT và API của DALL-E tạo ra. Tiếp theo, Google cũng không nằm ngoài cuộc chơi khi tuyên bố tham gia ủy ban điều hành của Liên minh về Chứng minh Nguồn gốc và Xác thực Nội dung (C2PA), một tổ chức chủ chốt trong việc thiết lập các tiêu chuẩn cho nội dung AI. Hơn nữa, Google còn hỗ trợ Content Credentials (CC), một loại "nhãn thông tin" dành cho nội dung AI do C2PA và Sáng kiến Xác thực Nội dung (CAI) phát triển. Adobe, người sáng lập CAI từ năm 2019, cũng đã giới thiệu bản cập nhật quan trọng cho CC vào tháng 10 vừa qua.

Những cải tiến này nổi bật ở chỗ chúng mời gọi sự tham gia của các nền tảng phân phối chính vào quy trình chuẩn hóa, điều này không chỉ giúp thúc đẩy việc áp dụng các tiêu chuẩn AI vào mạng lưới chính thống mà còn giúp người dùng dễ dàng phân biệt được nội dung thật và giả. Andy Parsons, giám đốc cấp cao của CAI, nhận định rằng sự tham gia của các công ty lớn như Google sẽ tạo ra "hiệu ứng domino" cần thiết để nâng cao chất lượng hệ sinh thái thông tin trên internet. Điều này đòi hỏi sự phối hợp chặt chẽ giữa các doanh nghiệp, nhà nghiên cứu và các cơ quan chính phủ khác nhau.

Sự tham gia thiết kế và áp dụng các tiêu chuẩn C2PA của các nhà cung cấp mô hình AI lớn cũng góp phần thúc đẩy việc áp dụng đồng nhất các tiêu chuẩn này trên cả nền tảng tạo lập và phân phối nội dung. Parsons đặc biệt nhấn mạnh rằng nền tảng Firefly của Adobe đã tuân thủ C2PA ngay từ khi ra mắt.

Trong khi đó, các cơ quan chính phủ không ngừng tìm kiếm giải pháp để chống lại thông tin sai lệch do AI sinh sản. Gần đây, Ủy ban Truyền thông Liên bang đã ra lệnh cấm sử dụng giọng nói AI trong các cuộc gọi tự động, coi đây là hành vi vi phạm Đạo luật Bảo vệ Người tiêu dùng qua Điện thoại, sau sự việc các cuộc gọi giả mạo giọng Tổng thống Joe Biden. Bên cạnh đó, Nhà Trắng thông báo hơn 200 tổ chức đã gia nhập liên minh AI mới, bao gồm nhiều trường đại học, doanh nghiệp và tổ chức khác. Ủy ban Châu Âu cũng đang thu thập ý kiến cho hướng dẫn DSA của mình liên quan đến bảo đảm tính toàn vẹn của cuộc bầu cử.

Các quy định mới liên quan đến quảng cáo chính trị AI đã được các cơ quan lập pháp tiểu bang thông qua. Dù các thành viên Quốc hội đã đưa ra các dự luật liên quan, nhưng cho đến nay, chưa có bất kỳ tiến triển đáng kể nào được ghi nhận. Theo một nghiên cứu gần đây do Tech Policy Press công bố, các mô hình ngôn ngữ lớn có khả năng phát triển các chiến dịch quảng cáo chính trị mục tiêu cá nhân hóa một cách dễ dàng và hiệu quả trên các nền tảng như Facebook. Meta, công ty mẹ của Facebook, thậm chí còn được hội đồng giám sát bán độc lập của mình kêu gọi "nhanh chóng xem xét lại" chính sách về nội dung được chỉnh sửa bằng công nghệ AI.

Xác thực nội dung AI không chỉ giúp tăng cường lòng tin và minh bạch mà còn là bước quan trọng để ngăn chặn việc phát tán thông tin giả mạo trên các nền tảng xã hội và tìm kiếm. Tuy nhiên, việc phát hiện chính xác các deepfake và lừa đảo dựa trên văn bản vẫn còn là thách thức lớn.

Josh Lawson, Giám đốc Sáng kiến AI và Dân chủ của Viện Aspen, cho biết việc ngăn chặn thông tin giả mạo AI là yếu tố then chốt. Mặc dù việc thiết lập các tiêu chuẩn tạo nội dung AI là "thói quen tốt" đối với các nền tảng lớn, nhưng điều này không đủ để ngăn chặn các tác nhân xấu sử dụng mô hình AI mã nguồn mở và đã được "bẻ khóa" để tạo ra nội dung gây rối.

Mối lo ngại về AI không chỉ làm lu mờ vấn đề quyền riêng tư trực tuyến mà còn làm nổi bật sự cần thiết của việc giáo dục và nâng cao nhận thức về an toàn thông tin trong kỷ nguyên số.

Theo Digiday

Quan Dinh H.

Comments

Have any query? Share with me

Name

Email *

Message *