Big Tech bị phạt tiền, chặn truy cập nếu vi phạm luật an toàn trực tuyến tại Anh
Đạo luật An toàn Trực tuyến của Vương quốc Anh chính thức có hiệu lực từ ngày 16/12, mở đường cho việc giám sát chặt chẽ hơn đối với nội dung độc hại trên các nền tảng của Big Tech.
Ofcom, cơ quan quản lý truyền thông và viễn thông của Anh, đã công bố các quy tắc thực hành và hướng dẫn cho các công ty công nghệ, nêu những việc nên làm để xử lý nội dung độc hại như khủng bố, thù hận, gian lận và lạm dụng tình dục trẻ em trên nền tảng.
Đạo luật An toàn Trực tuyến được Anh thông qua tháng 10/2023, nhưng mới có hiệu lực từ ngày 16/12. Luật áp đặt “nghĩa vụ chăm sóc” đối với Big Tech, để đảm bảo họ chịu trách nhiệm về nội dung độc hại được tải lên và lan truyền.
Ofcom cho biết, hạn chót để các nền tảng công nghệ hoàn thành đánh giá rủi ro của các tác hại nói trên là ngày 16/3/2025. Sau đó, doanh nghiệp phải tiến hành các biện pháp để ngăn chặn rủi ro, bao gồm kiểm duyệt tốt hơn, báo cáo dễ dàng hơn và tích hợp các bài kiểm tra an toàn.
"Chúng tôi sẽ giám sát chặt chẽ ngành công nghiệp để đảm bảo các công ty phù hợp với các tiêu chuẩn an toàn nghiêm ngặt được đặt ra cho họ theo các quy tắc và hướng dẫn đầu tiên của chúng tôi, với các yêu cầu khác phải tuân thủ nhanh chóng trong nửa đầu năm tới", người đứng đầu Ofcom Melanie Dawes cho biết.
Nguy cơ bị phạt khủng, tạm ngừng dịch vụ
Theo Đạo luật An toàn Trực tuyến, Ofcom có thể phạt tới 10% doanh thu hàng năm trên toàn cầu của các công ty, nếu họ bị phát hiện vi phạm các quy tắc.
Đối với các vi phạm lặp đi lặp lại, lãnh đạo doanh nghiệp có thể phải đối mặt với án tù. Với những trường hợp nghiêm trọng nhất, Ofcom có quyền xin lệnh của tòa án để chặn quyền truy cập vào một dịch vụ ở Anh hoặc hạn chế quyền truy cập của nó đối với các nhà cung cấp dịch vụ thanh toán hoặc nhà quảng cáo.
Các công ty mạng xã hội, công cụ tìm kiếm, nhắn tin, game và hẹn hò, cũng như các trang web khiêu dâm và chia sẻ tệp sẽ phải thực hiện “nghĩa vụ chăm sóc”.
Theo bộ quy tắc đầu tiên, các chức năng báo cáo và khiếu nại phải dễ tìm và sử dụng hơn. Các nền tảng rủi ro cao được yêu cầu sử dụng một công nghệ hash-matching để phát hiện và loại bỏ nội dung lạm dụng tình dục trẻ em (CSAM).
Các công cụ hash-matching liên kết các hình ảnh CSAM từ cơ sở dữ liệu của cảnh sát với dấu vân tay kỹ thuật số được mã hóa ("băm") cho từng phần nội dung để giúp hệ thống lọc tự động của các trang mạng xã hội nhận ra và xóa chúng.
Ofcom nhấn mạnh, đây mới là bộ quy tắc đầu tiên và sẽ xin ý kiến để bổ sung vào mùa xuân năm 2025, bao gồm chặn các tài khoản chia sẻ nội dung CSAM và sử dụng AI để giải quyết các nội dung độc hại.
Theo Bộ trưởng Công nghệ Peter Kyle, đây là một bước thay đổi quan trọng trong an toàn trực tuyến. Từ tháng 3/2025, các nền tảng sẽ phải chủ động gỡ bỏ tài liệu khủng bố, lạm dụng trẻ em và hình ảnh khiêu dâm cũng như một loạt các nội dung bất hợp pháp khác, thu hẹp khoảng cách giữa luật bảo vệ người dân ngoài đời thật và trên mạng.
Nếu doanh nghiệp không tuân thủ, cơ quan quản lý có thể kích hoạt toàn bộ quyền hạn của mình để phạt tiền và chặn quyền truy cập vào các trang web.
(Theo CNBC)