Nhật Bản nghiên cứu các quy định ràng buộc pháp lý với những đơn vị phát triển AI
Chính phủ Nhật Bản đang nghiên cứu các quy định ràng buộc pháp lý đối với nhà phát triển các hệ thống trí tuệ nhân tạo (AI) quy mô lớn để đảm bảo họ thực hiện các biện pháp giải quyết nguy cơ thông tin giả và các nguy cơ khác.
Trước đó, Chính phủ Nhật Bản thường đưa ra các biện pháp mang tính tự nguyện, nhưng nay ghi nhận cần phải có các quy định chế tài, tương tự các biện pháp của Liên minh châu Âu (EU) và các nước khác, trong bối cảnh quan ngại về việc lạm dụng AI. Chính phủ Nhật Bản có kế hoạch họp hội đồng các chuyên gia AI để thảo luận vấn đề này và đang nghiên cứu đưa các quy định mới vào các chỉ đạo chính sách quản lý tài chính và kinh tế sẽ được soạn thảo trong tháng 6.
Nhật Bản sẽ sớm công bố các hướng dẫn gồm 10 nguyên tắc, gồm sử dụng AI an toàn và con người là trung tâm. Các công ty tham gia sử dụng AI trong các lĩnh vực có nguy cơ cao sẽ được yêu cầu tiến hành kiểm tra an toàn bên ngoài hoặc bên trong cũng như chia sẻ đánh giá nguy cơ với chính phủ. Các nhà phát triển do chính phủ chọn cũng sẽ được yêu cầu báo cáo tình hình tuân thủ với chính phủ hoặc các cơ quan thứ ba. Trong trường hợp không tuân thủ, chính phủ sẽ có thể yêu cầu báo cáo hoặc tiến hành kiểm tra tại chỗ cũng như áp dụng hình phạt đối với các vi phạm.
Nghị viện châu Âu mới đây đã thông qua luật toàn diện đầu tiên về AI dự kiến có hiệu lực từ năm 2026 và sẽ áp đặt các hình phạt nghiêm khắc đối với các vi phạm.