Nhật Bản đặt ra hướng dẫn sử dụng an toàn trí tuệ nhân tạo
Một hướng dẫn sử dụng an toàn trí tuệ nhân tạo (AI) vừa được Nhật Bản đặt ra bởi cơ quan mới được thành lập của nước này trong việc sử dụng AI.
Theo đó, nhằm đảm bảo an toàn và giảm thiểu rủi ro khi sử dụng trí tuệ nhân tạo (AI), Chính phủ Nhật Bản đã thông báo về việc thành lập Viện an toàn Trí tuệ nhân tạo vào tháng 1/2024. Đây là một bước quan trọng trong việc quản lý và kiểm soát công nghệ trí tuệ nhân tạo trong nước.
Viện an toàn Trí tuệ nhân tạo sẽ gồm các chuyên gia có kinh nghiệm chuyên sâu trong lĩnh vực AI. Nhiệm vụ chính của họ là thiết lập các tiêu chuẩn đánh giá an toàn, cũng như xác định và giảm thiểu nguy cơ mà công nghệ này có thể bị lợi dụng, từ việc tạo ra thông tin giả mạo, lan truyền thông tin sai lệch đến nguy cơ an ninh, như sử dụng AI để phát triển vũ khí sinh học, hóa học và các loại vũ khí khác.
Nhật Bản cũng đang phát triển một bộ hướng dẫn sử dụng AI, gồm 10 nguyên tắc cơ bản. Trong đó, những điểm nhấn chính bao gồm:
Tôn trọng quyền con người và tránh sử dụng AI để thao túng quyết định và cảm xúc của con người.
Chống lại thông tin sai lệch và giảm thiểu nguy cơ sử dụng AI để phá hoại an ninh.
Bảo vệ quyền riêng tư, đảm bảo sự công bằng, an ninh, và minh bạch trong việc sử dụng AI.
Hướng dẫn sử dụng AI của Nhật Bản không chỉ dựa trên nội dung từ Hướng dẫn Hiroshima được đề cập tại Hội nghị G7 vào tháng 5/2023 mà còn có nhận định và đóng góp từ các nhà phát triển, nhà cung cấp dịch vụ AI và cộng đồng người sử dụng.
Dự kiến, tài liệu này sẽ được chính thức thông qua vào tháng 3/2024.
Trước đó, Nhật Bản cùng với Anh và Mỹ đã thiết lập các cơ quan đánh giá rủi ro và bảo mật liên quan đến sản phẩm và dịch vụ công nghệ AI mới, đánh dấu sự hợp tác quốc tế trong lĩnh vực này.
Như vậy, việc Nhật Bản đưa ra các hướng dẫn và nguyên tắc sử dụng AI rõ ràng nhấn mạnh cam kết của nước này trong việc khám phá và phát triển AI một cách an toàn, minh bạch và có trách nhiệm.