Nên quản lý AI theo mức độ rủi ro
Báo cáo về khó khăn, vướng mắc trong thực thi chính sách về khoa học công nghệ, đổi mới sáng tạo và chuyển đổi số của Ban Nghiên cứu phát triển kinh tế tư nhân (Ban IV) cho thấy nhiều ý kiến đề nghị điều chỉnh một số quy định theo hướng quản lý dựa trên mức độ rủi ro, tránh mở rộng phạm vi kiểm soát quá mức. Cách tiếp cận này được cho là vừa bảo đảm an toàn xã hội, vừa tạo dư địa thúc đẩy đổi mới sáng tạo và chuyển đổi số quốc gia.
Tránh cách tiếp cận quản lý đồng loạt
Theo tổng hợp của Ban IV, một số hiệp hội và doanh nghiệp đã đóng góp ý kiến đối với các dự thảo văn bản quy định chi tiết thi hành Luật Trí tuệ nhân tạo (AI), gồm dự thảo Nghị định quy định chi tiết một số điều và biện pháp tổ chức thực hiện Luật và dự thảo Quyết định của Thủ tướng ban hành danh mục các hệ thống AI có rủi ro cao.
Một nội dung được nhiều ý kiến góp ý là quy định về nghĩa vụ gắn nhãn và thông báo hiển thị với nội dung do hệ thống AI tạo ra hoặc chỉnh sửa. Theo Khoản 1, Điều 19 của dự thảo Nghị định, bên triển khai có trách nhiệm thông báo và gắn nhãn hiển thị khi cung cấp ra công cộng các nội dung do AI tạo ra hoặc chỉnh sửa trong trường hợp nội dung mô phỏng hoặc giả lập ngoại hình, giọng nói của người thật; hoặc tái hiện, mô phỏng các sự kiện thực tế có khả năng gây nhầm lẫn đối với người tiếp nhận về tính xác thực.

Hoàn thiện khung pháp lý về trí tuệ nhân tạo. Ảnh: VC
Theo các doanh nghiệp, quy định này nếu áp dụng với mọi nội dung do AI tạo ra có thể dẫn tới cách tiếp cận quản lý đồng loạt, chưa phản ánh đúng mức độ rủi ro thực tế của từng loại ứng dụng AI. Nếu quy định gắn nhãn được áp dụng quá rộng, chi phí tuân thủ và rủi ro pháp lý với doanh nghiệp sẽ tăng lên đáng kể, đặc biệt với doanh nghiệp nhỏ và vừa đang tích cực ứng dụng các công cụ AI trong sản xuất, kinh doanh, truyền thông và sáng tạo nội dung.
Không chỉ vậy, việc bắt buộc gắn nhãn hiển thị trên diện rộng còn có thể làm “loãng” ý nghĩa cảnh báo của cơ chế minh bạch. Khi phần lớn nội dung trên môi trường số đều có gắn nhãn liên quan đến AI, người dùng có thể dần xem nhẹ thông tin cảnh báo, trong khi mục tiêu ban đầu của quy định là giúp nhận diện các nội dung có nguy cơ gây nhầm lẫn hoặc tác động tiêu cực tới xã hội.
Mặt khác, trong bối cảnh AI đang trở thành công cụ hỗ trợ phổ biến trong sáng tạo nội dung, truyền thông và nhiều hoạt động kinh tế - xã hội, việc áp dụng nghĩa vụ gắn nhãn quá rộng có thể vô hình trung tạo ra tâm lý dè dặt hoặc định kiến với các sản phẩm có yếu tố AI. Từ đó ảnh hưởng tới khả năng thương mại hóa các sản phẩm, dịch vụ công nghệ mới.
Vì vậy, một số ý kiến đề xuất bãi bỏ nghĩa vụ gắn nhãn hiển thị với tất cả nội dung AI. Trường hợp vẫn duy trì quy định này thì chỉ nên áp dụng với các hệ thống AI thuộc nhóm rủi ro cao. Các doanh nghiệp cho rằng, nghĩa vụ minh bạch thông qua gắn nhãn nên được giới hạn với những trường hợp có khả năng gây nhầm lẫn nghiêm trọng và có thể tác động trực tiếp đến sức khỏe, tính mạng con người hoặc liên quan đến quốc phòng, an ninh. Đây cũng là cách tiếp cận phù hợp với nguyên tắc quản lý dựa trên mức độ rủi ro đang được nhiều quốc gia áp dụng.
Tập trung quản lý các hệ thống có nguy cơ cao với xã hội
Về dự thảo danh mục các hệ thống AI rủi ro cao, theo dự thảo Quyết định của Thủ tướng, danh mục được xây dựng trên cơ sở nhiều lĩnh vực như y tế và chăm sóc sức khỏe, tài chính, ngân hàng, tuyển dụng và quản lý nhân sự, giáo dục và đào tạo, an ninh, trật tự, tư pháp, giao thông vận tải, hạ tầng kỹ thuật trọng yếu cũng như quản lý nhà nước và dịch vụ công.
Tuy nhiên, một số hiệp hội và doanh nghiệp cho rằng cách tiếp cận này có thể dẫn tới việc mở rộng phạm vi hệ thống AI rủi ro cao sang nhiều lĩnh vực dân sự, thương mại, trong khi phần lớn các ứng dụng AI trong các lĩnh vực này chủ yếu phục vụ mục tiêu nâng cao năng suất và hiệu quả quản trị.
Theo các kiến nghị, danh mục hệ thống AI rủi ro cao nên được điều chỉnh theo hướng tập trung vào các hệ thống có khả năng tác động trực tiếp và nghiêm trọng đến tính mạng, sức khỏe con người hoặc liên quan đến an ninh quốc gia và trật tự an toàn xã hội. Cụ thể, nhóm hệ thống AI trong lĩnh vực y tế, đặc biệt là các ứng dụng phục vụ chẩn đoán, điều trị, thiết bị y tế hoặc hỗ trợ quyết định lâm sàng, được cho là cần được xếp vào nhóm rủi ro cao do có thể ảnh hưởng trực tiếp tới sức khỏe người bệnh. Tương tự, các hệ thống AI liên quan đến thực thi pháp luật, hoạt động tố tụng, hỗ trợ ra quyết định trong xét xử hoặc xử lý vi phạm cũng cần được quản lý chặt chẽ do tác động trực tiếp đến quyền và lợi ích hợp pháp của công dân.
Với các lĩnh vực như tài chính, ngân hàng, tuyển dụng và quản lý nhân sự, giáo dục và đào tạo hoặc giao thông vận tải trong phạm vi điều hành dân sự, doanh nghiệp đề xuất không xếp toàn bộ các hệ thống AI vào nhóm rủi ro cao. Bởi cách làm này khiến doanh nghiệp phải đáp ứng các nghĩa vụ tuân thủ nghiêm ngặt hơn. Kéo theo đó, chi phí gia nhập thị trường tăng lên và thời gian đưa sản phẩm ra thị trường kéo dài.
Đáng chú ý, nhiều doanh nghiệp cũng cho rằng, việc mở rộng danh mục hệ thống AI rủi ro cao quá rộng có thể dẫn tới tình trạng phân tán nguồn lực giám sát của cơ quan quản lý nhà nước. Trong khi đó, nếu tập trung nguồn lực vào các hệ thống thực sự có nguy cơ cao đối với sức khỏe, tính mạng con người hoặc an ninh quốc gia, hiệu quả quản lý sẽ được nâng cao hơn.
Theo cộng đồng doanh nghiệp, xây dựng khung pháp lý cho AI cần bảo đảm nguyên tắc cân bằng giữa quản lý rủi ro và thúc đẩy đổi mới sáng tạo. Một khung pháp lý linh hoạt, dựa trên đánh giá rủi ro và phù hợp với thực tiễn phát triển công nghệ sẽ góp phần tạo môi trường thuận lợi để doanh nghiệp đầu tư, ứng dụng và thương mại hóa các sản phẩm AI, qua đó thúc đẩy quá trình chuyển đổi số và nâng cao năng lực cạnh tranh của nền kinh tế.
Nguồn Đại Biểu Nhân Dân: https://daibieunhandan.vn/nen-quan-ly-ai-theo-muc-do-rui-ro-10409951.html












