Phát triển AI có đạo đức là vấn đề mang tính chiến lược
Tại Việt Nam, trí tuệ nhân tạo (AI) đã được xác định là một trong những công nghệ lõi theo Chiến lược quốc gia về nghiên cứu, phát triển và ứng dụng AI đến năm 2030. Dù vậy, các quy định về đạo đức và quản trị rủi ro liên quan đến AI vẫn còn khá sơ khai.
Theo báo cáo của UNESCO, đến năm 2023 có hơn 60 quốc gia trên thế giới đã xây dựng chiến lược AI quốc gia, trong đó nhiều nước ban hành khung đạo đức nhằm kiểm soát rủi ro từ công nghệ này.
Tại Việt Nam, Quyết định số 127/QĐ-TTg của Thủ tướng Chính phủ ngày 26.1.2021 ban hành Chiến lược quốc gia về nghiên cứu, phát triển và ứng dụng AI đến năm 2030 cũng đã nhấn mạnh đến việc nâng cao năng lực về đạo đức, quản trị rủi ro và chính sách AI cho đội ngũ chuyên gia, cán bộ quản lý và nhà phát triển.
Các chuyên gia về AI cho rằng AI cần được thiết kế và vận hành theo những nguyên tắc đạo đức rõ ràng nếu con người không muốn phải đối mặt với nguy cơ thiên lệch thuật toán, xâm phạm quyền riêng tư, mất kiểm soát dữ liệu, và những hệ lụy khó lường về xã hội và pháp lý.

Đã có hơn 60 quốc gia trên thế giới đã xây dựng chiến lược AI quốc gia
Trao đổi với phóng viên Một Thế Giới, ông Đào Trung Thành - Phó viện trưởng Viện ABAII, thành viên Hội đồng Đạo đức tài sản số và AI (ABAII) cho hay: “Trong bối cảnh AI đang len lỏi vào từng quyết định y tế, tài chính, giáo dục, truyền thông và thậm chí cả chính sách công, câu hỏi không còn là nên hay không nên dùng AI, mà là: Chúng ta sẽ dùng AI theo cách nào để không làm tổn thương chính chúng ta? Tôi tin rằng AI không nên thay thế con người mà phải nâng tầm con người. Đạo đức AI không phải là lựa chọn, mà là nền móng của niềm tin xã hội trong kỷ nguyên số”.
Ông Thành nhấn mạnh việc phát triển AI có đạo đức là nhiệm vụ mang tính chiến lược, đặc biệt tại các quốc gia đang trong quá trình xây dựng hệ sinh thái công nghệ số như Việt Nam.
"Nếu không hành động ngay, chúng ta không chỉ chậm bước trong cuộc đua AI toàn cầu, mà còn có thể đánh mất niềm tin của chính người dân vào những hệ thống được gọi là thông minh", ông Thành cho biết.

Ông Đào Trung Thành - Phó viện trưởng Viện ABAII, thành viên Hội đồng Đạo đức Tài sản số và AI ABAII phát biểu
Thảo luận về dự thảo Luật KH-CN và ĐMST tại Quốc hội, đại biểu Thạch Phước Bình (Trà Vinh) cho rằng cần bổ sung yêu cầu đánh giá tác động đạo đức và xã hội với các công nghệ rủi ro cao, trong đó có AI, tổ chức thực hiện thử nghiệm có kiểm soát phải được đánh giá và thẩm định bởi Hội đồng đánh giá đạo đức và an toàn công nghệ.
Hội đồng bao gồm chuyên gia pháp lý, đạo đức, xã hội học, kỹ thuật và đại diện cộng đồng chịu ảnh hưởng. Hội đồng có chức năng tư vấn, phản biện và đề xuất điều kiện đảm bảo an toàn xã hội, không thay thế thẩm quyền phê duyệt của cơ quan quản lý nhà nước.
Ông Bình phân tích dự thảo hiện có quy định về kiểm soát rủi ro (tại điều 21) nhưng mới dừng lại ở trách nhiệm của tổ chức thử nghiệm và yêu cầu bảo đảm an toàn. Trong khi đó, nhiều công nghệ hiện nay như AI trong y tế và giáo dục công nghệ chỉnh sửa gien, công nghệ giám sát sinh trắc học có tác động sâu rộng đến quyền riêng tư, an toàn dữ liệu và quyền con người.
"Nếu cho phép thử nghiệm các công nghệ này mà không có thẩm định đạo đức độc lập, rất dễ xảy ra hệ lụy xã hội và ảnh hưởng tiêu cực đến lòng tin của công chúng", đại biểu Bình nói.
Ông Bình cho biết nhiều nước đã đi trước nước ta trong việc thành lập hội đồng đạo đức công nghệ với mô hình tương tự hội đồng đạo đức trong nghiên cứu y sinh để thẩm định, tư vấn và đề xuất điều kiện an toàn trước khi thử nghiệm các công nghệ nhạy cảm.
Đại biểu Phan Thị Mỹ Dung (Long An) nêu điều 8 về hoạt động khoa học, công nghệ đã nhấn mạnh nguyên tắc con người là trung tâm trong các nghiên cứu y sinh, công nghệ sinh học và đặc biệt là công nghệ mới như AI, cho thấy sự đồng bộ với các nguyên tắc đạo đức quốc tế.
Theo đó, cần phải có sự giám sát, kiểm soát chủ động của con người đối với hệ thống AI và được tự động hóa là rất cần thiết, nhằm phòng ngừa rủi ro về đạo đức, pháp lý và xã hội.

Chuyên gia đề nghị khi nghiên cứu về AI cần có báo cáo đánh giá tác động về đạo đức
Bà Dung đề nghị bổ sung quy định khung về yêu cầu các tổ chức thực hiện nghiên cứu liên quan đến AI và công nghệ mới phải xây dựng báo cáo đánh giá tác động về đạo đức giống như các nước đang thực hiện. Điều này cũng tương tự như trên các lĩnh vực khác, ví dụ muốn thực hiện dự án đầu tư thì phải đánh giá tác động môi trường.
“Vấn đề này đang rất khó, vừa có mặt tích cực rất lớn nhưng cũng vừa có những tác động tiêu cực tiềm ẩn và hệ quả của việc sử dụng, áp dụng trong điều kiện thực tiễn người dân chúng ta là chưa am hiểu kỹ, sử dụng hiệu quả, an toàn công nghệ thông tin cũng như AI”, bà Dung nói.
Đại biểu Nguyễn Thị Huế (Bắc Kạn) cũng đề nghị cần làm rõ phạm vi ứng dụng AI như trong phân tích dữ liệu, nghiên cứu, tối ưu hóa quy trình quản lý dự án hay dự báo xu hướng công nghệ chưa đề cập đến các rủi ro liên quan đến AI như vi phạm đạo đức, xâm phạm quyền riêng tư hoặc lạm dụng dữ liệu lớn.
“Quy định việc sử dụng AI và dữ liệu lớn phải tuân thủ các nguyên tắc đạo đức, bảo vệ quyền riêng tư và tránh lạm dụng dữ liệu”, bà Huế nêu.