Khoảng trống 'đạo đức AI' trong kỷ nguyên số
Trí tuệ nhân tạo (AI) đang phát triển mạnh mẽ và có ảnh hưởng sâu rộng đến mọi mặt đời sống. Tuy vậy, hành lang pháp lý về đạo đức, trách nhiệm trong việc vận hành, ứng dụng AI đang là vấn đề chưa nhận được sự chú ý đầy đủ.
Tại Việt Nam, chiến lược quốc gia về nghiên cứu, phát triển và ứng dụng AI đến năm 2030 tại Quyết định số 127/QĐ-TTg của Thủ tướng Chính phủ đã nhấn mạnh đào tạo về đạo đức và chính sách AI là trụ cột.
Nói với phóng viên, ông Nguyễn Đình Thắng, Chủ tịch HĐTV Hồng Cơ Group cho rằng thế giới đã bước vào kỷ nguyên cách mạng công nghiệp lần thứ 4, đánh dấu mốc đặc biệt khác với tiến trình phát triển tuần tự của các cuộc cách mạng trước, sẽ tạo nên sự thay đổi toàn diện trong mọi lĩnh vực.
Tuy vậy, theo ông Thắng, nguy cơ lạm dụng công nghệ cao vì mục đích chiến tranh, phá hoại, lừa đảo, lợi ích nhóm, cá nhân ngày càng lớn. Việc ứng dụng công nghệ cao, đặc biệt là AI không bị giới hạn về quy ước, quy định sẽ dẫn tới thảm họa của xã hội về phá vỡ văn hóa truyền thống gia đình, gia tộc, văn hóa dân tộc…
Thực tế, dự thảo Luật Công nghiệp công nghệ số đã đề cập đến vấn đề đạo đức AI, thể hiện sự quan tâm của nhà nước đối với vấn đề này. Tuy nhiên, các chuyên gia cho rằng những quy định này chưa đủ mạnh.

Ông Nguyễn Đình Thắng, Chủ tịch HĐTV Hồng Cơ Group
ĐBQH Lưu Bá Mạc (Lạng Sơn) cho rằng cơ quan soạn thảo cần cân nhắc bổ sung thêm quy định theo hướng các hệ thống AI rủi ro cao hoặc có tác động lớn trước khi triển khai chính thức phải được đánh giá, thẩm định bởi tổ chức kiểm định độc lập được nhà nước chỉ định hoặc công nhận.
Một trong những lý do, đó là hiện nay tại điều 44 dự thảo Luật Công nghiệp công nghệ số đang đề cập đến 6 nguyên tắc phát triển, cung cấp, triển khai và sử dụng AI và giao nhiệm vụ cho các bộ ngành để ban hành hướng dẫn, sử dụng quy tắc đạo đức. Trong khi đó điều 46 có đề cập đến quản lý hệ thống AI, bao gồm cả hệ thống rủi ro cao và hệ thống tác động lớn, nhưng cũng chưa nêu rõ việc thiết lập cơ chế kiểm định độc lập trước khi triển khai các hệ thống này.
“Điều này không chỉ giúp nâng cao hiệu lực, hiệu quả trong quản lý nhà nước mà còn tạo cơ sở pháp lý để người dân, doanh nghiệp yên tâm khi sử dụng ứng dụng AI trong đời sống sản xuất, kinh doanh và nhất là trong bối cảnh phát triển kinh tế số, xã hội số như hiện nay”, ông Mạc nêu.
Theo ông Lê Linh Lương, Phó viện trưởng Viện ABAII, việc phát triển AI có đạo đức là nhiệm vụ mang tính chiến lược, đặc biệt tại các quốc gia đang trong quá trình xây dựng hệ sinh thái công nghệ số như Việt Nam.
“Bối cảnh thực tiễn đặt ra yêu cầu cần bồi dưỡng thế hệ chuyên gia công nghệ, cán bộ quản lý nhà nước, giảng viên, nhà nghiên cứu… có tư duy phản biện, hiểu biết pháp lý và cam kết đạo đức trong triển khai các giải pháp số”, ông Lương nêu.
Bà Nguyễn Lan Phương (Viện Nghiên cứu chính sách và phát triển truyền thông - IPS) cho rằng để đảm bảo rằng sự phát triển của AI không chỉ vì lợi ích kinh tế mà còn cần phải đặt con người, đạo đức, và trách nhiệm lên hàng đầu, cần rà soát các quy định pháp luật hiện hành liên quan đến công nghệ này, kết hợp hài hòa quy định pháp luật và hướng dẫn thực hành, quy tắc đạo đức.

Đạo đức trong việc vận hành, ứng dụng AI đang là vấn đề chưa nhận được sự chú ý đầy đủ
Theo bà Phương, mỗi công dân phải có nhận thức và kỹ năng để sử dụng AI hiệu quả. Muốn vậy, nhà chức trách cần xây dựng các hướng dẫn về phân loại rủi ro, hướng dẫn, tiêu chuẩn kỹ thuật cho các nhà phát triển ứng dụng, công nghệ, sản phẩm AI; các hướng dẫn triển khai, sử dụng AI an toàn, đáng tin cậy cho người sử dụng.
“Trong trường hợp xây dựng đạo luật, quy định chung về AI như dự thảo Luật Công nghiệp công nghệ số hiện tại, nên xác định mục tiêu của đạo luật, quy định chung; xác định các mức độ rủi ro liên quan đến quyền con người; quy định nghĩa vụ phù hợp với vai trò, khả năng của từng chủ thể trong chuỗi giá trị và tương xứng mức độ rủi ro; xây dựng cơ chế thử nghiệm có kiểm soát với ưu tiên thử nghiệm công nghệ AI”, bà Phương khuyến nghị.
Tại một hội thảo mới đây, Thứ trưởng Bộ KH-CN Bùi Thế Duy cho biết nguyên tắc của UNESCO đang là cơ sở để các nước xây dựng quy định về đạo đức AI. Trước tiên, mô hình AI cần tuân thủ thiết kế, nhiệm vụ được thiết lập ngay từ đầu, nhằm đảm bảo không có các hành động phá hoại, gây tổn hại cho con người.
"AI khác hoàn toàn so với những công nghệ con người từng nghiên cứu. Trong khi các sản phẩm công nghệ cũ chỉ tuân thủ mục tiêu có sẵn, AI có thể tự tạo những hướng đi mới, vượt ra ngoài sự kiểm soát của nhà phát triển", ông nói. Thứ trưởng cũng lấy ví dụ về trường hợp các nhà khoa học cho hai hệ thống máy tính trò chuyện bằng tiếng Anh. Tuy nhiên, sau một khoảng thời gian, chúng bất ngờ chuyển sang giao tiếp bằng ngôn ngữ lạ, khiến nhóm nghiên cứu không thể nắm bắt nội dung hội thoại.
Nguồn Một Thế Giới: https://1thegioi.vn/khoang-trong-dao-duc-ai-trong-ky-nguyen-so-232542.html