AI và nguy cơ 'cưỡng chế ngầm' – Phần 1: Bài toán quyền lựa chọn trong pháp luật Việt Nam
Trí tuệ nhân tạo (AI) đang được triển khai ngày càng rộng rãi tại Việt Nam, từ camera giám sát và xử phạt giao thông, chấm điểm tín dụng, xét tuyển sinh, đến các hệ thống hỗ trợ ra quyết định trong lĩnh vực y tế và hành chính công.

Trong nhiều trường hợp, kết quả do AI tạo ra không chỉ mang tính tham khảo mà trực tiếp làm phát sinh hoặc ảnh hưởng đến quyền và nghĩa vụ pháp lý của cá nhân. Cụ thể, khi một thuật toán quyết định bạn có được vay vốn, được tuyển dụng hay bị xử phạt hành chính, bạn có quyền nói “không” hay không?
AI đang ngày càng tham gia trực tiếp vào các quyết định ảnh hưởng đến quyền và lợi ích của cá nhân, trong khi pháp luật Việt Nam vẫn chưa đưa ra câu trả lời rõ ràng về quyền từ chối bị xử lý bởi AI - một quyền gắn liền với nguyên tắc “lấy con người làm trung tâm” trong quản trị công nghệ.
Khi “từ chối AI” đồng nghĩa với bị loại khỏi cuộc chơi
Trong thực tiễn, việc thiếu cơ chế cho phép cá nhân từ chối hoặc yêu cầu xem xét lại quyết định do AI tạo ra có thể dẫn đến những hệ quả rất cụ thể.
Thứ nhất, trong lĩnh vực xử phạt hành chính, các hệ thống camera giám sát giao thông tự động ngày càng được sử dụng rộng rãi để phát hiện và xử phạt vi phạm. Khi một quyết định xử phạt được hình thành chủ yếu từ kết quả nhận diện và phân tích của thuật toán, người bị xử phạt hầu như không có khả năng lựa chọn phương thức xử lý khác ngoài việc chấp nhận kết quả đó.
Trong trường hợp hệ thống nhận diện sai, nhầm biển số hoặc đánh giá sai hành vi, cá nhân không có quyền yêu cầu một con người xem xét lại ngay từ đầu, mà chỉ có thể khiếu nại theo thủ tục chung, vốn tốn kém thời gian và chi phí.
AI không tạo ra sự cưỡng chế trực tiếp bằng mệnh lệnh pháp lý, nhưng tạo ra sự cưỡng chế thông qua điều kiện tiếp cận. Khi việc từ chối AI đồng nghĩa với việc không được vay vốn, không được tuyển dụng, không được giải quyết thủ tục hoặc không thể tránh bị xử phạt, thì quyền lựa chọn của cá nhân trên thực tế không còn tồn tại.
Thứ hai, trong lĩnh vực tài chính - tín dụng, các hệ thống chấm điểm tự động ngày càng đóng vai trò quyết định trong việc xét duyệt vay vốn, mở thẻ tín dụng hoặc đánh giá rủi ro khách hàng.
Một cá nhân có thể bị từ chối cấp tín dụng chỉ vì thuật toán đánh giá họ thuộc nhóm rủi ro cao, mà không được giải thích rõ lý do, cũng không có cơ chế yêu cầu đánh giá lại bởi con người. Trong bối cảnh nhiều dịch vụ tài chính thiết yếu được số hóa, việc “từ chối để AI đánh giá” trên thực tế đồng nghĩa với việc bị loại khỏi khả năng tiếp cận dịch vụ.
Thứ ba, trong tuyển dụng và quản lý lao động, một số doanh nghiệp đã bắt đầu sử dụng phần mềm sàng lọc hồ sơ, đánh giá năng lực hoặc theo dõi hiệu suất làm việc dựa trên thuật toán.
Ứng viên hoặc người lao động có thể bị loại ngay từ vòng đầu tiên mà không hề biết mình đã bị đánh giá theo tiêu chí nào, và cũng không có quyền yêu cầu con người trực tiếp xem xét lại kết quả.
Thứ tư, trong hành chính công và cung cấp dịch vụ công, việc sử dụng AI để xếp hạng hồ sơ, đánh giá điều kiện thụ hưởng chính sách hoặc phát hiện “rủi ro” gian lận có thể giúp tăng hiệu quả quản lý, nhưng đồng thời cũng đặt cá nhân vào vị thế bị xử lý mặc định bởi công nghệ.
Nếu không tồn tại cơ chế cho phép yêu cầu con người xem xét lại, cá nhân có thể bị từ chối dịch vụ hoặc kéo dài thời gian giải quyết chỉ vì kết quả đánh giá của thuật toán, mà không có khả năng lựa chọn thay thế.
Điểm chung của các tình huống trên là: AI không tạo ra sự cưỡng chế trực tiếp bằng mệnh lệnh pháp lý, nhưng tạo ra sự cưỡng chế thông qua điều kiện tiếp cận.
Khi việc từ chối AI đồng nghĩa với việc không được vay vốn, không được tuyển dụng, không được giải quyết thủ tục hoặc không thể tránh bị xử phạt, thì quyền lựa chọn của cá nhân trên thực tế không còn tồn tại.
Chính trong những bối cảnh này, việc pháp luật không ghi nhận quyền từ chối hoặc quyền yêu cầu xem xét lại bằng quyết định của con người đã làm xuất hiện một dạng “cưỡng chế ngầm của công nghệ” - nơi cá nhân buộc phải chấp nhận quyết định của AI không phải vì tin tưởng, mà vì không có con đường nào khác.
Quyền “từ chối AI” là gì - và vì sao không thể đồng nhất với quyền kiểm soát dữ liệu của chủ thể dữ liệu cá nhân?
Quyền từ chối bị xử lý bởi AI (right to refuse AI/opt-out) có thể được hiểu là quyền của cá nhân không bị đặt hoàn toàn dưới sự chi phối của các hệ thống ra quyết định tự động, đặc biệt trong những trường hợp quyết định đó tạo ra hệ quả pháp lý hoặc tác động đáng kể đến đời sống của họ.

Cần nhấn mạnh rằng, quyền từ chối AI không đồng nhất với quyền bảo vệ dữ liệu cá nhân hay quyền phản đối xử lý dữ liệu. Quyền dữ liệu chủ yếu tập trung vào việc kiểm soát việc thu thập, lưu trữ và sử dụng thông tin cá nhân, trong khi đó, quyền từ chối AI hướng đến bản thân phương thức ra quyết định.
Ngay cả trong trường hợp dữ liệu cá nhân đã được xử lý hợp pháp, minh bạch và có sự đồng ý của chủ thể dữ liệu, cá nhân vẫn có thể có lý do chính đáng để không chấp nhận việc để một hệ thống tự động ra quyết định thay cho con người. Nói cách khác, quyền từ chối AI là quyền lựa chọn cách thức ra quyết định đối với chính mình, chứ không chỉ là quyền kiểm soát dữ liệu.
(*) Tiến sĩ Luật, Giảng viên Trường Đại học Kinh tế - Luật, ĐHQG TPHCM
Các quan điểm nêu trong bài là của tác giả, không phản ánh quan điểm của cơ quan nơi tác giả công tác.











