Ứng dụng trí tuệ nhân tạo trong xử án
Cũng giống như trong nhiều ngành khác, trí tuệ nhân tạo (AI) vừa hứa hẹn những tích cực vừa tiềm ẩn rủi ro trong ngành pháp lý. Dù vậy, trong hệ thống tòa án, rủi ro khi sử dụng AI đặc biệt cao.
Thận trọng với trí tuệ nhân tạo trong tòa án
Sử dụng thuật toán dự báo để xác định điều khoản giám hộ con cái khác hoàn toàn với việc Netflix dùng AI để đề xuất phim cho khán giả. Tuy nhiều rủi ro nhưng AI và tự động hóa lại đang đóng một vai trò lớn trong hệ thống luật pháp Mỹ.
Tại Tòa án Cấp cao hạt Los Angeles ở California (tòa án lớn nhất thế giới), trợ lý trực tuyến Gina giúp người dân xử lý trát hầu tòa vì vi phạm luật giao thông. Gina biết 5 thứ tiếng và giúp trên 5.000 khách hàng mỗi tháng. GINA không phải là AI thực sự. Gina được lập trình để hoạt động theo một con đường định sẵn. Dù vậy, Gina cũng đặt nền tảng cho các quy trình tự động tinh vi hơn.
Tại Los Angeles, thành phố này đang nghiên cứu dự án Jury Chat Bot (phần mềm bồi thẩm đoàn) và có sử dụng AI thực sự. Phần mềm này đang được xây dựng dựa trên nền tảng Microsoft Cognitive Services, với các tính năng như hiểu ngôn ngữ tự nhiên, xây dựng phần hỏi đáp, dịch thuật. Tòa án Los Angeles lúc đầu tập trung nỗ lực vào quy trình triệu tập bồi thẩm đoàn.
Trong khi đó, các tòa án khác ở Mỹ đang áp dụng sáng kiến giải quyết tranh chấp trực tuyến (ODR) để xử lý một loạt xung đột. Một hệ thống ODR có thể giúp đưa ra quyết định cuối cùng khi các bên đối lập trong xung đột không thể giải quyết.
ODR sẽ cân nhắc mọi thông tin tranh chấp và đề nghị cuối cùng mà các bên đưa ra. Thuật toán có thể xem xét 10 triệu trường hợp tương tự và đưa ra kết luận công bằng. Trong thực tế, thẩm phán thật không làm như vậy mà dựa vào bối cảnh con người.
Năm 2016, Tòa án Tối cao Wisconsin đã cho phép Sở Cải tạo Wisconsin sử dụng thuật toán để giúp xác định thời hạn tù cho dù đơn vị thiết lập thuật toán không giải thích rõ các thuật toán hoạt động. Sau khi một người tên là Eric Loomis bị phán quyết có tội, bản án của người này được đưa ra dựa trên đánh giá "nguy cơ cao" mà thuật toán đưa ra. Loomis kháng cáo nhưng không được chấp nhận.
Theo các chuyên gia AI, muốn thiết lập sự tin cậy thì cần phải giải thích được cách AI hoạt động. Ông Alan Carlson, một cựu quan chức Tòa án Cấp cao Quận Cam ở California, nói: "Chúng ta phải ngừng làm những điều chỉ vì chúng ta có thể làm mà không hiểu. Trước khi áp dụng giải pháp công nghệ mới, cần phải xem ta có thực sự cần dùng AI không".
Thẩm phán Wendy Chang thuộc Tòa án Cấp cao Los Angeles tỏ ra ngần ngại về việc xây dựng các hệ thống tư pháp tự động hoàn toàn. Bà cho rằng việc này là quá chủ quan và nếu loại bỏ con người, rủi ro sẽ là quá lớn. Bà nói: "Các vấn đề pháp lý đôi khi dẫn tới hậu quả không thể sửa chữa, đặc biệt là trong những lĩnh vực như nhập cư. Phán quyết của bạn sẽ trục xuất ai đó về nước và họ bị giết hại ngay tức khắc".
Trí tuệ nhân tạo chỉ nên là... trợ lý
Theo các chuyên gia, AI chỉ nên đóng vai trò là trợ lý cho các thẩm phán. Ông Ganes Kesari, đồng sáng lập công ty tư vấn công nghệ Gramaner, cho rằng hiện giờ AI chưa sẵn sàng ra quyết định trong các vụ xét xử và thậm chí trong tương lai, AI tốt hơn hết là đóng vai trò trợ lý trong tòa án vì AI chỉ giỏi xử lý chi tiết, tổng hợp vụ án và tìm kiếm nguồn tham khảo.
Một vụ án hình sự có thể kéo dài hàng tháng hoặc hàng năm trời trong khi các bên có liên quan điều tra để đưa ra những phán quyết công tâm nhất, dựa trên nhiều thông tin nhất. Nhưng khi giao vụ án đó cho một thuật toán AI, thuật toán sẽ quét mọi thông tin liên quan vụ án chỉ trong vòng vài phút và dựa trên đó để ra phán quyết.
Câu hỏi được đặt ra là người ta có thoải mái khi bị thuật toán phán quyết? Công lý AI có được chấp nhận trong hệ thống tư pháp? Phần lớn hệ thống tư pháp đã lỗi thời và xã hội muốn thay đổi điều đó, nhưng AI có phải là câu trả lời? Theo ông Kesari, AI cần có thêm kỹ năng "hiểu" bối cảnh và diễn giải các kịch bản. Điều quan trọng là ai sẽ kiểm tra xem quyết định của AI có đúng không và ta sẽ xác định đạo đức cho thẩm phán AI thế nào khi mà rủi ro mà AI gây ra là sẽ cho ai đó vào tù.
Tại Trung Quốc, robot đã được sử dụng để truy xuất lịch sử các vụ án, phán quyết trước đây. Thậm chí còn có robot chuyên về luật thương mại hay tranh chấp trong lao động. Ở Estonia, Bộ Tư pháp đang thiết kế thẩm phán robot để xử lý các tranh chấp nhỏ bị tồn đọng.
Những ví dụ này cho thấy AI có thể giúp đẩy nhanh quy trình đang chậm trễ và gây bức xúc ở gần như mọi quốc gia. Tuy nhiên, các nước không thực sự đủ niềm tin để "thẩm phán" AI phụ trách những thứ có thể khiến ai đó vào tù hoặc bị phạt nặng.
Dù robot có thể giảm tải công việc cho nhân viên tòa án Trung Quốc nhưng trọng tâm chính của robot vẫn là hỗ trợ, chứ không phải thay thế. Ông Zhou Qiang tại Tòa án Nhân dân Tối cao Trung Quốc cho rằng ứng dụng AI trong lĩnh vực tư pháp có thể giúp thẩm phán có thêm nguồn lực lớn nhưng không thể thay thế kinh nghiệm của thẩm phán. Còn ở Estonia, mọi quyết định do AI đưa ra đều được thẩm phán thật rà soát.
Có thể có luận điểm cho rằng AI không bị cảm xúc chi phối như con người và sẽ công tâm hơn. Tuy nhiên, khi xây dựng AI, con người đã đào tạo thuật toán dựa trên nhiều thông tin không công bằng và do đó AI có thể đưa ra phán quyết thiếu công tâm.
Còn một lý do mà con người chưa thể tin cậy AI trong xử án. Đó là khi công nghệ ngày càng phát triển, có khả năng tội phạm sẽ biết cách thao túng thuật toán để mang lại kết quả có lợi cho chúng.
Ông Kesari nói: "Dù trong tương lai, AI sẽ có mặt ở mọi nơi nhưng hợp lý hơn hết vẫn là dùng AI làm thư ký tòa án. Ngay cả trong tương lai xa, ta cũng cần xây dựng hệ thống để con người tham gia vào các giai đoạn quan trọng như rà soát phán quyết hoặc bác bỏ phán quyết. Tốt nhất là giữ AI dưới tầm kiểm soát thay vì để AI kiểm soát chúng ta".