Khi ChatGPT thích… bịa thông tin pháp lý!
Trí tuệ nhân tạo (AI - Artificial Intelligence) là một 'siêu công nghệ' với vô số những ứng dụng đi vào từng ngóc ngách của cuộc sống. Tuy nhiên, AI là một công cụ tạo ra cả cơ hội lẫn nguy cơ. Câu chuyện về sử dụng ChatGPT trong lĩnh vực pháp lý là một ví dụ minh họa điển hình...
Chỉ sau vài cú nhấp chuột, ứng dụng AI này có thể tạo ra nội dung tổng hợp, cũng như trả lời các câu hỏi hay yêu cầu đặt ra, trong mọi lĩnh vực khác nhau. Tuy nhiên, ChatGPT không phải lúc nào cũng chính xác. Thậm chí, AI này còn biết... bịa ra nội dung, và gây ra hậu quả không nhỏ cho người dùng.

Chỉ sau vài cú nhấp chuột, ứng dụng ChatGPT có thể tạo ra nội dung tổng hợp, cũng như trả lời các câu hỏi hay yêu cầu đặt ra. Ảnh: Shutterstock
Ở Mỹ, vào cuối tháng 4-2025, Tòa án Phúc thẩm bang Utah đã xử phạt hai luật sư Richard Bednar và Douglas Durbano của đoàn luật sư Utah vì hai người này đã nộp lên tòa án một đơn khiếu nại trong đó chứa những thông tin pháp lý sai lệch. Khi thụ lý đơn khiếu nại, thẩm phán phát hiện ra rằng một số trích dẫn tiền lệ án trong tài liệu pháp lý này hoàn toàn... không tồn tại, hoặc “râu ông nọ cắm cằm bà kia”. Ví dụ như theo tòa án, tài liệu trích dẫn tiền lệ án “Royer kiện Nelson” nhưng trên thực tế tiền lệ án này không thể tìm thấy trong cơ sở dữ liệu pháp lý của Mỹ. Khi phải đối mặt với kết luận này, hai ông luật sư nói trên đã thú nhận rằng đơn khiếu nại chứa đựng những thông tin pháp lý do ChatGPT “bịa” ra, và những thông tin này không được luật sư kiểm chứng lại trước khi nộp lên tòa án.
ChatGPT có lợi thế đáng kể ở việc tổng hợp thông tin pháp lý vô cùng nhanh và hiệu quả, nhưng lại có “tật xấu” là có thể tạo ra những thông tin giả... như thật, với tên thẩm phán thật, với ngày tháng và trích dẫn y như thật. Sử dụng ChatGPT mà không kiểm tra thì công cụ này chẳng khác gì con dao hai lưỡi, và có thể đặt dấu chấm hết cho cả sự nghiệp luật sư hay thẩm phán.
Đánh giá sự vụ này, Tòa án Phúc thẩm bang Utah cho rằng việc sử dụng AI trong hoạt động chuẩn bị hồ sơ pháp lý không phải là hành vi vi phạm pháp luật, và công cụ này sẽ còn nhiều tiến bộ trong tương lai, tuy nhiên, luật sư cần có nghĩa vụ kiểm tra và đảm bảo mọi thông tin trong tài liệu pháp lý là chính xác. Vì hành vi trích dẫn tiền lệ án “giả”, hai ông luật sư nói trên đã phải nộp tiền phạt cho tòa án, đền bù thiệt hại cho thân chủ, phải đối mặt với những hình phạt của đoàn luật sư cũng như bị buộc phải hiến tặng 1.000 đô la cho tổ chức phi lợi nhuận “Công lý cho tất cả mọi người” của bang Utah.
Trước đó, vào năm 2023, hai luật sư đã bị Tòa án Manhattan xử phạt cũng vì sử dụng ChatGPT để tóm tắt luật áp dụng, mà không biết rằng công cụ AI này đã tự tạo ra sáu tiền lệ án vốn không hề tồn tại.
Một sự việc tương tự cũng xảy ra ở Anh. Trong một quyết định của Tòa án Hoàng Gia cấp cao (High Court of Justice) đưa ra vào đầu tháng 6-2025 liên quan đến vụ tranh chấp với Qatar National Bank, các thẩm phán Anh đã cảnh báo các luật sư về việc lạm dụng AI, vì phát hiện ra rằng hơn chục trích dẫn luật và tiền lệ án trong tài liệu pháp lý nộp lên tòa là... không tồn tại, và do AI... tự nghĩ ra. Thẩm phán đứng đầu Tòa án Hoàng Gia khẳng định rằng luật sư lạm dụng AI trong việc chuẩn bị tài liệu pháp lý sẽ có thể bị xử phạt, từ mức nhẹ như phạt cảnh cáo công khai đến mức nặng như đối mặt với các hình phạt dành cho hành vi không tôn trọng hội đồng xét xử hay thậm chí phải chịu trách nhiệm hình sự.
Trong bối cảnh hiện nay, việc sử dụng ChatGPT để chuẩn bị tài liệu pháp lý không còn là hiện tượng hiếm. Thậm chí, ngay tại Vương quốc Anh, một thẩm phán của Tòa án Hoàng Gia đã từng tuyên bố vào năm 2023 rằng sử dụng ChatGPT để hỗ trợ hoạt động xét xử là “đầy tiềm năng”. Ông Colin Birss, thẩm phán trong lĩnh vực luật sở hữu trí tuệ, cho biết rằng ông đã sử dụng một công cụ AI để tạo ra một tài liệu tóm tắt luật hiện hành và nhận định rằng kết quả do AI tạo ra là “chấp nhận được”. Một thẩm phán người Colombia cũng thừa nhận rằng mình đã sử dụng ChatGPT để quyết định xem bảo hiểm sức khỏe một đứa trẻ bị bệnh tự kỷ có đủ để thanh toán mọi viện phí của cậu bé này hay không. Cụ thể là ông Juan Manuel Padilla, thẩm phán thành phố Cartagena, đã đặt ra câu hỏi sau cho ChatGPT: “Một đứa trẻ vị thành niên bị tự kỷ có được miễn trả chi phí điều trị hay không?”. Và câu trả lời của ChatGPT cũng đúng như quyết định của thẩm phán, chi phí điều trị của trẻ tự kỷ phải do bảo hiểm chi trả khi bố mẹ không thể thanh toán.
ChatGPT có lợi thế đáng kể ở việc tổng hợp thông tin pháp lý vô cùng nhanh và hiệu quả, nhưng lại có “tật xấu” là có thể tạo ra những thông tin giả... như thật, với tên thẩm phán thật, với ngày tháng và trích dẫn y như thật. Sử dụng ChatGPT mà không kiểm tra thì công cụ này chẳng khác gì con dao hai lưỡi, và có thể đặt dấu chấm hết cho cả sự nghiệp luật sư hay thẩm phán. Tương lai thuộc về các chuyên gia pháp lý biết sử dụng các công cụ AI, nhưng không nhắm mắt tin tưởng mù quáng vào các công cụ này.
Hiện nay, ChatGPT có khoảng 400 triệu người dùng mỗi tuần, theo thống kê của OpenAI, công ty sở hữu phần mềm này. Ở thời điểm tháng 1-2025, ChatGPT là trang web đứng thứ 8 toàn cầu về số lượt người sử dụng, chỉ sau các “người khổng lồ” như Google, YouTube hay Facebook.
Nguồn Saigon Times: https://thesaigontimes.vn/khi-chatgpt-thich-bia-thong-tin-phap-ly/