'Nghiên cứu xác định tội phạm AI - lỗ hổng pháp lý tiềm tàng' giành giải cao
Trong tương lai xa, sản phẩm AI có thể tự mình thực hiện hành vi phạm tội mà không cần phụ thuộc vào sự điều khiển của con người.
Với tầm nhìn đó, nhóm sinh viên Nguyễn Khánh Linh, Trần Đình Hải Nam, Đoàn Đức Mạnh, Nguyễn Công Vũ, đến từ Khoa Luật, Học viện Tòa án thực hiện đề tài nghiên cứu “Trách nhiệm hình sự đối với sản phẩm trí tuệ nhân tạo - Kiến nghị hoàn thiện pháp luật Việt Nam” với sự hướng dẫn của giảng viên – TS. Lê Hữu Du.
Đề tài đạt giải Nhất lĩnh vực Hành chính Pháp lý - Giải thưởng sinh viên nghiên cứu khoa học Euréka năm 2024.
Cần hoàn thiện hành lang pháp lý từ sớm
Đại diện nhóm sinh viên, Nguyễn Khánh Linh chia sẻ, trách nhiệm hình sự của AI (trí tuệ nhân tạo) là một vấn đề còn khá mới và ít nhận được sự quan tâm. Trong bối cảnh AI được ứng dụng rộng rãi trong nhiều lĩnh vực bên cạnh những lợi ích mang lại, sản phẩm AI cũng tiềm ẩn nhiều rủi ro xâm hại đến các quan hệ xã hội được pháp luật hình sự bảo vệ như an ninh quốc phòng; quyền con người về tính mạng, sức khỏe,...
Tuy nhiên hiện nay, pháp luật hầu như chưa có các quy định rõ ràng và đầy đủ về trách nhiệm hình sự đối với sản phẩm AI.
Tại Việt Nam, mới chỉ có trường hợp xử lý hình sự đối với các cá nhân, pháp nhân sử dụng AI nhằm thực hiện hành vi phạm tội. Trên thế giới, nhiều nước cũng chưa xây dựng được bộ tiêu chuẩn hoặc quy tắc chung để xử lý các trường hợp liên quan đến AI trong hệ thống hình sự quốc gia.
Trong tương lai xa hơn khi công nghệ AI phát triển vượt bậc, sản phẩm AI được phỏng đoán có thể tự mình thực hiện hành vi phạm tội mà không cần phụ thuộc vào sự điều khiển của con người. Nếu không hoàn thiện luật từ sớm, khả năng xuất hiện lỗ hổng pháp lý lớn trong xác định trách nhiệm hình sự sẽ gây đe dọa nghiêm trọng cho an ninh, là cơ hội cho các loại tội phạm mới nhắm vào.
Bởi vậy, việc xác định trách nhiệm hình sự đối với sản phẩm trí tuệ nhân tạo đóng vai trò quan trọng góp phần bảo vệ quyền lợi của cá nhân và tổ chức, tạo nền tảng cho một hệ thống pháp luật công bằng, minh bạch theo kịp trước tốc độ phát triển của công nghệ, từ đó xây dựng niềm tin cho cộng đồng trong việc ứng dụng trí tuệ nhân tạo vào đời sống.
Theo đó đại diện nhóm cho biết, nghiên cứu của nhóm hướng đến cung cấp cơ sở lý luận và thực tiễn giúp hoàn thiện hệ thống pháp luật và xây dựng các quy định rõ ràng về trách nhiệm hình sự đối với AI.
Ngoài ra còn mong muốn hỗ trợ các doanh nghiệp công nghệ hiểu rõ nghĩa vụ pháp lý, từ đó phát triển sản phẩm đáp ứng các yêu cầu về an toàn và đạo đức.
Đồng thời, các kết quả nghiên cứu có thể được tích hợp vào chương trình đào tạo chuyên gia pháp lý, nhằm nâng cao năng lực giải quyết những tranh chấp pháp lý liên quan đến AI trong tương lai.
Đề xuất quy định pháp luật và ràng buộc trách nhiệm
Để xác định trách nhiệm hình sự đối với AI, cần nhiều bước chuẩn bị pháp lý làm cơ sở, trong đó, nhóm cho biết điều táo bạo nhất là phải mạnh dạn coi AI là một chủ thể của tội phạm, từ đó mới đưa ra những điều kiện để trí tuệ nhân tạo phải chịu trách nhiệm hình sự, tiến tới xây dựng một chương riêng trong Bộ luật Hình sự quy định về sản phẩm AI phạm tội.
Bên cạnh đó cũng đưa ra các biện pháp đấu tranh, phòng ngừa với phương châm chủ động ngăn chặn tội phạm do sản phẩm AI gây ra, góp phần duy trì trật tự, trị an xã hội
Trong đó, nhóm chú trọng vào ý thức trách nhiệm xã hội của các cá nhân, tổ chức tham gia sản xuất, điều hành, sử dụng các sản phẩm AI.
Như kiến nghị xử lý trách nhiệm hình sự đối với một chủ thể của tội phạm mới là sản phẩm trí tuệ nhân tạo. Nhưng đồng thời cũng không loại trừ trách nhiệm hình sự đối với cá nhân, pháp nhân có lỗi trong việc để sản phẩm AI gây ra thiệt hại.
Do đó, các chủ thể của tội phạm hiện hành cần phải có trách nhiệm với chính những sản phẩm AI do mình tạo ra và điều khiển, sử dụng.
Xét trong bối cảnh hiện nay, các sản phẩm AI hoàn toàn do con người tạo ra, do đó các công ty, cá nhân sản xuất AI phải có quy trình thử nghiệm chặt chẽ sản phẩm trong quá trình sản xuất và trước khi đưa ra thị trường.
Các cơ quan có thẩm quyền cũng tham gia vào quá trình này với vai trò là chủ thể giám sát và cấp giấy phép cho các sản phẩm AI có đủ điều kiện. Khi có thiệt hại xảy ra trong quá trình sử dụng mà xác định được lỗi thuộc về cá nhân, pháp nhân sản xuất ra “đứa con độc hại”, cần có quy định xử lý mạnh.
Vậy nên, khi các cá nhân, pháp nhân ý thức được trách nhiệm của mình, số lượng sản phẩm AI được tạo ra phục vụ con người, vì con người vì mục đích chân chính sẽ gia tăng và hạn chế tối đa các sản phẩm AI “độc hại”.
Theo chia sẻ của TS. Lê Hữu Du – Phó giám đốc phụ trách Học viện Tòa án, nhóm sinh viên Nguyễn Khánh Linh, Trần Đình Hải Nam, Đoàn Đức Mạnh và Nguyễn Công Vũ đến từ lớp G khóa 6 với tinh thần làm việc nghiêm túc, say mê nghiên cứu và không ngừng học hỏi trong quá trình thực hiện đề tài. Do đó, việc vượt qua 187 đề tài đến từ 88 trường đại học, cao đẳng, học viện trên toàn quốc, trong đó có 38 trường ở TP.HCM và 50 trường thuộc các tỉnh thành khác trong cả nước để giành giải Nhất là dấu ấn đậm nét về sự sáng tạo và khả năng nghiên cứu chuyên sâu của nhóm sinh viên Học viện Tòa án.
Giải thưởng Sinh viên nghiên cứu khoa học - Euréka lần thứ 26 năm 2024 không chỉ là niềm tự hào của các thành viên trong nhóm, mà còn là minh chứng cho sự nỗ lực bền bỉ và lòng đam mê với khoa học pháp lý của sinh viên Học viện Tòa án, đồng thời khẳng định vị thế của nhà trường trong việc đào tạo và bồi dưỡng nguồn nhân lực chất lượng cao cho nền tư pháp Việt Nam.