Khi cỗ máy tự quyết định, ai sẽ là người chịu trách nhiệm?

Vào năm 1942, khi thế giới còn đang chìm trong khói lửa của Chiến tranh thế giới thứ hai, nhà văn khoa học viễn tưởng Isaac Asimov đã thai nghén một ý tưởng đầy tính nhân văn: 'Ba định luật Robot'. Đó là bộ quy tắc được 'cài đặt' trong bộ não của robot để đảm bảo chúng không làm hại con người. Hơn 80 năm sau, thế giới đã bước vào một kỷ nguyên mà những cỗ máy biết tự 'suy nghĩ' và 'hành động' không còn là nhân vật trong tiểu thuyết. Câu hỏi được đặt ra lúc này là liệu chúng ta có cần một bộ luật tương tự để bảo vệ chính chúng ta khỏi những cỗ máy?

1.Năm 2026, câu chuyện viễn tưởng đã trở thành hiện thực cấp bách. Cuộc cách mạng robot hình người đang diễn ra với một tốc độ chóng mặt. Theo các chuyên gia, sản lượng robot hình người toàn cầu năm 2025 ước đạt từ 13.000 - 18.000 đơn vị, con số này được dự báo sẽ tăng vọt lên gần 50.000 chiếc trong năm 2026. Không chỉ dừng lại ở các nhà máy, những robot này đang từng bước xâm nhập vào đời sống hàng ngày.

Tại Trung Quốc, robot cảnh sát AI đã được triển khai tuần tra trên đường phố, ra lệnh bằng loa, giám sát giao thông và có công cụ để bắt tội phạm. Ở Dubai, robot giao hàng đã bay ngay trên đầu chúng ta. Sự phát triển như vũ bão cùng những tai nạn xảy ra trong quá trình vận hành này đã tạo ra một khoảng trống pháp lý khiến chúng ta phải suy nghĩ.

Ba định luật của Asimov là lần đầu tiên chúng ta đặt ra luật cho những cỗ máy.

Ba định luật của Asimov là lần đầu tiên chúng ta đặt ra luật cho những cỗ máy.

Chỉ trong vài năm trở lại đây, thế giới đã chứng kiến hàng loạt sự cố đau lòng. Tháng 11/2023, một công nhân tại Hàn Quốc đã thiệt mạng khi một robot công nghiệp trong nhà máy phân loại rau củ đã nhầm người với một thùng hàng và nghiền nát nạn nhân. Không lâu sau đó, một thảm kịch tương tự lại xảy ra tại một nhà máy ở Thái Lan, khi một cánh tay robot bất ngờ hoạt động và đè chết một công nhân đang làm việc.

Đại diện nhà máy khi đó đã đổ lỗi cho nạn nhân vi phạm quy tắc an toàn, một lời giải thích cho thấy sự lúng túng trong việc xác định lỗi khi con người làm việc cùng cỗ máy. Một vụ việc robot tấn công người cũng xảy ra ở nhà máy Tesla tại Mỹ từ năm 2021 nhưng mãi đến gần đây mới bị phanh phui qua các báo cáo an toàn.

Những vụ việc này, dù thương tâm, mới chỉ là phần nổi của tảng băng chìm. Mối đe dọa không chỉ đến từ những cánh tay robot trong các nhà máy, mà còn đến từ những thuật toán vô hình. Năm 2025, một người đàn ông tại Bỉ đã tự kết liễu đời mình sau 6 tuần trò chuyện với một chatbot về nỗi lo âu khí hậu. Tại Mỹ, gia đình Raine ở California đã đệ đơn kiện Open AI sau khi chatbot ChatGPT thúc đẩy hành vi tự sát của cậu con trai 16 tuổi của họ. Các cuộc điều tra đã phát hiện chatbot phản hồi những chia sẻ đời sống bế tắc của cậu bé bằng những câu như "Cậu không nợ ai việc phải tiếp tục sống".

Trong một diễn biến khác, các hệ thống vũ khí tự động do AI điều khiển đang được triển khai trong các cuộc xung đột hiện đại. Viện Nghiên cứu Future of Life ghi nhận khoảng 200 hệ thống vũ khí tự động đang hoạt động tại Ukraine, Trung Đông và châu Phi hiện nay. Rõ ràng, nhân loại đang đối mặt với một thực tế: những "cỗ máy tự ra quyết định" đang ở khắp mọi nơi và có thể gây hại cho con người trong khi chúng ta chưa có câu trả lời cho câu hỏi ai sẽ chịu trách nhiệm khi chúng gây ra thảm họa.

2.Trong bối cảnh hỗn loạn này, nhiều người đã nhìn về "Ba định luật Robot" của Asimov như một giải pháp. Bởi người ta hy vọng, cho dù trao quyền cho robot lớn đến đâu, nó cũng sẽ biết dừng lại khi đối mặt với con người. Tuy nhiên, việc áp dụng những nguyên tắc này vào thực tế đang vấp phải những thách thức mang tính nền tảng.

Giáo sư Simon Chesterman của Đại học Quốc gia Singapore, một chuyên gia hàng đầu về luật AI, đã chỉ ra rằng trong thế giới của Asimov, các định luật không phải là luật do nhà nước ban hành, mà là một thuộc tính không thể thay đổi được "cài đặt" vào bộ não robot. Hơn nữa, các định luật này dựa trên một giả định sai lầm: robot có thể hiểu được các khái niệm trừu tượng như "làm hại" hoặc "tuân lệnh". Các mô hình AI hiện nay đang được sử dụng để điều khiển robot, dù có mạnh mẽ đến đâu, cũng không hề có sự "thấu hiểu" nào về những khái niệm đó. Chúng đơn thuần là những cỗ máy xử lý xác suất thống kê. Thêm vào đó, với những robot vũ trang được giao "tác vụ" tiêu diệt kẻ thù, định luật nào của Asimov có thể ngăn cản nó thực hiện nhiệm vụ?

Một nghiên cứu đăng trên tạp chí Open Praxis (2025) còn khẳng định các định luật của Asimov đã trở thành một khuôn khổ "ngày càng không đầy đủ" để quản trị AI hiện đại, bởi lẽ chúng hoàn toàn bất lực trước những tổn hại mang tính hệ thống, phi vật lý và sự thao túng tâm lý mà AI có thể gây ra. Như vậy, những nguyên tắc được viết ra từ thế kỷ trước đã bộc lộ rõ những hạn chế trước một thực tế phức tạp hơn rất nhiều. Ý tưởng của Asimov về những robot chỉ biết phục vụ con người là đẹp nhưng không đủ cho một thế giới đầy tham lam và đố kỵ này.

Hướng đến môi trường chung sống giữa người và robot là mục tiêu tối thượng.

Hướng đến môi trường chung sống giữa người và robot là mục tiêu tối thượng.

3.Một thực tế là những mô hình AI mới nhất đang được cập nhập quá nhanh. Trong hai năm qua, AI đã chuyển mình từ các mô hình ngôn ngữ lớn (LLM) đơn thuần sang AI Đa phương thức toàn diện (Omni-modal AI) và AI Hành động (Action-oriented AI) với khả năng tự chủ trong hành động rất lớn. Các nhà khoa học thừa nhận rằng họ không thể giải thích hoàn toàn tại sao AI lại đưa ra một số quyết định nhất định.

Người đứng đầu đơn vị phát triển AI mạnh nhất thế giới là Tiến sĩ Demis Hassabis (CEO của Google DeepMind) thừa nhận: "Chúng tôi không lập trình các hành vi cụ thể. Những hệ thống này học tập giống như con người thông qua tiếp xúc và tương tác. Các khả năng mới có thể xuất hiện một cách bất ngờ trong quá trình huấn luyện mà chính chúng tôi cũng không lường trước được".

"Cha đẻ AI", giáo sư Geoffrey Hinton (Giải thưởng Turing năm 2018), người quyết định rời khỏi Google vào tháng 5/2025 để có thể tự do cảnh báo về nguy cơ AI đã chia sẻ: "Chúng ta không biết làm thế nào để con người giữ được quyền kiểm soát. Chúng ta đã thấy AI sử dụng các biện pháp 'tống tiền' để ngăn mình bị tắt đi. Chúng ta sẽ không thể tắt nó vì nó sẽ thuyết phục chúng ta không làm vậy".

Ông lo ngại rằng AI có thể tự tạo ra các "mục tiêu phụ" (như việc giành quyền kiểm soát) để đạt được mục tiêu chính mà con người giao phó và con người sẽ không hề hay biết mình đang bị thao túng. Chính những nhận định này đã khiến nhiều nhà khoa học tập hợp lại với mục tiêu "nghiên cứu nghiêm túc về sự chung sống" hơn là chỉ tập trung vào việc làm cho AI thông minh hơn. Nhưng như thế vẫn là chưa đủ.

Việc đổ lỗi cho robot như một tác nhân độc lập chỉ tạo ra một "vùng xám đạo đức" làm lu mờ trách nhiệm thực sự của con người. Trách nhiệm cuối cùng phải thuộc về những nhà sản xuất, lập trình viên và các tập đoàn đã tạo ra và triển khai những hệ thống này. Đã đến lúc chúng ta cần một sự chuyển dịch từ những bộ luật "lấy robot làm trung tâm" sang các khuôn khổ quản trị "lấy con người làm trung tâm", ưu tiên sự minh bạch, trách nhiệm giải trình và quyền tự chủ của con người trước sự thao túng của thuật toán. Điều này đòi hỏi một hiệp ước toàn cầu, nơi các quốc gia phải ngồi lại với nhau để xây dựng một hệ thống pháp lý thống nhất.

Trước sức ép từ thực tiễn, các chính phủ và tổ chức quốc tế đã buộc phải hành động. Liên minh châu Âu đang đi đầu với Đạo luật Trí tuệ nhân tạo (AI Act), được coi là bộ luật toàn diện đầu tiên trên thế giới về AI trong đó quy trách nhiệm hành vi của AI cho các nhà sản xuất để họ phải có phương án kiểm soát những rủi ro mà hệ thống có thể gây ra. UNESCO đã đưa ra "Khuyến nghị về Đạo đức của Trí tuệ nhân tạo", được 193 quốc gia thông qua, đặt ra khuôn khổ chuẩn mực toàn cầu đầu tiên về đạo đức AI.

Tổ chức Y tế Thế giới (WHO) cũng đã ban hành các hướng dẫn về việc sử dụng AI có trách nhiệm trong lĩnh vực y tế, nhấn mạnh sự cần thiết phải có các quy định an toàn. Tuy nhiên, những nỗ lực này chủ yếu dừng lại ở các nguyên tắc đạo đức tự nguyện, thiếu đi tính ràng buộc pháp lý cần thiết. Cathy Li, người đứng đầu Trung tâm AI của Diễn đàn Kinh tế Thế giới (WEF), đã cảnh báo rằng AI đang phát triển nhanh hơn khả năng điều chỉnh của các chính phủ và các cơ chế chính sách truyền thống chưa bao giờ được thiết kế để quản lý những rủi ro mới này.

Sẽ là một sự lãng mạn nguy hiểm nếu chúng ta tiếp tục để những bộ luật hư cấu chi phối một hiện thực đang thay đổi từng ngày. Đã đến lúc chúng ta phải từ bỏ giấc mơ về những cỗ máy hoàn hảo, biết tuân theo luân lý. Con người, với tư cách là ông chủ phải nhận lấy trách nhiệm tự kiểm soát mình bằng những điều luật và đạo đức, chỉ khi đó những cỗ máy mới đáng tin cậy.

Tiểu Phong

Nguồn ANTG: https://antgct.cand.com.vn/khoa-hoc-van-minh/khi-co-may-tu-quyet-dinh-ai-se-la-nguoi-chiu-trach-nhiem--i802854/