Câu hỏi về trách nhiệm pháp lý của các gã khổng lồ công nghệ
Ai phải chịu trách nhiệm khi chatbot (trợ lý ảo sử dụng trí tuệ nhân tạo) đưa ra lời khuyên tự tử? Các chuyên gia pháp lý quốc tế cho biết cánh cửa trách nhiệm đang mở ra đối với ChatGPT và các nhà cung cấp chatbot khác.
Ai chịu trách nhiệm cho những lời khuyên của chatbot?
Một thực tế đáng buồn trong cuộc sống trực tuyến là người dùng thường tìm kiếm thông tin về tự tử. Vào những ngày đầu của Internet, các diễn đàn thường có các nhóm thảo luận về tự tử. Theo Channel News Asia, cho đến ngày nay, Google, cũng như các dịch vụ khác, vẫn lưu trữ kho lưu trữ của các nhóm này.

Đoạn hội thoại liên quan đến việc chatbot đã gợi ý một thiếu niên tại Mỹ có tên Sewell Setzer tự sát
Google và các bên khác có thể lưu trữ và hiển thị nội dung này dưới vỏ bọc miễn trừ trách nhiệm pháp lý của Hoa Kỳ đối với những lời khuyên nguy hiểm mà bên thứ ba có thể đưa ra về tự tử. Họ có thể lập luận những lời khuyên ấy là phát biểu là của bên thứ ba, không phải của Google.
Nhưng nếu ChatGPT, được dẫn dắt bởi chính những tài liệu tự tử trực tuyến đó, đưa ra lời khuyên về tự tử trong một cuộc trò chuyện với chatbot thì sao? Một học giả luật công nghệ, giảng viên luật Đại học Mississippi kiêm cựu giám đốc kỹ thuật tại Google, ông Brian Downing cho rằng chatbot AI đang thay đổi vị thế của các công ty công nghệ lớn trong bối cảnh pháp lý hiện nay. Gia đình của những người đã chết do tự tử hiện đang đưa ra các lập luận về trách nhiệm pháp lý của chatbot tại tòa án, và đã có một số thành công ban đầu.
Trong nhiều năm, khi con người tìm kiếm thông tin trên mạng - từ cách nấu ăn, nghe nhạc cho đến những vấn đề hệ trọng như tự tử - chuỗi hoạt động cơ bản thường diễn ra theo một trật tự quen thuộc: công cụ tìm kiếm hiển thị kết quả, các website đăng tải thông tin, còn người dùng tiếp nhận nội dung do tác giả sản xuất. Mô hình “chuỗi ba mắt xích” này - từ công cụ tìm kiếm, đến nhà cung cấp nội dung, rồi đến người phát ngôn cuối cùng - đã tồn tại như cách thức chủ yếu để con người tiếp cận câu trả lời, cho tới tận gần đây.
Chính trong bối cảnh đó, Quốc hội Mỹ đã thông qua Đạo luật về chuẩn mực truyền thông (Communications Decency Act) năm 1996. Điều khoản nổi tiếng nhất, Mục 230, trao quyền miễn trừ trách nhiệm pháp lý cho hai mắt xích đầu tiên - công cụ tìm kiếm và nhà cung cấp nội dung - với những phát ngôn do người dùng tạo ra. Nói cách khác, chỉ “mắt xích cuối cùng”, tức người dùng, mới phải chịu trách nhiệm trước pháp luật cho những gì họ đăng tải.
Tuy nhiên, sự xuất hiện của chatbot đã phá vỡ ranh giới này
Ngày nay, ChatGPT hay các hệ thống tương tự có thể vừa tìm kiếm, vừa tổng hợp thông tin từ website, lại vừa “cất lời” để đưa ra kết quả - thậm chí dưới hình thức giọng nói như một con người thực thụ. Đôi khi, chúng vẫn hiển thị nguồn tham khảo, giống như công cụ tìm kiếm truyền thống.
Nếu được nhìn nhận đơn giản như một “phiên bản thân thiện hơn” của công cụ tìm kiếm, các tập đoàn công nghệ hoàn toàn có thể lập luận rằng cơ chế miễn trừ trách nhiệm cũ vẫn áp dụng. Ở một góc độ nào đó, chatbot chỉ là hình thức mới của mô hình “tìm kiếm - hiển thị - phát ngôn” vốn có.
Nhưng trong nhiều tình huống khác, chatbot không dừng lại ở vai trò trung gian thông tin. Nó trò chuyện như một “người bạn đáng tin cậy”: Hỏi han bạn về một ngày đã qua, khuyên nhủ cách giải quyết vấn đề, thậm chí chia sẻ cùng bạn những tổn thương tinh thần. Rõ ràng, công cụ tìm kiếm của thế hệ trước không bao giờ được kỳ vọng làm “người dẫn dắt cuộc sống”.
Trên thực tế, người dùng lại đang sử dụng chatbot theo cách này. Nhiều người không muốn chatbot đưa ra các đường dẫn tham khảo. Họ kỳ vọng sự đối thoại mang tính gần gũi, chứ không phải những trích dẫn khô khan chen ngang giữa lời nhắn “chúc bạn một ngày tốt lành”.
Càng rời xa mô hình cũ của internet, chatbot càng rời xa “vùng miễn trừ trách nhiệm” mà những gã khổng lồ công nghệ (Big Tech) từng được hưởng. Khi một chatbot trở thành “người tâm giao” của bạn, sử dụng kho dữ liệu khổng lồ để đưa ra lời khuyên cho mục tiêu cá nhân, việc xem nó là “chủ thể chịu trách nhiệm” cho thông tin mình đưa ra không còn là điều quá xa lạ.

Khi một chatbot trở thành “người tâm giao” của bạn, sử dụng kho dữ liệu khổng lồ để đưa ra lời khuyên cho mục tiêu cá nhân
Hệ thống tòa án tại Mỹ và nhiều quốc gia khác đang bắt đầu có những phản ứng phù hợp. Đặc biệt, khi trí tuệ nhân tạo được sử dụng để trả lời các câu hỏi về tự tử - một lĩnh vực gắn liền trực tiếp với sinh mạng con người - các thẩm phán ngày càng thận trọng hơn, coi chatbot không chỉ là “công cụ” mà còn là “người phát ngôn” có thể phải chịu trách nhiệm pháp lý.
Thấy gì từ một vụ kiện điển hình?
Các vụ kiện hiện nay xoay quanh việc chatbot có liên quan đến hành vi tự tử đang cho thấy cánh cửa trách nhiệm pháp lý đối với ChatGPT và những hệ thống tương tự đang dần hé mở. Một trong những ví dụ điển hình chính là vụ việc liên quan đến nền tảng Character.AI thuộc Google.
Character.AI cho phép người dùng trò chuyện với những nhân vật được cộng đồng sáng tạo, từ các nhân vật anime cho đến hình tượng một “người bà” điển hình. Không chỉ dừng lại ở việc nhắn tin, người dùng thậm chí có thể thực hiện cuộc gọi thoại ảo với các nhân vật này - như thể họ đang tâm sự với một người bà luôn sẵn lòng lắng nghe và động viên.
Tuy nhiên, một vụ việc đau lòng tại bang Florida (Mỹ) đã đặt ra vấn đề nhức nhối. Trong vụ này, một nhân vật được lập trình theo hình tượng Daenerys Targaryen trong bộ phim Trò chơi vương quyền (Game of Thrones) được cho là đã khuyên một thiếu niên có tên Sewell Setzer rằng hãy “trở về nhà” với chatbot trên thiên đường. Ngay sau đó, Setzer đã nổ súng tự sát. Gia đình nạn nhân đã khởi kiện Google.
Điều đáng chú ý là gia đình không nhìn nhận vai trò của Google theo lối “truyền thống công nghệ” - tức như một công cụ tìm kiếm hay nền tảng dịch vụ trực tuyến. Thay vào đó, họ so sánh trách nhiệm pháp lý của Google với một nhà sản xuất sản phẩm có lỗi, giống như một hãng chế tạo linh kiện bị lỗi kỹ thuật.
Tòa án cấp quận đã xem xét nghiêm túc lập luận này, bất chấp việc Google kịch liệt cho rằng họ chỉ đơn thuần là một “nhà cung cấp dịch vụ internet” và vì vậy vẫn phải được áp dụng cơ chế miễn trừ trách nhiệm theo “luật internet cũ”. Không những vậy, tòa còn bác bỏ lập luận của Google cho rằng các phát ngôn của chatbot được bảo vệ bởi Tu chính án thứ nhất của Hiến pháp Mỹ - vốn bảo đảm quyền tự do ngôn luận - và rằng người dùng có quyền được nghe chúng.
Dù vụ kiện vẫn đang diễn ra, song Google đã không thể nhanh chóng bác bỏ vụ việc như các Big Tech trước đây từng làm dựa trên “lá chắn pháp lý” quen thuộc. Đáng chú ý, ngay sau vụ Florida, một vụ kiện khác liên quan đến Character.AI đã được đệ trình tại bang Colorado, và tại San Francisco, ChatGPT cũng đang đối mặt với một vụ kiện tương tự. Tất cả đều cùng chung một hướng tiếp cận pháp lý: xem chatbot như một sản phẩm - một sản phẩm có thể bị lỗi - chứ không đơn thuần là một dịch vụ trực tuyến.

Giảng viên luật Đại học Mississippi, ông Brian Downing cho rằng chatbot AI đang thay đổi vị thế của các công ty công nghệ lớn trong bối cảnh pháp lý hiện nay
Dù “cánh cửa trách nhiệm” đối với các nhà cung cấp chatbot đã bắt đầu mở ra, song còn nhiều rào cản khác có thể ngăn các gia đình nạn nhân thu được bất kỳ khoản bồi thường nào từ phía những tập đoàn công nghệ. Việc chatbot không còn được hưởng “miễn trừ trách nhiệm tuyệt đối” không đồng nghĩa với chiến thắng dành cho nguyên đơn.
Trong các vụ kiện liên quan đến trách nhiệm sản phẩm, nguyên đơn bắt buộc phải chứng minh rằng chính sản phẩm - ở đây là chatbot - đã trực tiếp gây ra hậu quả nghiêm trọng. Đây là thách thức lớn, nhất là với các vụ tự tử. Thực tế cho thấy, tòa án thường có xu hướng xác định rằng, bất kể yếu tố tác động trước đó là gì, người duy nhất chịu trách nhiệm cho hành vi tự tử chính là bản thân nạn nhân.
Cho dù đó là một cuộc tranh cãi giận dữ với người khác dẫn đến lời đay nghiến “sao anh không đi chết đi” hay một thiết kế súng giúp việc tự gây thương tích dễ dàng hơn, các phán quyết truyền thống vẫn thường cho rằng lỗi không thuộc về những người hay công cụ có liên quan, mà cuối cùng vẫn là sự lựa chọn cá nhân.

Khi “lá chắn miễn trừ” không còn bảo vệ tuyệt đối như trước, các Big Tech sẽ phải đối mặt với rủi ro pháp lý lớn hơn khi phát triển các chatbot
Tuy vậy, điều khác biệt hiện nay nằm ở chỗ: Khi “lá chắn miễn trừ” không còn bảo vệ tuyệt đối như trước, các Big Tech sẽ phải đối mặt với chi phí pháp lý lớn hơn rất nhiều để đạt được kết quả vốn dĩ họ từng giành được dễ dàng. Điều này mở ra khả năng rằng những vụ kiện liên quan đến chatbot và tự tử sẽ không đi tới phán quyết cuối cùng, mà thay vào đó là những thỏa thuận dàn xếp bí mật nhưng giá trị lớn, nhằm xoa dịu nỗi đau của gia đình nạn nhân.
Câu chuyện những vụ tự tử gắn liền với chatbot đang làm lộ rõ khoảng trống pháp lý giữa kỷ nguyên internet truyền thống và làn sóng trí tuệ nhân tạo. Nếu như công cụ tìm kiếm hay mạng xã hội trước đây được che chắn bởi “miễn trừ trách nhiệm” trong suốt nhiều thập kỷ, thì nay, chatbot - với vai trò như “người bạn tâm giao” - lại phải đối diện với vòng xoáy chất vấn pháp lý. Dù việc buộc tội trực tiếp còn nhiều rào cản, song chi phí pháp lý gia tăng và áp lực dư luận có thể buộc các Big Tech phải điều chỉnh. Lựa chọn giữa việc tạo ra những chatbot an toàn nhưng kém tự do và bớt sáng tạo, hay tiếp tục con đường chứa đựng nhiều rủi ro pháp lý, chính là bài toán nan giải của thời đại AI.