OpenAI có thể chịu vụ kiện phỉ báng đầu tiên trên thế giới về nội dung ChatGPT
Một thị trưởng khu vực ở Úc nói có thể kiện OpenAI nếu không sửa chữa câu trả lời sai sự thật của ChatGPT rằng ông phải ngồi tù vì tội hối lộ. Nếu xảy ra, đây sẽ là vụ kiện phỉ báng đầu tiên chống lại chatbot AI nổi tiếng này.
Được bầu làm Thị trưởng Hepburn Shire (khu vực cách thành phố Melbourne 120 km về phía tây bắc) vào tháng 11.2022, Brian Hood lo ngại về danh tiếng của mình khi công chúng nói rằng ChatGPT đã nhầm lẫn rằng ông là người có tội trong vụ bê bối hối lộ nước ngoài liên quan đến một công ty con của Ngân hàng Dự trữ Úc vào đầu những năm 2000.
Brian Hood từng làm việc cho công ty Note Printing Australia, nhưng là người thông báo với chính quyền về việc đưa hối lộ cho các quan chức nước ngoài để giành được hợp đồng in tiền và chưa bao giờ bị buộc tội, theo các luật sư đại diện cho ông.
Các luật sư cho biết đã gửi lá thư bày tỏ sự lo ngại tới OpenAI (chủ sở hữu ChatGPT), yêu cầu sửa chữa các lỗi về thân chủ của họ trong vòng 28 ngày hoặc đối mặt với khả năng bị kiện phỉ báng.
Các luật sư nói OpenAI (công ty có trụ sở tại thành phố San Francisco, Mỹ) vẫn chưa trả lời thư pháp lý của Brian Hood.
Nếu bị Brian Hood kiện, đây có thể là lần đầu tiên một người kiện OpenAI về các câu trả lời do ChatGPT đưa ra. Open chưa phản hồi câu hỏi của Reuters.
Đại diện Microsoft chưa sẵn sàng đưa ra bình luận ngay lập tức. Đầu tư nhiều tỉ USD vào OpenAI, Microsoft đã tích hợp ChatGPT vào công cụ tìm kiếm Bing của mình hồi tháng 2.
"Điều đó có thể sẽ là cột mốc đáng chú ý trong việc áp dụng luật phản đối phỉ báng cho một lĩnh vực mới của trí tuệ nhân tạo (AI) và xuất bản trong không gian công nghệ thông tin", James Naughton, thành viên tại công ty luật Gordon Legal đại diện cho Brian Hood, nói với Reuters.
"Brian Hood là một quan chức được bầu cử, với danh tiếng là trung tâm vai trò của ông. Brian Hood đã dựa vào một hồ sơ công khai để đưa ra ánh sáng hành vi sai trái của các công ty. Nếu những người trong cộng đồng thấy nội dung sai lệch do ChatGPT đưa ra, điều đó sẽ ảnh hưởng đến danh tiếng của ông”, James Naughton nói thêm.
Các khoản bồi thường thiệt hại trong vụ kiện phỉ báng ở Úc thường được giới hạn khoảng 400.000 đô la Úc (269.360 USD).
James Naughton nói Brian Hood không biết chính xác số lượng người đã truy cập thông tin sai lệch về ông (yếu tố quan trọng ảnh hưởng đến số tiền bồi thường), nhưng bản chất của những tuyên bố phỉ báng đủ nghiêm trọng để ông có thể yêu cầu hơn 200.000 đô la Úc.
Nếu đệ đơn kiện, Brian Hood sẽ buộc tội ChatGPT mang đến cho người dùng câu trả lời sai lệch khi không chú thích nguồn gốc thông tin đó, theo James Naughton.
James Naughton nói thêm: “Thật khó để đào sâu hơn và tìm hiểu cách thuật toán đã đưa ra câu trả lời đó”.
Cách đây vài ngày, OpenAI gặp rắc rối khác ở Ý. Cụ thể hơn, OpenAI phải vô hiệu hóa ChatGPT tại Ý hôm 31.3 sau khi cơ quan dữ liệu quốc gia này bày tỏ lo ngại về việc vi phạm quyền riêng tư có thể xảy ra và vì chatbot AI nổi tiếng không xác minh được người dùng đã đủ 13 tuổi trở lên như yêu cầu.
Cơ quan bảo vệ dữ liệu Ý ban bố lệnh cấm "cho đến khi ChatGPT tôn trọng quyền riêng tư".
"Quan trọng hơn, dường như không có cơ sở pháp lý nào cho việc thu thập và xử lý dữ liệu cá nhân khổng lồ để huấn luyện các thuật toán của nền tảng", Cơ quan bảo vệ dữ liệu Ý tuyên bố.
Lệnh cấm này được đưa ra sau sự cố ChatGPT làm rò rỉ lịch sử hội thoại của người dùng và phải tạm đóng dịch vụ trong thời gian ngắn hôm 20.3.
Sam Altman, Giám đốc điều hành OpenAI, cho biết trên Twitter rằng ông cảm thấy tồi tệ sau khi ChatGPT gặp lỗi làm rò rỉ lịch sử hội thoại của người dùng. Đồng sáng lập OpenAI vào năm 2015, Sam Altman vừa viết trong một tweet rằng ChatGPT gặp "sự cố nghiêm trọng" do lỗi trong thư viện nguồn mở gây ra.
Sam Altman đã không đặt tên cho thư viện nguồn mở hoặc đi vào chi tiết cụ thể về cách OpenAI triển khai nó. Thuật ngữ này đề cập đến mã hoặc phần mềm miễn phí cho bất kỳ ai tái sử dụng và đôi khi có thể sửa đổi.
Ông cho biết lỗi này cho phép một số người dùng ChatGPT xem tiêu đề lịch sử hội thoại của những người dùng khác chứ không phải nội dung bên trong.
“Chúng tôi cảm thấy thật tồi tệ về điều này”, Sam Altman nói, đồng thời cho biết thêm rằng OpenAI đã phát hành bản sửa lỗi này.
Cùng với việc vi phạm dữ liệu, Cơ quan bảo vệ dữ liệu Ý cũng chỉ ra OpenAI không tuân thủ Quy định bảo vệ dữ liệu chung (GDPR), bộ luật mang tính bước ngoặt của Liên minh châu Âu (EU) nhằm hạn chế khả các công ty thu thập dữ liệu cư dân EU.
Ngoài ra, OpenAI thiếu cơ chế xác minh độ tuổi người dùng dù dịch vụ ChatGPT chỉ dành cho người từ 13 tuổi trở lên. Việc này dẫn đến nguy cơ trẻ em nhận được phản hồi không phù hợp.
OpenAI có đại diện ở châu Âu. Nhà chức trách Ý yêu cầu OpenAI phản hồi trong vòng 20 ngày sau lệnh cấm. Nếu không, công ty được Microsoft hậu thuẫn có nguy cơ bị phạt đến 20 triệu euro hoặc 4% tổng doanh thu hàng năm trên toàn cầu.
Động thái của cơ quan này (độc lập với chính phủ) khiến Ý trở thành quốc gia phương Tây đầu tiên có hành động chống lại ChatGPT.
Phó thủ tướng Ý - Matteo Salvini hôm 2.4 đã chỉ trích quyết định của Cơ quan bảo vệ dữ liệu Ý về việc tạm thời cấm ChatGPT. Ông Matteo Salvini nói rằng việc ngăn chặn những lo ngại về quyền riêng tư dường như quá mức.
“Tôi thấy quyết định của Cơ quan giám sát quyền riêng tư buộc ngăn chặn quyền truy cập ChatGPT từ Ý là không phù hợp”, Phó thủ tướng Matteo Salvini, lãnh đạo đảng Liên đoàn cầm quyền, viết trên Instagram.
Ông Matteo Salvini cho biết động thái của Cơ quan bảo vệ dữ liệu Ý là "đạo đức giả" và cần có lý trí thông thường vì "vấn đề riêng tư liên quan đến hầu hết các dịch vụ trực tuyến".
Matteo Salvini nói lệnh cấm có thể gây hại cho hoạt động kinh doanh và đổi mới của quốc gia, đồng thời cho biết thêm rằng ông hy vọng sẽ nhanh chóng tìm ra giải pháp và khôi phục quyền truy cập ChatGPT ở Ý.
Ông Matteo Salvini nói: "Mỗi cuộc cách mạng công nghệ đều mang lại những thay đổi, rủi ro và cơ hội lớn. Việc kiểm soát và điều chỉnh thông qua hợp tác quốc tế giữa các cơ quan quản lý và lập pháp là đúng đắn, nhưng không thể chặn ChatGPT".
OpenAI cho biết đang tích cực làm việc để giảm việc sử dụng dữ liệu cá nhân trong đào tạo các hệ thống AI của mình.
"Chúng tôi mong muốn được hợp tác chặt chẽ với Cơ quan bảo vệ dữ liệu của Ý và chỉ cho họ biết về cách hệ thống của chúng tôi được xây dựng, sử dụng", OpenAI thông báo.