CEO OpenAI cảnh báo: đừng dại mà kể hết chuyện thầm kín với ChatGPT
Trong một cuộc trò chuyện thẳng thắn trên podcast 'This Past Weekend' của Theo Von vừa qua, CEO OpenAI Sam Altman đã đưa ra lời cảnh báo bất ngờ cho hàng triệu người dùng ChatGPT trên toàn thế giới.
Altman kêu gọi hãy cẩn thận khi chia sẻ những vấn đề riêng tư nhất với AI, bởi vì không giống như bác sĩ hay luật sư, ChatGPT không thể bảo vệ bí mật của bạn.
Sự thật về người bạn tâm giao AI
Altman thừa nhận một cách thẳng thắn: "Mọi người kể về những chuyện cá nhân nhất trong đời với ChatGPT. Đặc biệt là giới trẻ, họ sử dụng nó như một nhà trị liệu tâm lý, một người dẫn lối, tâm sự về các vấn đề tình cảm và hỏi: tôi nên làm gì?".
Điều này nghe có vẻ vô hại, thậm chí còn tích cực. Trong thời đại mà việc tiếp cận dịch vụ tâm lý còn nhiều rào cản về tài chính và tâm lý, ChatGPT đã trở thành "người bạn" sẵn sàng lắng nghe 24/7. Nhưng thực tế lại không đơn giản như vậy.

Khác với việc tâm sự với bác sĩ tâm lý, luật sư hay bác sĩ - những người được pháp luật bảo vệ bằng quy định về bí mật nghề nghiệp - cuộc trò chuyện với ChatGPT lại không có bất kỳ sự bảo vệ pháp lý nào. Đây chính là khoảng trống nguy hiểm mà ngành công nghiệp AI chưa thể lấp đầy.
Vấn đề trở nên nghiêm trọng hơn khi Altman tiết lộ: nếu có vụ kiện tụng, OpenAI có thể bị buộc phải cung cấp tất cả những cuộc trò chuyện của người dùng. CEO OpenAI thẳng thắn nói: "Tôi nghĩ điều này rất tệ. Chúng ta nên có cùng một khái niệm về quyền riêng tư cho cuộc trò chuyện với AI như chúng ta có với nhà trị liệu hay bất kỳ ai khác".
Đây không chỉ là lo ngại lý thuyết. Hiện tại, OpenAI đang phải đối mặt với lệnh của tòa án trong vụ kiện với The New York Times, yêu cầu công ty phải lưu trữ cuộc trò chuyện của hàng trăm triệu người dùng ChatGPT toàn cầu. OpenAI đã kháng cáo, gọi đây là "sự vượt quá thẩm quyền", nhưng việc này cho thấy mức độ nghiêm trọng của vấn đề.
Bài học về quyền riêng tư
Những lo ngại về quyền riêng tư không phải là điều xa vời. Altman đã nhắc đến precedent đáng lo ngại: sau khi Tòa án tối cao Mỹ lật ngược phán quyết Roe v. Wade, nhiều phụ nữ đã chuyển sang sử dụng các ứng dụng theo dõi kinh nguyệt riêng tư hơn hoặc Apple Health với tính năng mã hóa, vì sợ dữ liệu của họ có thể được sử dụng chống lại mình.
Điều này không phải chuyện đùa. Trong thời đại mà dữ liệu số có thể trở thành bằng chứng pháp lý, việc các công ty công nghệ thường xuyên bị trát đòi hầu tòa để cung cấp dữ liệu người dùng nhằm hỗ trợ truy tố hình sự đã trở thành chuyện bình thường.
Đặc biệt đáng lo ngại là thế hệ trẻ - những người thường cởi mở hơn với công nghệ và có xu hướng chia sẻ nhiều hơn trên các nền tảng số. Họ có thể không nhận ra rằng những cuộc trò chuyện "riêng tư" với ChatGPT về các vấn đề nhạy cảm như sức khỏe tâm thần, tình cảm, hay thậm chí các vấn đề pháp lý có thể một ngày nào đó được đưa ra làm bằng chứng.
Khi Theo Von chia sẻ rằng anh không sử dụng ChatGPT nhiều vì lo ngại về quyền riêng tư, Altman đã thừa nhận: "Tôi nghĩ việc thực sự muốn có sự rõ ràng về quyền riêng tư trước khi sử dụng ChatGPT nhiều là điều hợp lý - như sự rõ ràng về mặt pháp lý".
OpenAI cũng đang loay hoay
Thú vị là chính CEO của OpenAI cũng thừa nhận công ty đang trong tình trạng "loay hoay" để giải quyết vấn đề này. Altman nhấn mạnh rằng đây là vấn đề mà "không ai phải nghĩ đến dù chỉ một năm trước". Tốc độ phát triển của AI đã vượt xa khả năng của các hệ thống pháp lý và chính sách hiện tại.
OpenAI hiểu rằng thiếu sự bảo vệ quyền riêng tư có thể cản trở việc người dùng áp dụng rộng rãi hơn. Công ty đang phải cân bằng giữa việc tuân thủ yêu cầu pháp lý và bảo vệ quyền riêng tư của người dùng - một cuộc đấu tranh mà kết quả sẽ ảnh hưởng đến cả ngành công nghiệp AI.
Trong khi chờ đợi những thay đổi về mặt pháp lý và chính sách, người dùng nên cẩn trọng khi chia sẻ thông tin nhạy cảm với ChatGPT hay bất kỳ AI nào khác. Những điều bạn nên cân nhắc việc tránh chia sẻ: Thông tin y tế cá nhân; chi tiết về các vấn đề pháp lý; thông tin có thể được sử dụng để nhận dạng bạn; các vấn đề tâm lý sâu sắc và nhạy cảm...
Bạn cần ghi nhớ rằng: Cuộc trò chuyện với AI không được bảo vệ bởi bí mật nghề nghiệp; dữ liệu có thể được yêu cầu trong các vụ kiện tụng; không có gì đảm bảo tính bảo mật tuyệt đối...
Tương lai của quyền riêng tư AI
Lời cảnh báo của Altman không chỉ là một lời khuyên cho người dùng, mà còn là lời kêu gọi hành động cho các nhà làm luật và chính sách. Khi AI ngày càng trở thành một phần không thể thiếu trong cuộc sống, việc xây dựng khung pháp lý bảo vệ quyền riêng tư cho những cuộc trò chuyện này trở nên cấp bách hơn bao giờ hết.
Có thể chúng ta cần một "Doctor-Patient Confidentiality 2.0" (Bảo mật bác sĩ - Bệnh nhân 2.0) cho thời đại AI - một hệ thống bảo vệ pháp lý mới để đảm bảo rằng những cuộc trò chuyện riêng tư nhất của con người với AI sẽ được giữ bí mật, giống như cách chúng ta bảo vệ những cuộc trò chuyện với bác sĩ hay luật sư.
Cho đến khi đó, hãy nhớ lời khuyên của chính CEO OpenAI: hãy cẩn trọng với những gì bạn chia sẻ. ChatGPT có thể là một công cụ hữu ích, nhưng nó không phải là bác sĩ tâm lý hay bạn tâm giao của bạn, ít nhất là về mặt pháp lý.