OpenAI vá lỗ hổng ChatGPT, ngăn hacker lấy dữ liệu Gmail người dùng
OpenAI vừa vá một lỗ hổng bảo mật trong ChatGPT có thể cho phép hacker trích xuất dữ liệu Gmail của người dùng, theo hãng an ninh mạng Radware.
Lỗ hổng này được phát hiện trong Deep Research, tác tử AI trong ChatGPT ra mắt vào tháng 2 để giúp người dùng phân tích lượng lớn thông tin. Lỗ hổng đó có thể giúp kẻ tấn công thu thập dữ liệu nhạy cảm từ các tài khoản Gmail cá nhân hoặc doanh nghiệp.
Những nhà nghiên cứu thuộc Radware (Israel) cho biết người dùng ChatGPT đã liên kết tài khoản Gmail với Deep Research của OpenAI có thể vô tình làm lộ dữ liệu cho hacker.
Tác tử AI là ứng dụng AI được thiết kế để tự động quan sát, suy luận và thực hiện hành động nhằm đạt mục tiêu đã định. Khác với một ứng dụng AI tĩnh chỉ trả lời khi có lệnh, tác tử AI có khả năng nhận dữ liệu hoặc tín hiệu từ môi trường, phân tích và lên kế hoạch dựa trên kiến thức hoặc thuật toán có sẵn, chủ động thực hiện các bước tiếp theo, thậm chí phối hợp với con người hoặc các tác tử khác để hoàn thành nhiệm vụ.
Ví dụ, một tác tử AI có thể liên tục quét email, tự động soạn và gửi phản hồi phù hợp. Trong phần mềm, tác tử AI có thể tự lập kế hoạch sửa lỗi và tối ưu mã nguồn mà không đợi từng chỉ dẫn cụ thể.
Deep Research được thiết kế để thực hiện nghiên cứu trực tuyến một cách toàn diện hơn thay cho người dùng và trả lời các câu hỏi phức tạp. Tác tử AI này cũng có thể kết nối với tài khoản Gmail của người dùng nếu họ cho phép.
Phản hồi từ OpenAI
Radware phát hiện ra lỗ hổng này, song một số nhà nghiên cứu nói rằng không có bằng chứng nào cho thấy hacker đã khai thác nó. OpenAI phản hồi với Radware rằng đã vá lỗ hổng đó.
Một người phát ngôn OpenAI cho biết sự an toàn trong các mô hình AI là rất quan trọng và đang không ngừng cải thiện các tiêu chuẩn để làm cho công nghệ của mình trở nên vững chắc hơn trước những hành vi khai thác như vậy.
"Các nhà nghiên cứu thường kiểm tra hệ thống AI này theo cách đối kháng. OpenAI hoan nghênh nghiên cứu của họ vì điều đó giúp chúng tôi cải thiện", người phát ngôn này nói thêm.

OpenAI vừa vá lỗ hổng ChatGPT có thể cho phéo hacker lấy dữ liệu Gmail của người dùng - Ảnh: Internet
“Công ty thậm chí không biết thông tin đang bị rò rỉ”
Trong khi hacker gần đây đã triển khai các công cụ AI để tiến hành cuộc tấn công riêng, phát hiện của Radware là ví dụ tương đối hiếm hoi về việc tác tử AI có thể bị khai thác để đánh cắp thông tin của người dùng.
Để chứng minh lỗ hổng này, các nhà nghiên cứu Radware đã tự gửi cho mình một email với các hướng dẫn ẩn, yêu cầu Deep Research tìm kiếm trong hộp thư đến các thông tin cá nhân như họ tên đầy đủ và địa chỉ. Radware sau đó đã chỉ đạo Deep Research gửi dữ liệu đó đến một địa chỉ web do họ kiểm soát.
Pascal Geenens, Giám đốc nghiên cứu mối đe dọa của Radware, nói đối tượng bị nhắm đến trong vụ đánh cắp dữ liệu này không click vào bất cứ thứ gì mà vẫn có thể bị kẻ tấn công xâm nhập dữ liệu cá nhân.
“Nếu một tài khoản doanh nghiệp bị xâm nhập, công ty thậm chí sẽ không biết thông tin đang bị rò rỉ”, ông Pascal Geenens nói.
Deep Research là tác tử AI có khả năng thực hiện nghiên cứu nhiều bước trên internet cho các nhiệm vụ phức tạp mà theo OpenAI, "hoàn thành trong vài phút đến vài chục phút những gì con người phải mất nhiều giờ".
Người dùng chỉ cần cung cấp một yêu cầu là Deep Research sẽ tìm kiếm, phân tích và tổng hợp hàng trăm nguồn trực tuyến để tạo ra một báo cáo toàn diện ở cấp độ của nhà phân tích nghiên cứu.
Deep Research phục vụ cho các chuyên gia trong lĩnh vực tài chính, khoa học, chính sách và kỹ thuật, cung cấp những thông tin chi tiết đáng tin cậy và toàn diện. Tính năng này cũng hữu ích với những người mua sắm đang tìm kiếm các đề xuất được cá nhân hóa về giao dịch mua đòi hỏi phải nghiên cứu cẩn thận, chẳng hạn ô tô, đồ gia dụng và đồ nội thất.
Kết quả gồm các trích dẫn và tóm tắt rõ ràng, giúp dễ dàng xác minh. Về cơ bản, Deep Research giúp tinh giản quá trình nghiên cứu tốn thời gian, cung cấp thông tin chuyên sâu hiệu quả chỉ từ một truy vấn.
Sam Altman, Giám đốc điều hành OpenAI, từng mô tả Deep Research là "giống một siêu năng lực, hoạt động như nhóm chuyên gia sẵn sàng hỗ trợ bạn". Ông cho biết Deep Research có thể "sử dụng internet, thực hiện nghiên cứu, lập luận phức tạp và trả về cho bạn một báo cáo", xử lý các nhiệm vụ "mất nhiều giờ/ngày và tốn hàng trăm USD".
Cảnh báo chi tiết về lỗ hổng liên quan Deep Research
Trên trang web của mình, Radware gọi đây là ShadowLeak - lỗ hổng đầu tiên kiểu rò rỉ dữ liệu phía dịch vụ, không cần click, khai thác prompt injection gián tiếp trong ChatGPT, được công ty phát hiện và thông báo có trách nhiệm tới OpenAI. OpenAI đã xác nhận và vá lỗ hổng này.
Prompt injection gián tiếp là loại lỗ hổng bảo mật trong các hệ thống AI như ChatGPT, nơi kẻ tấn công chèn các lệnh độc hại vào dữ liệu đầu vào mà AI sẽ xử lý, nhưng không trực tiếp nhắm vào người dùng. Thay vào đó, AI vô tình thực thi các lệnh này khi xử lý yêu cầu hợp pháp từ người dùng, dẫn đến việc rò rỉ dữ liệu hoặc thực hiện hành động ngoài ý muốn.
Bên dưới là nhận định chi tiết về ShadowLeak của Radware.
Tác động với doanh nghiệp: Có nguy cơ lộ thông tin cá nhân/nhạy cảm, dữ liệu giao dịch, chiến lược pháp lý và thông tin đăng nhập; có khả năng vi phạm các quy định pháp lý, gây tổn hại uy tín và gây lừa đảo theo chuỗi.
Lỗ hổng không cần click: Không cần người dùng bấm hoặc mở liên kết độc hại; các tác vụ thông thường cũng có thể kích hoạt việc rò rỉ dữ liệu.
Rò rỉ phía dịch vụ: Dữ liệu nhạy cảm và riêng tư bị rò rỉ trực tiếp từ máy chủ của OpenAI, mà không thông qua ứng dụng ChatGPT trên thiết bị do tổ chức quản lý. Điều này khiến tổ chức bị ảnh hưởng gần như không thể phát hiện dữ liệu bị rò rỉ.
Phạm vi: Bất kỳ nguồn dữ liệu nào được kết nối với ChatGPT đều có thể được tác tử AI sử dụng và thông tin bị rò rỉ từ hạ tầng của OpenAI.
Radware là hãng chuyên về an ninh mạng và quản lý hiệu suất ứng dụng. Công ty Israel này chuyên cung cấp giải pháp bảo vệ hệ thống, mạng và ứng dụng khỏi các cuộc tấn công mạng như DDoS (tấn công từ chối dịch vụ), lỗ hổng bảo mật và mối đe dọa khác. Ngoài ra, Radware cũng nghiên cứu các lỗ hổng bảo mật và phát hiện nguy cơ tiềm ẩn, như trường hợp lỗ hổng trong ChatGPT mà họ vừa phát hiện.
Các lỗ hổng bảo mật mà OpenAI từng vá trong ChatGPT
Trước đây, OpenAI từng vá một số lỗ hổng bảo mật nghiêm trọng trong ChatGPT, đặc biệt liên quan đến việc tích hợp với các dịch vụ bên ngoài như Gmail, Google Drive và Google Calendar. Dưới đây là ba lỗ hổng đáng chú ý:
1. Lỗ hổng rò rỉ dữ liệu từ Google Drive qua tài liệu độc hại
Các nhà nghiên cứu bảo mật Michael Bargury và Tamir Ishay Sharbat phát hiện ra rằng tài liệu Google Drive chứa mã độc có thể khai thác lỗ hổng trong ChatGPT Connectors để trích xuất dữ liệu nhạy cảm mà không cần người dùng tương tác. Kỹ thuật này được gọi là AgentFlayer, sử dụng prompt injection giấu trong tài liệu để buộc ChatGPT gửi dữ liệu nhạy cảm ra ngoài mà không có bất kỳ hành động nào từ phía người dùng. Hồi tháng 8, OpenAI đã triển khai các biện pháp khắc phục sau khi nhận được thông báo từ các nhà nghiên cứu.
ChatGPT Connectors là các công cụ hoặc giao diện kết nối được OpenAI phát triển để cho phép ChatGPT truy cập và tương tác trực tiếp với dịch vụ bên ngoài như Gmail, Google Drive, Google Calendar, Slack, Outlook hoặc các nền tảng dữ liệu khác.
2. Lỗ hổng từ lời mời Google Calendar độc hại
Nhà nghiên cứu bảo mật Eito Miyamura chỉ ra rằng một lời mời Google Calendar chứa mã độc có thể lợi dụng kết nối giữa ChatGPT với Gmail để truy cập và làm rò rỉ email cá nhân. Lỗ hổng này khai thác việc ChatGPT tự động xử lý các sự kiện trong lịch, cho phép kẻ tấn công chèn mã độc vào mô tả sự kiện để thực thi các lệnh không mong muốn. Mới đây, OpenAI đã khuyến nghị người dùng tắt tính năng tự động kết nối và kiểm tra cài đặt Google Calendar để giảm thiểu rủi ro.
3. Lỗ hổng trong tính năng chia sẻ cuộc trò chuyện với công cụ tìm kiếm
Vào tháng 8, OpenAI đã thử nghiệm tính năng cho phép người dùng chia sẻ cuộc trò chuyện của mình với công cụ tìm kiếm như Google. Tuy nhiên, tính năng này vô tình làm lộ thông tin nhạy cảm của người dùng khi họ chia sẻ liên kết cuộc trò chuyện. OpenAI đã gỡ bỏ tính năng này và cam kết cải thiện bảo mật và quyền riêng tư của người dùng.