Bảo vệ doanh nghiệp toàn diện trước các cuộc tấn công từ AI
Trí tuệ nhân tạo (AI) đang tạo ra sự dịch chuyển công nghệ nhanh nhất trong thời đại của chúng ta, nhưng đồng thời cũng định hình lại hoàn toàn bức tranh đe dọa an ninh mạng toàn cầu. Trước thách thức này, doanh nghiệp cần chủ động chuẩn bị cho mình các phương án phòng thủ hữu ích.
Ba loại tấn công đặc thù của AI
Chia sẻ tại Hội thảo “Bảo mật trong kỷ nguyên AI - Chiến lược hình thành tương lai số” do Hiệp hội An ninh mạng phối hợp với công ty Check Point Software Technologies tổ chức sáng 7/4, bà Ruma Balasubramanian, Chủ tịch Check Point khu vực châu Á - Thái Bình Dương và Nhật Bản cho biết, các cuộc tấn công dựa trên AI trong thời gian qua có thể được phân loại thành ba nhóm chính.

Bà Ruma Balasubramanian, Chủ tịch Check Point khu vực châu Á - Thái Bình Dương và Nhật Bản trả lời câu hỏi của phóng viên bên lề Hội thảo.
Thứ nhất là rò rỉ dữ liệu (Data Leakage). Việc chia sẻ không chủ ý các thông tin và dữ liệu nhạy cảm đang là một trong những lỗ hổng và rủi ro lớn nhất trong các tổ chức khi ứng dụng AI.
Thứ hai là chèn lệnh độc hại (Prompt Injection). Đây là hình thức đưa các câu lệnh không phù hợp hoặc áp dụng lệnh sai nhằm thao túng hệ thống AI. Một ví dụ điển hình là khi doanh nghiệp cấp quyền cho một tác nhân AI (AI agent) quản lý hộp thư email, tin tặc có thể thao túng bằng vài câu lệnh để đánh cắp toàn bộ email trong hộp thư mà không cần phải tương tác trực tiếp hay xâm nhập hệ thống theo cách truyền thống.
Tiếp theo là thao túng quy trình (Process Manipulation). Đó là khi tin tặc khai thác AI để can thiệp, xử lý sai lệch và thao túng các luồng quy trình vận hành của doanh nghiệp.
Bảo vệ doanh nghiệp bằng kiến trúc bảo mật toàn diện
Để đối phó với những mối đe dọa mới chưa từng có tiền lệ này, theo các chuyên gia từ Check Point, doanh nghiệp buộc phải đánh giá lại toàn bộ hạ tầng an ninh và áp dụng một kiến trúc bảo mật AI toàn diện bao gồm 3 hướng đi cốt lõi.
Đầu tiên là bảo mật AI cho lực lượng lao động. Thực tế cho thấy nhân viên thường tự ý sử dụng các công cụ AI cá nhân chưa được tổ chức kiểm duyệt, tạo ra vùng rủi ro gọi là "Shadow AI". Để xử lý triệt để, doanh nghiệp cần xác định và phân loại chính xác nhân viên đang sử dụng công cụ AI nào (đã biết, chưa biết hay hệ thống AI bí mật). Tiếp đó, doanh nghiệp cần xây dựng quy định và chính sách rõ ràng về cách thức sử dụng các công cụ AI cho nhân viên. Đồng thời, daonh nghiệp cũng cần chuẩn bị các phương án ngăn chặn rò rỉ dữ liệu nhạy cảm khi nhân viên sử dụng các công cụ AI này.
Tiếp đến là bảo mật tác nhân và mô hình AI. Doanh nghiệp cần phải hiểu rõ và kiểm soát danh tính của các tác nhân (agents) AI. Giải pháp là triển khai các công cụ bảo vệ và giám sát theo thời gian thực. Các lớp bảo vệ được tích hợp sâu vào quy trình làm việc của tác nhân AI. Yếu tố này giúp đảm bảo rằng các mô hình và tác nhân AI luôn hoạt động đúng theo cách thức đã được thiết kế và tuân thủ chuẩn xác các quy trình kinh doanh của doanh nghiệp.
Cuối cùng là thực hiện tấn công mô phỏng AI. Đây là hoạt động đánh giá rủi ro trên môi trường thực tế (real-world risk assessment). Bằng cách này, tổ chức có thể chủ động tìm ra các lỗ hổng và khắc phục kịp thời nhằm đảm bảo các mô hình AI luôn an toàn tuyệt đối khi chuẩn bị đưa vào vận hành hoặc khi đang chạy trực tiếp trên các máy chủ.
Các chuyên gia nhấn mạnh, chỉ có cách tiếp cận toàn diện bao phủ cả ba hướng đi này mới là phương án tốt nhất để bảo vệ toàn bộ tổ chức khỏi sự khắc nghiệt của các cuộc tấn công dựa trên AI.











