Dùng AI tấn công mạng: Nguy hiểm và khó lường
Sự phát triển của trí tuệ nhân tạo (AI) mang đến nhiều lợi ích cho cuộc sống, nhưng đồng thời cũng tạo ra những nguy cơ mới, đặc biệt là trong lĩnh vực an ninh mạng. Hacker lợi dụng AI để thực hiện các cuộc tấn công mạng với mức độ nguy hiểm và khó lường hơn.
Dễ dàng khai thác các lỗ hổng
Một trong những hình thức nở rộ gần đây là hacker sử dụng AI để bẻ khóa mật khẩu. Vào tháng 7-2024, bảng tổng hợp mật khẩu lớn nhất lịch sử đã bị phát tán trực tuyến, bao gồm 10 tỷ mật khẩu dưới dạng văn bản và 8,2 tỷ mật khẩu chứa ký tự đặc biệt. Qua nghiên cứu của hãng bảo mật Kaspersky, tình trạng mật khẩu bị rò rỉ diễn ra thường xuyên, gây ảnh hưởng đến nhiều doanh nghiệp non trẻ lẫn những doanh nghiệp đi đầu trong lĩnh vực công nghệ.
Ông Alexey Antonov, Trưởng nhóm Khoa học dữ liệu tại Kaspersky, cho biết: “Chúng tôi đã tiến hành phân tích sự cố rò rỉ và phát hiện 32% mật khẩu người dùng không đủ mạnh. Dù đã được mã hóa ở dạng hàm băm mật mã (hash form), nhưng những mật khẩu này vẫn có thể khôi phục về dạng văn bản thuần túy. Bằng các thuật toán, công đoạn khôi phục chỉ mất khoảng 60 phút”.
Các chuyên gia bảo mật cảnh báo, thông qua AI, kẻ xấu có thể khai thác các nội dung lừa đảo, bao gồm văn bản, hình ảnh, âm thanh và video để triển khai tấn công phi kỹ thuật. Những mô hình ngôn ngữ lớn (large language model) như ChatGPT được tận dụng để tạo ra kịch bản và tin nhắn lừa đảo vô cùng tinh vi.
Vượt qua rào cản ngôn ngữ, AI có thể viết ra một email chân thật, chỉ cần dựa vào thông tin trên mạng xã hội và thậm chí, AI có thể bắt chước văn phong của nạn nhân… khiến hành vi lừa đảo khó phát hiện hơn. Hơn nữa, công nghệ AI đang được tội phạm mạng sử dụng để dễ dàng viết các phần mềm độc hại mới, tạo ra các cuộc tấn công lừa đảo mới, tinh vi với nhiều kịch bản đa dạng.
Trong báo cáo tình hình an ninh mạng năm 2024, Công ty bảo mật Bkav từng nêu ra, thách thức lớn nhất đối diện với công nghệ AI ngày nay là lừa đảo và tấn công có chủ đích APT, với mức độ ngày càng phức tạp của các kịch bản lừa đảo, đặc biệt khi kết hợp giữa deepfake (dùng công nghệ AI giả mạo hình ảnh, giọng nói nhằm mục đích xấu, lừa đảo chiếm đoạt tài sản) và ChatGPT. Khả năng thu thập và phân tích dữ liệu người dùng thông qua AI cho phép tạo ra những chiến lược lừa đảo tinh vi, khiến việc nhận diện lừa đảo sẽ khó khăn hơn đối với người dùng.
Các bước tấn công mạng bằng Al
Bước 1: Thu thập dữ liệu
Thu thập thông tin từ mạng xã hội, nguồn mở, cơ sở dữ liệu
Bước 2: Huấn luyện Al
Huấn luyện mô hình AI để phát hiện lỗ hổng hoặc lập chiến thuật tấn công
Bước 3: Tạo tấn công
Tạo email lừa đảo, phần mềm độc hại hoặc deepfake
Bước 4: Triển khai tấn công
Phát tán chiến dịch lừa đảo, cài mã độc hoặc thực hiện DDoS
Bước 5: Phản ứng thích nghi
AI điều chỉnh chiến thuật để vượt qua các biện pháp bảo mật
Bước 6: Khai thác
Trích xuất dữ liệu nhạy cảm hoặc làm gián đoạn hệ thống
Bước 7: Phản hồi và cải tiến
Phân tích kết quả và cải thiện tấn công trong tương lai.
Tấn công mạng khắp các lĩnh vực
Ông Vũ Ngọc Sơn, Giám đốc kỹ thuật Công ty cổ phần Công nghệ an ninh mạng quốc gia (NCS) nhận định, AI đang được tội phạm mạng sử dụng trong các mục đích tấn công, phá hoại ngày một nhiều. Việc tội phạm mạng dùng AI nhanh chóng sản xuất các email lừa đảo, mạo danh giống như thật, thậm chí sử dụng văn phong của những người nổi tiếng để tăng khả năng đánh lừa người dùng… sẽ tiếp diễn trong thời gian tới.
Tội phạm mạng dùng AI để nhanh chóng tạo ra các đoạn mã độc mới mà không mất thời gian để lập trình từng dòng mã. Điều này khiến cho mã độc mới liên tục xuất hiện và biến đổi nhanh, làm cho việc thu thập mẫu, phát triển công cụ diệt mã độc trở nên phức tạp hơn, khó phát hiện hơn.
Ngoài ra, hacker cũng sẽ khai thác các lỗ hổng phần mềm (exploit) bằng việc nhờ AI tạo ra các đoạn mã khai thác theo yêu cầu, phân tích các kết quả trả về để tiếp tục tối ưu, cải tiến các đoạn mã khai thác cho tới khi tấn công thành công các phần mềm. Đây là cách hacker có thể dùng AI để tìm ra các lỗ hổng Zero day trên các phần mềm thương mại phổ biến.
Báo cáo từ Imperva chỉ ra, từ tháng 4 đến tháng 9-2024, các trang web bán lẻ phải hứng chịu hơn 500.000 cuộc tấn công mạng sử dụng AI mỗi ngày. Những cuộc tấn công này thường xuất phát từ các công cụ AI như ChatGPT hay Gemini, cùng với các bot được thiết kế để thu thập dữ liệu từ trang web cho quá trình huấn luyện các mô hình ngôn ngữ lớn (LLM). Tội phạm mạng được cho là chủ yếu sử dụng công cụ này trong các cuộc tấn công lạm dụng logic kinh doanh, tấn công từ chối dịch vụ phân tán (DDoS), tấn công bot xấu và vi phạm giao diện lập trình ứng dụng (API).
Tổng giám đốc bộ phận an ninh ứng dụng tại Imperva, chúng ta đã chứng kiến các mối đe dọa an ninh như bot Grinch và các cuộc tấn công DDoS gây ra sự gián đoạn lớn, ảnh hưởng cả nhà bán lẻ lẫn người tiêu dùng. Hiện nay, với sự phổ biến rộng rãi của công cụ AI tạo sinh, các nhà bán lẻ đang phải đối mặt với một làn sóng đe dọa mạng tinh vi hơn.
Hiệp hội An toàn thông tin Việt Nam cùng các tổ chức bảo mật đã phát triển nhiều giải pháp phòng chống tấn công mạng theo phương châm dùng AI để chống tấn công mạng bằng AI.
Hiện nay, các giải pháp AI được sử dụng để bảo vệ hệ thống mạng khỏi các cuộc tấn công, như: phát hiện xâm nhập (Intrusion Detection), phân tích hành vi (Behavioral Analysis), phát hiện phần mềm độc hại (Malware Detection) hay phản ứng tự động (Automated Response)… nhằm tăng cường khả năng bảo vệ tổng thể của hệ thống phòng chống tấn công mạng bằng cách liên tục học hỏi và cải thiện.
Nguồn SGGP: https://sggp.org.vn/dung-ai-tan-cong-mang-nguy-hiem-va-kho-luong-post772572.html