Mã nguồn do AI tạo ra trở thành rủi ro an ninh với doanh nghiệp
Các công cụ viết mã bằng AI đang nhanh chóng trở thành một trong những rủi ro an ninh lớn nhất đối với doanh nghiệp, khi nhiều đoạn mã trông hoàn chỉnh và đúng kỹ thuật nhưng lại tiềm ẩn lỗ hổng khó phát hiện.

Ảnh minh họa: Getty Images
Theo khảo sát mới công bố của hãng an ninh mạng Black Duck, số nhóm công nghệ phải phân loại và kiểm soát mức độ sử dụng mã do mô hình ngôn ngữ lớn (LLM) tạo ra đã tăng 12% trong năm qua. Đồng thời, số quy tắc bảo mật riêng để phát hiện lỗi từ mã AI cũng tăng thêm 10%.
Giám đốc điều hành Black Duck Jason Schmitt cảnh báo rủi ro lớn nhất của mã do AI tạo ra không nằm ở lỗi hiển nhiên mà ở “ảo giác về tính đúng đắn”. Các đoạn mã nhìn chuyên nghiệp nhưng vẫn có thể che giấu những lỗ hổng bảo mật nghiêm trọng, trong khi lập trình viên ngày càng có xu hướng tin tưởng quá mức vào AI.
Khảo sát cho thấy các quy định pháp lý đang thúc đẩy mạnh đầu tư an ninh phần mềm, với việc áp dụng danh mục thành phần phần mềm (SBOM) tăng gần 30% và xác minh hạ tầng tự động tăng hơn 50%. Nhiều tổ chức cũng đẩy mạnh công bố lỗ hổng có trách nhiệm nhằm đáp ứng yêu cầu mới từ châu Âu và Mỹ.
Trong khi đó, nghiên cứu của Aikido cho biết AI hiện viết khoảng 24% mã nguồn sản xuất toàn cầu và là nguyên nhân của 20% các vụ vi phạm an ninh.
Một khảo sát khác của Sonar cho thấy gần một nửa lập trình viên không kiểm tra lại mã do AI tạo ra, làm gia tăng đáng kể nguy cơ rủi ro cho doanh nghiệp.












