'Điểm mù' mới của quản trị doanh nghiệp

Hầu hết 'pháo đài' an ninh mạng hiện nay được thiết kế để bảo vệ hạ tầng, thiết bị đầu cuối và danh tính người dùng, chứ không phải để giám sát cách nhân viên tương tác với dịch vụ AI của bên thứ ba.

Trong bối cảnh các doanh nghiệp đổ xô ứng dụng trí tuệ nhân tạo (AI) để tăng tốc quy trình, một lỗ hổng bảo mật nghiêm trọng đã xuất hiện ngay từ bên trong mà ít đội ngũ an ninh nào kịp chuẩn bị. Đó chính là "Shadow AI" – thuật ngữ chỉ việc nhân viên tự ý sử dụng các công cụ AI tạo sinh mà không thông qua sự phê duyệt hay kiểm soát của bộ phận công nghệ thông tin (CNTT).

Dù nhân viên thường sử dụng AI với ý định tốt, như soạn thảo văn bản, tóm tắt tài liệu, phân tích dữ liệu hay tự động hóa tác vụ lặp đi lặp lại, nhưng rủi ro bảo mật đi kèm lại đang âm thầm tích tụ. Báo cáo an ninh mạng năm 2025 của IBM cho thấy, cứ 5 tổ chức thì 1 đơn vị từng chịu vi phạm an ninh mạng liên quan đến Shadow AI. Đáng báo động hơn, 97% trong số này hoàn toàn thiếu cơ chế kiểm soát quyền truy cập của các công cụ AI.

Khi công nghệ đi trước chính sách

Shadow AI không đơn thuần là hành động bột phát của vài cá nhân mà là vấn đề mang tính cấu trúc. Trong rất nhiều tổ chức, tốc độ ứng dụng AI đã vượt xa các chính sách quản lý hiện hành. Báo cáo năm 2026 của công ty an ninh mạng Saviynt chỉ ra 71% giám đốc an ninh thông tin (CISO) cho biết công cụ AI đã âm thầm xâm nhập các hệ thống kinh doanh cốt lõi, nhưng chỉ 16% có cơ chế quản trị thực sự hiệu quả.

Một báo cáo đáng chú ý khác là Cyber Pulse 2026 từ Microsoft cho thấy hơn 80% công ty thuộc nhóm Fortune 500 đang chủ động sử dụng tác nhân AI. Chúng được nhúng sâu vào các quy trình bán hàng, tài chính, chăm sóc khách hàng và phát triển sản phẩm. Tuy nhiên, chỉ 10% công ty có chiến lược quản lý rõ ràng đối với những tác nhân này.

Minh họa cho thực trạng này, một CISO tại tập đoàn tài chính thuộc Fortune 100 chia sẻ: "Chúng tôi đã dành 3 năm xây dựng kiến trúc bảo mật tuyệt đối (Zero Trust), viết chính sách cho từng hệ thống, từng người dùng. Thế rồi, một nhân viên trên sàn giao dịch yêu cầu ChatGPT tóm tắt danh mục đầu tư. Một tuần sau, bộ phận CNTT phát hiện 47 tác nhân AI tự chạy trên 6 bộ phận kinh doanh mà họ chưa từng phê duyệt, kiểm toán, thậm chí không hề biết tên”.

Giới chuyên gia cảnh báo sự lệch pha giữa tốc độ triển khai AI và khả năng quản trị là rủi ro lớn nhất đối với doanh nghiệp năm 2026. Các khung quản trị vốn dành cho con người, nhưng tác nhân AI không phải con người. Đó chính là điểm mù tạo điều kiện cho các sự cố an ninh mạng.

Kẽ hở của công cụ truyền thống

Hầu hết các "pháo đài" an ninh mạng hiện nay được thiết kế để bảo vệ hạ tầng, thiết bị đầu cuối và danh tính người dùng, chứ không phải để giám sát cách nhân viên tương tác với dịch vụ AI của bên thứ ba.

Công cụ an ninh truyền thống có thể nhận diện virus và mã độc, nhưng "mù" trước việc nhân viên dán dữ liệu khách hàng nhạy cảm vào chatbot. Các cổng bảo mật đám mây kiểm soát được phần mềm cấp phép, nhưng nhiều công cụ AI vận hành qua tiện ích trình duyệt hay tài khoản cá nhân – “vùng xám” không ai quản lý rõ ràng. Nhiều nhân viên cũng cấp quyền truy cập rộng rãi cho tác nhân AI để "phòng hờ", nhưng hiếm khi thu hồi chúng khiến rủi ro lộ lọt dữ liệu rất lớn.

Sự nguy hiểm của Shadow AI không giới hạn ở máy tính văn phòng. Theo báo cáo của công ty bảo mật thiết bị di động Lookout, hơn 60% tổ chức không thể giám sát việc sử dụng AI trên điện thoại của nhân viên. Ông Jim Dolce, Giám đốc điều hành Lookout cảnh báo: "Việc áp dụng AI đang nhanh hơn tốc độ tăng cường kiểm soát của hầu hết các tổ chức, đặc biệt là trên thiết bị di động, nơi hoạt động AI thường diễn ra ngoài ranh giới truyền thống của doanh nghiệp và gần như vô hình".

Hậu quả đã hiện rõ. Điển hình như sự cố của McDonald's, nơi kiểm soát danh tính lỏng lẻo làm lộ hàng triệu hồ sơ ứng viên. Hay như sự cố của Replit, khi công cụ trợ lý AI của nền tảng lập trình này đã tự ý xóa sạch cơ sở dữ liệu sản xuất của một người dùng do cả phía Replit và khách hàng không xác định giới hạn hành vi của nó.

Nghiên cứu từ IBM cho thấy trong các vụ vi phạm liên quan đến Shadow AI, gần 2/3 trường hợp liên quan đến dữ liệu cá nhân của khách hàng bị xâm phạm. Điều này càng khó khăn khi gần 70% quản lý cấp cao thoải mái với việc sử dụng AI chưa kiểm duyệt, ưu tiên tốc độ hơn bảo mật. Điều này càng khiến năng lực quản trị rủi ro của công ty thêm tụt hậu.

Quản trị chủ động

Việc cấm đoán AI hoàn toàn không phải là chiến lược hiệu quả. Nhân viên sẽ tìm cách lách luật, còn các tổ chức từ chối AI sẽ đánh mất năng lực cạnh tranh. Cách tiếp cận tốt hơn là thiết lập "đường ray" để công nghệ này vận hành đúng hướng.

Doanh nghiệp phải ưu tiên ba trụ cột. Trước hết, xác định rõ công cụ AI đang được sử dụng, người dùng là ai và dữ liệu nào được truy cập. Đây phải trở thành một quy trình vận hành thường trực. Thứ hai, thiết lập chính sách định rõ công cụ nào được phê duyệt, dữ liệu nào được chia sẻ và quy trình xử lý ngoại lệ. Cuối cùng, tích hợp đánh giá rủi ro AI vào hoạt động an ninh mạng cốt lõi để phát hiện sớm hành vi bất thường từ các công cụ này.

Quan trọng hơn, lãnh đạo doanh nghiệp, tổ chức phải nhận ra rằng quản trị AI không chỉ là vấn đề của bộ phận CNTT. Đó là trách nhiệm liên phòng ban, cần sự kết hợp giữa các nhân viên và cả cấp quản lý.

Shadow AI không còn là một vấn đề của tương lai mà đã dần ăn sâu vào cách thức vận hành của các tổ chức. Trong bối cảnh công nghệ phát triển vũ bão hiện nay, những doanh nghiệp ưu tiên quản trị AI như chiến lược an ninh cốt lõi sẽ tận dụng được AI một cách an toàn và bền vững nhất. Với những bên chần chừ, cái giá của sự thụ động có thể lớn hơn những tính toán tài chính rất nhiều.

Hương Thủy/Bnews/vnanet.vn

Nguồn Bnews: https://bnews.vn/diem-mu-moi-cua-quan-tri-doanh-nghiep/421247.html