Chủ tịch VSEC: Luật Trí tuệ nhân tạo là cơ hội tự chủ công nghệ

Trí tuệ nhân tạo ngày càng phổ biến cũng là lúc các doanh nghiệp cần đảm bảo sự tuân thủ và khả năng quản trị rủi ro, thay vì chỉ nghĩ tới tăng trưởng.

Ngày 1/3/2026 đánh dấu một cột mốc quan trọng khi Luật Trí tuệ nhân tạo (AI) chính thức có hiệu lực tại Việt Nam. Sự ra đời của bộ luật này diễn ra trong bối cảnh các quốc gia trên thế giới đang chạy đua thiết lập các khung quản trị cho một công nghệ có tốc độ phát triển rất nhanh và có sức lan tỏa.

Tại Việt Nam, sự bùng nổ của các ứng dụng AI trong tài chính, y tế và an ninh mạng đã đặt ra yêu cầu cấp thiết về một hành lang pháp lý vừa đảm bảo an toàn, vừa không kìm hãm sự sáng tạo.

Ở góc độ doanh nghiệp, ông Trương Đức Lượng, Chủ tịch HĐQT VSEC, Tập đoàn Công nghệ G-Group đánh giá, Luật Trí tuệ nhân tạo không chỉ là công cụ quản lý, mà còn là cơ hội định hình bản sắc công nghệ của quốc gia.

Ông Lượng nhấn mạnh vào việc xây dựng dữ liệu đặc thù và cơ chế thử nghiệm có kiểm soát với AI. Những thay đổi này được kỳ vọng sẽ tạo ra một môi trường kinh doanh minh bạch, giúp doanh nghiệp trong nước xác định rõ lộ trình phát triển.

Một trong những điểm cốt lõi của Luật AI là cách tiếp cận dựa trên mức độ rủi ro. Thay vì áp dụng một quy định chung cho mọi ứng dụng, luật phân chia ranh giới rõ ràng để tập trung giám sát những lĩnh vực có khả năng tác động lớn đến quyền lợi con người và an ninh quốc gia.

Ông Trương Đức Lượng, Chủ tịch HĐQT VSEC, Tập đoàn Công nghệ G-Group. Ảnh: VSEC

Ông Trương Đức Lượng, Chủ tịch HĐQT VSEC, Tập đoàn Công nghệ G-Group. Ảnh: VSEC

Trí tuệ nhân tạo và bài toán tuân thủ

Ở góc độ doanh nghiệp, ông đánh giá thế nào về định hướng của Luật Trí tuệ nhân tạo đã chính thức có hiệu lực từ 1/3/2026 so với quy định ở các khu vực khác như EU hay Nhật Bản?

Ông Trương Đức Lượng: Hiện nay không có nhiều quốc gia ban hành quy định về trí tuệ nhân tạo (AI). Một trong những lý do chính là AI phát triển quá nhanh, khiến các nước thận trọng để tránh tạo ra tác động tiêu cực, hoặc rơi vào tình trạng quy định vừa áp dụng đã lạc hậu.

Luật Trí tuệ nhân tạo của Việt Nam được xây dựng trên cơ sở tham khảo nhiều quốc gia và thực tế trong nước. Tôi thấy luật tiếp cận theo hướng tạo ra nền tảng thay vì đi vào các hướng dẫn chi tiết.

Nền tảng này bao gồm các phần quan trọng như xây dựng cơ sở dữ liệu đặc trưng của địa phương, phân loại mức độ rủi ro, thiết lập quỹ hỗ trợ phát triển, cơ chế thử nghiệm cho các ứng dụng mới và đào tạo nhân lực.

Đặc biệt, các quy định về quỹ hỗ trợ và cơ chế thử nghiệm là điểm khác biệt, rất phù hợp với bối cảnh chúng ta đi sau các nước khác. Tuy vậy, vẫn còn nhiều bước phải làm để cụ thể hóa các quy định này và chúng ta cần chờ xem hiệu quả triển khai thực tế.

Luật mới chia AI thành 3 mức rủi ro: Cao, Trung bình và Thấp. Việc quy định ngưỡng "rủi ro cao" dựa trên số lượng người dùng, ví dụ như trên 500 hoặc 1.000 người, liệu có gây khó khăn cho doanh nghiệp công nghệ khi xác định mức độ tuân thủ ở giai đoạn đầu không?

Ông Trương Đức Lượng: Theo tôi, các doanh nghiệp công nghệ sẽ không gặp khó khăn khi kiểm soát số lượng người tiếp cận và người dùng ứng dụng. Tuy nhiên, việc thực thi sẽ cần sự hợp tác chặt chẽ giữa doanh nghiệp và cơ quan quản lý.

Tôi đề xuất,cần công nghệ hóa công tác theo dõi để đảm bảo tính hiệu lực và hiệu quả của luật. Một điểm quan trọng khác là cần phân biệt rõ tổ chức sở hữu công nghệ AI và tổ chức sử dụng, hoặc liên kết. Chúng ta cần có cơ chế quản lý phù hợp cho từng đối tượng này để tránh tạo ra khó khăn hay cản trở hoạt động của doanh nghiệp và tổ chức.

Là doanh nghiệp hoạt động trong lĩnh vực an ninh mạng, khi rà soát theo luật mới, các sản phẩm của VSEC hiện được phân loại ở mức độ rủi ro nào và công tác chuẩn bị tuân thủ đang được triển khai ra sao?

Ông Trương Đức Lượng: Đặc trưng của các giải pháp giám sát an ninh mạng mà VSEC áp dụng cho khách hàng là nhận biết và theo dõi các khía cạnh kỹ thuật.

Chúng tôi tập trung vào các ứng dụng và hạ tầng đám mây mà không sử dụng dữ liệu về con người, nên các sản phẩm này được phân loại ở mức độ rủi ro thấp. Tuy vậy, đội ngũ kỹ sư của chúng tôi vẫn thường xuyên giao tiếp trực tiếp với khách hàng để nhận biết các rủi ro ngoại lệ phát sinh.

Đồng thời, AI của VSEC cũng được trang bị các tính năng để người quản trị có thể theo dõi chính bản thân hệ thống. Đây là cách làm thuận tiện mà tôi cho rằng các doanh nghiệp khác có thể áp dụng được ngay.

Luật cũng yêu cầu AI phải luôn có sự giám sát và can thiệp của con người. VSEC đã giải quyết bài toán này như thế nào, để hệ thống bảo mật vừa tự động ngăn chặn tấn công mạng nhanh chóng, vừa đảm bảo yếu tố kiểm soát từ con người?

Ông Trương Đức Lượng: Thực tế trong lĩnh vực kinh doanh của VSEC, AI đang đóng vai trò là một trợ lý cung cấp thông tin cho các chuyên gia xử lý nhiều hơn.

Hệ thống chưa có khả năng tự quyết định hoàn toàn, chẳng hạn như tự động ngăn chặn một cuộc tấn công mạng mà không có sự xác nhận của con người. Điều này bắt nguồn từ sự cẩn trọng của chúng tôi khi cung cấp dịch vụ trong môi trường thực tế. Đồng thời, nó cũng đến từ sự đánh giá khách quan về mức độ trưởng thành của công nghệ AI trong từng nhiệm vụ cụ thể thuộc lĩnh vực an ninh mạng.

Chủ tịch VSEC cho rằng, Luật Trí tuệ nhân tạo là cơ hội để các doanh nghiệp trong nước tự chủ công nghệ. Ảnh: VSEC

Chủ tịch VSEC cho rằng, Luật Trí tuệ nhân tạo là cơ hội để các doanh nghiệp trong nước tự chủ công nghệ. Ảnh: VSEC

Hướng tới doanh nghiệp tự chủ công nghệ

Có ý kiến cho rằng, việc tuân thủ các yêu cầu mới như: dán nhãn AI, đánh giá rủi ro, lưu trữ nhật ký hoạt động chắc chắn sẽ làm tăng chi phí vận hành. Theo ông, gánh nặng chi phí này sẽ tác động thế nào đến các startup AI và khả năng cạnh tranh trên thị trường thời gian tới?

Ông Trương Đức Lượng: Mỗi khi luật mới được ban hành, doanh nghiệp sẽ cần tuân thủ và việc này thường làm tăng chi phí vận hành.

Tuy nhiên, với Luật Trí tuệ nhân tạo, tôi thấy đây là cơ hội cho các doanh nghiệp tự chủ công nghệ. Thực tế là cơ quan quản lý đã mở ra không gian tăng trưởng cho các doanh nghiệp đổi mới sáng tạo thông qua việc thiết lập cơ chế thử nghiệm (sandbox) cho các ứng dụng AI.

Tôi tin rằng, với cơ chế này, các doanh nghiệp sẽ giảm bớt được các yêu cầu khắt khe về tuân thủ trong giai đoạn đầu, để tập trung tối đa nguồn lực vào việc phát triển và hoàn thiện các ý tưởng mới.

Một số doanh nghiệp lo ngại quy trình kiểm định cấp phép cho nhóm “AI rủi ro cao” sẽ làm chậm thời gian đưa sản phẩm ra thị trường. Ông có đề xuất gì để doanh nghiệp công nghệ không bị mất lợi thế về tốc độ kinh doanh?

Ông Trương Đức Lượng: Từ các nội dung của Luật, tôi đề xuất nên có cơ chế cấp phép tự động đối với các ứng dụng và giải pháp công nghệ đã trưởng thành từ các nhóm thử nghiệm, hoặc chương trình thử nghiệm an toàn.

Việc này giúp cân bằng giữa hai yếu tố, một mặt ứng dụng đã có thời gian được kiểm chứng thực tế về hiệu quả và tác động đến người dùng, mặt khác khi chính thức bước vào giai đoạn tăng trưởng, doanh nghiệp sẽ không bị vướng quá nhiều thủ tục kiểm tra làm hạn chế tốc độ kinh doanh.

Về bản chất, AI sẽ cần rất nhiều dữ liệu để huấn luyện, nhưng Luật cũng yêu cầu bảo vệ quyền dữ liệu của người dùng rất chặt chẽ. Làm thế nào để các doanh nghiệp công nghệ vừa có đủ dữ liệu chất lượng để phát triển AI, vừa không vi phạm các quy định bảo mật?

Ông Trương Đức Lượng: Tôi cho rằng, quan điểm về nhu cầu dữ liệu khổng lồ cũng cần được xem xét lại. Hiện nay, nhiều ứng dụng AI có thể tái sử dụng từ các công nghệ AI có sẵn, nên nhu cầu về dữ liệu mới có thể không quá lớn như trước.

Tuy nhiên, yêu cầu về bảo vệ quyền dữ liệu của người dùng vẫn phải được tuân thủ nghiêm ngặt. Việc này theo tôi nên được tiếp cận bằng các giải pháp kỹ thuật.

Cụ thể, cần có các công nghệ tự động phát hiện và loại bỏ dữ liệu người dùng không hợp lệ, hoặc trái quy định. Ngoài Luật Trí tuệ nhân tạo, thực chất các doanh nghiệp và tổ chức cũng cần thông báo rõ ràng, thu thập thông tin vừa đủ theo đúng yêu cầu của Luật bảo vệ dữ liệu cá nhân.

Cuối cùng, khi khung pháp lý đã rõ ràng, ông dự đoán bức tranh ứng dụng AI tại Việt Nam trong 3-5 năm tới sẽ thay đổi như thế nào? Riêng VSEC định vị vai trò của mình ra sao trong làn sóng "AI hóa" này?

Ông Trương Đức Lượng: VSEC từng là đơn vị tiên phong trong đào tạo an ninh mạng chuyên nghiệp và làm chủ các công nghệ chuyên ngành. Tới đây, chúng tôi sẽ tiếp tục tiên phong ứng dụng AI để cung cấp các dịch vụ phát hiện lỗ hổng và theo dõi tấn công mạng một cách hiệu quả nhất.

Điều này nằm trong bối cảnh chuyển hóa mạnh mẽ của AI tại Việt Nam những năm tới. Xu hướng chủ đạo sẽ là tạo ra giá trị thật và lợi ích thực chất cho doanh nghiệp cũng như người dùng cá nhân trong nhiều lĩnh vực thiết yếu như tài chính, giáo dục và y tế tư nhân.

Xin cảm ơn ông!

Việt Hưng

Nguồn Nhà Quản Trị: https://theleader.vn/chu-tich-vsec-luat-tri-tue-nhan-tao-la-co-hoi-tu-chu-cong-nghe-d45157.html