Các mô hình AI mạnh nhất bị 'giữ kín' – điều gì đang xảy ra?

Các công ty AI hàng đầu ngày càng siết chặt quyền truy cập vào những mô hình mạnh nhất của mình, không chỉ vì lo ngại an toàn mà còn để bảo vệ lợi thế cạnh tranh trong một ngành đang chuyển nhanh từ phổ biến công nghệ sang kiểm soát quyền lực.

Anthropic là một ví dụ điển hình. Ngày 7-4, phòng thí nghiệm này thông báo phiên bản thử nghiệm của mô hình mới mang tên “Mythos” sẽ chỉ được cung cấp cho một nhóm công ty được chọn lọc, lập tức tạo ra làn sóng quan tâm trong giới doanh nghiệp.

Quyền truy cập AI ngày càng quyết định cán cân cạnh tranh và quyền lực công nghệ. Nguồn: dailypioneer

Quyền truy cập AI ngày càng quyết định cán cân cạnh tranh và quyền lực công nghệ. Nguồn: dailypioneer

Trong danh sách ban đầu chỉ có một ngân hàng là JPMorgan Chase. Vài ngày sau, hội đồng quản trị của một ngân hàng châu Á đã triệu tập CEO để yêu cầu giải thích cách tiếp cận “Project Glasswing” – tên gọi cho “câu lạc bộ” khách hàng đặc biệt của Anthropic.

Phản ứng này không bất ngờ, xét đến những tuyên bố về Mythos. Công ty cho biết mô hình mới đặc biệt hiệu quả trong việc phát hiện và mô phỏng khai thác các lỗ hổng an ninh mạng. Đây cũng là lý do nó được triển khai theo từng giai đoạn, nhằm hạn chế nguy cơ công cụ rơi vào tay các đối tượng xấu trước khi hệ thống phòng thủ được củng cố.

Ngay cả khi được phát hành rộng rãi, Anthropic cho biết sẽ giới hạn các khả năng này. Dù vậy, năng lực được công bố vẫn khiến không chỉ doanh nghiệp mà cả chính phủ lo ngại. Sau khi mô hình ra mắt, Bộ trưởng Tài chính Mỹ Scott Bessent và Chủ tịch Cục Dự trữ Liên bang Jerome Powell đã triệu tập các ngân hàng lớn để thảo luận về rủi ro an ninh mạng từ AI.

Không chịu đứng ngoài, ngày 14-4, OpenAI – đơn vị phát triển ChatGPT – cũng công bố sẽ cung cấp phiên bản GPT-5.4 với năng lực hỗ trợ kiểm thử xâm nhập và đánh giá lỗ hổng nâng cao cho nhóm người dùng được kiểm duyệt.

Tuy nhiên, cách tiếp cận của OpenAI phần nào khác với đối thủ. Trong một bài viết chính thức, công ty cho biết: “Chúng tôi tin rằng các biện pháp bảo vệ hiện tại đã đủ để giảm rủi ro an ninh mạng xuống mức chấp nhận được cho việc triển khai rộng rãi các mô hình hiện có.”

Dù vậy, OpenAI cũng thừa nhận các hệ thống mạnh hơn trong tương lai sẽ cần những lớp bảo vệ phức tạp hơn, đặc biệt với các mô hình được tối ưu cho các nhiệm vụ nhạy cảm như an ninh mạng.

Cách phát hành theo từng bước này không chỉ mang tính thận trọng mà đang nhanh chóng trở thành chuẩn mực đối với các mô hình AI tiên tiến — và không chỉ vì lý do an toàn.

Đầu tiên, việc hạn chế truy cập giúp giảm nguy cơ bị đánh cắp công nghệ. Tháng 2, Anthropic cho biết họ đã đối mặt với các chiến dịch “quy mô công nghiệp” từ ba đối thủ cạnh tranh nước ngoài nhằm “chưng cất” mô hình. OpenAI trước đó cũng đưa ra cảnh báo tương tự.

“Chưng cất” là kỹ thuật sử dụng đầu ra của một hệ thống AI để cải thiện hệ thống khác. Dù phổ biến trong ngành, việc áp dụng với mô hình đối thủ ngày càng bị coi là một dạng gián điệp công nghiệp. Trong bối cảnh đó, cách hiệu quả nhất để bảo vệ tài sản trí tuệ là hạn chế quyền truy cập ngay từ đầu.

Bên cạnh đó, các công ty đang đối mặt với tình trạng thiếu hụt năng lực tính toán. Dù hàng tỷ USD được đổ vào trung tâm dữ liệu, nhu cầu AI vẫn tăng nhanh và mỗi mô hình mới lại tiêu tốn tài nguyên lớn hơn trước.

Anthropic gần đây đã phải giới hạn mức sử dụng chatbot Claude vào một số thời điểm và điều chỉnh giá theo mức tiêu thụ. Mythos dường như còn “ngốn” tài nguyên hơn, với mức giá cao gấp 5 lần Opus 4.6 – mô hình mạnh nhất hiện được cung cấp công khai. Điều này cho thấy áp lực lớn lên hạ tầng và lý giải vì sao công ty chỉ mở rộng khách hàng khi đủ năng lực đáp ứng.

Đồng thời, hạn chế truy cập giúp các nhà phát triển mô hình giành lại quyền kiểm soát trong hệ sinh thái AI. OpenAI nhấn mạnh cách tiếp cận này không nhằm “đóng cửa” hoàn toàn mà để kiểm soát hợp lý quyền truy cập: “Chúng tôi thiết kế các cơ chế nhằm tránh việc tùy tiện quyết định ai được tiếp cận và ai không, đối với những mục đích sử dụng hợp pháp.”

Các ứng dụng như Cursor được doanh nghiệp ưa chuộng một phần vì cho phép linh hoạt thay đổi mô hình phía sau mà không cần đào tạo lại người dùng. Tuy nhiên, việc phát triển ứng dụng tương thích với những mô hình không thể tiếp cận là rất khó, có thể buộc một số khách hàng chuyển sang sử dụng trực tiếp công cụ của chính nhà phát triển, như Claude Code hay Codex.

Không chỉ dừng ở cấp độ doanh nghiệp, các mô hình AI tiên tiến ngày càng thu hút sự quan tâm trực tiếp từ chính phủ. Anthropic cho biết đã trao đổi với giới chức Mỹ về Mythos, phản ánh mức độ nhạy cảm của các hệ thống này trong bối cảnh an ninh quốc gia.

“Chính phủ cần phải nắm được những công nghệ này, và chúng tôi phải tìm ra cách hợp tác mới giữa khu vực công và tư,” Jack Clark, đồng sáng lập Anthropic, cho biết.

Diễn biến này cho thấy việc kiểm soát quyền truy cập không còn đơn thuần là quyết định kinh doanh, mà đang dần trở thành một phần của cơ chế quản trị đối với các công nghệ có tính chiến lược.

Tuy vậy, cách tiếp cận này cũng gây tranh cãi. Một số chuyên gia cho rằng các cảnh báo về rủi ro có thể đang bị phóng đại, qua đó củng cố thêm quyền kiểm soát của các tập đoàn công nghệ lớn. Ngược lại, nhiều ý kiến khác nhấn mạnh rằng các lỗ hổng hiện tại hoàn toàn có thể bị khai thác nhanh hơn và trên quy mô lớn hơn khi AI ngày càng mạnh.

Ngọc Lâm

Nguồn Hà Nội Mới: https://hanoimoi.vn/cac-mo-hinh-ai-manh-nhat-bi-giu-kin-dieu-gi-dang-xay-ra-745218.html