Claude Mythos gây lo ngại, CEO Anthropic và chính quyền Trump thảo luận hợp tác trở lại
Chính quyền Trump và CEO Anthropic vừa thảo luận về việc hợp tác, lần đầu tiên kể từ tranh chấp hồi đầu năm nay giữa Bộ Quốc phòng Mỹ và startup này về cách sử dụng AI.
Cuộc gặp giữa Dario Amodei (Giám đốc điều hành Anthropic) và các nhân viên Nhà Trắng diễn ra trong bối cảnh lo ngại rằng mô hình AI mới nhất Claude Mythos của startup AI này có thể làm gia tăng sức mạnh các cuộc tấn công mạng. Điều đó cho thấy hai bên có thể đang trên con đường xây dựng lại lòng tin.
Chính quyền Trump, các ngân hàng trung ương trên toàn cầu và nhiều ngành công nghiệp đang chạy đua để hiểu rõ Claude Mythos, cũng như khả năng mô hình AI này giúp các cuộc tấn công mạng phức tạp trở nên dễ dàng và nhanh chóng hơn.
Ngành ngân hàng, với các hệ thống công nghệ cũ, đặc biệt dễ bị ảnh hưởng. Quan chức chính phủ tại ít nhất ba quốc gia là Mỹ, Canada và Anh đã gặp gỡ các lãnh đạo ngân hàng hàng đầu để thảo luận về các mối đe dọa từ Claude Mythos. Bộ trưởng Tài chính Mỹ Scott Bessent đã tham gia cuộc họp cùng Chánh văn phòng Susie Wiles với Dario Amodei, theo trang Axios.
“Chúng tôi đã thảo luận về các cơ hội hợp tác, cũng như những cách tiếp cận và quy trình chung nhằm giải quyết các thách thức liên quan đến việc mở rộng công nghệ này”, Nhà Trắng cho biết, mô tả cuộc gặp với Anthropic là “hiệu quả và mang tính xây dựng”.
Hai bên cũng bàn về việc cân bằng giữa đổi mới và an toàn. “Chúng tôi mong muốn tiếp tục đối thoại và sẽ tổ chức các cuộc thảo luận tương tự với những công ty AI hàng đầu khác”, tuyên bố của Nhà Trắng nêu.
Anthropic cho biết cuộc họp là “hiệu quả” và hai bên đã thảo luận về cách hợp tác trong các ưu tiên chung như an ninh mạng, duy trì vị thế dẫn đầu của Mỹ trong cuộc đua AI và an toàn AI.

Dario Amodei đến dự cuộc họp với các quan chức chính quyền Trump tại Nhà Trắng ngày 17.4 - Ảnh: Reuters
Trình làng ngày 7.4, Claude Mythos ban đầu được triển khai cho nhóm 11 tổ chức chọn lọc trong khuôn khổ Dự án Glasswing của Anthropic. Đây là một sáng kiến kiểm soát, cho phép các tổ chức sử dụng Claude Mythos Preview để tìm kiếm lỗ hổng an ninh mạng.
Theo bài đăng blog của Anthropic, đây là mô hình “mạnh nhất từ trước đến nay về lập trình và các tác vụ mang tính tự chủ”, tức có khả năng hành động độc lập.
Năng lực lập trình ở trình độ cao cũng mang lại cho Claude Mythos khả năng chưa từng có trong việc phát hiện lỗ hổng bảo mật và tìm cách khai thác chúng, theo các chuyên gia.
Điều này đặc biệt đáng lo với các ngân hàng và tổ chức tài chính, vốn vận hành các hệ thống công nghệ kết hợp giữa công cụ hiện đại và phần mềm hàng chục năm tuổi, từ đó tạo ra nhiều điểm yếu, theo TJ Marlin - Giám đốc điều hành hãng an ninh AI doanh nghiệp Guardrail Technologies.
Anthropic nói rằng Claude Mythos mạnh đến mức ngay cả những người không chuyên cũng có thể tận dụng mô hình AI này để khai thác các lỗ hổng trong những hệ điều hành lớn.
Theo Anthropic, Claude Mythos có tính tự chủ cực cao và khả năng suy luận tinh vi, tương đương chuyên gia nghiên cứu bảo mật cấp cao. Nó có thể phát hiện hàng chục nghìn lỗ hổng bảo mật mà ngay cả những chuyên gia săn lỗi hàng đầu cũng khó tìm ra.
Trong quá trình thử nghiệm của Anthropic, Claude Mythos đã phát hiện lỗi trong “mọi hệ điều hành và trình duyệt web lớn”, gồm cả những lỗ hổng tồn tại hàng chục năm mà các cuộc kiểm tra bảo mật do con người thực hiện trước đó không phát hiện ra.
Thay vì phát hành rộng rãi, Anthropic cho biết sẽ cung cấp phiên bản Claude Mythos Preview cho 11 tổ chức gồm Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, Linux Foundation, Microsoft, Nvidia, Palo Alto Networks, JPMorgan Chase.
Anthropic tiết lộ đang mở rộng quyền truy cập Claude Mythos Preview cho khoảng 40 tổ chức khác chịu trách nhiệm về hạ tầng phần mềm quan trọng. Theo Anthropic, mục tiêu lâu dài của công ty là giúp người dùng có thể triển khai các mô hình AI mạnh mẽ như Claude Mythos một cách an toàn và trên quy mô lớn, kể cả cho các mục đích ngoài an ninh mạng.
Tranh chấp giữa Anthropic với Bộ Quốc phòng Mỹ
Từ trước khi Claude Mythos ra mắt, chính phủ Mỹ và Anthropic đã bất đồng về cách sử dụng AI của công ty khởi nghiệp AI này.
Sau nhiều tháng đàm phán căng thẳng, Bộ Quốc phòng Mỹ cuối tháng 2 đã xếp Anthropic vào danh sách rủi ro chuỗi cung ứng. Tổng thống Trump yêu cầu loại bỏ công nghệ của Anthropic khỏi tất cả cơ quan liên bang. Động thái này diễn ra sau khi Anthropic từ chối dỡ bỏ các rào cản với việc sử dụng AI của họ cho vũ khí tự động hoặc giám sát người Mỹ.
Khi yêu cầu các cơ quan liên bang ngừng sử dụng AI của Anthropic, Tổng thống Trump đã chỉ trích công ty trên tài khoản Truth Social, cho rằng “những kẻ cực đoan cánh tả tại Anthropic đã mắc sai lầm thảm hại khi cố ép buộc Bộ Quốc phòng”.
Anthropic đã kiện Bộ Quốc phòng Mỹ nhằm ngăn chặn việc công ty bị đưa vào danh sách đen an ninh quốc gia.
Khi được các phóng viên hỏi tại thành phố Phoenix (bang Arizona, Mỹ) về cuộc gặp với Anthropic hôm 17.4, ông Trump trả lời: “Tôi không biết gì cả”.
GPT-5.4-Cyber cạnh tranh với Claude Mythos
Hôm 14.4, OpenAI công bố GPT-5.4-Cyber, biến thể của mô hình AI hàng đầu mới nhất được tinh chỉnh đặc biệt cho các nhiệm vụ an ninh mạng mang tính phòng thủ.
Động thái này diễn ra khoảng 1 tuần sau khi đối thủ Anthropic giới thiệu mô hình AI tiên tiến Claude Mythos Preview.
OpenAI cho biết GPT-5.4-Cyber ban đầu sẽ được triển khai giới hạn cho các nhà cung cấp bảo mật, tổ chức và nhà nghiên cứu đã được thẩm định.
Công ty AI đứng sau ChatGPT đang mở rộng chương trình Trusted Access for Cyber (TAC) tới hàng nghìn cá nhân làm nhiệm vụ phòng thủ mạng đã được xác minh và hàng trăm nhóm bảo vệ các phần mềm quan trọng, theo một bài đăng trên website của họ.
OpenAI đang bổ sung các cấp độ mới cho chương trình TAC, được ra mắt vào tháng 2, trong đó các cấp xác minh cao hơn sẽ mở khóa các năng lực mạnh mẽ hơn.
TAC là chương trình của OpenAI nhằm cấp quyền sử dụng các công cụ AI an ninh mạng mạnh mẽ cho những người dùng đã được xác minh và đáng tin cậy.
Công ty đang chuyển hướng tiếp cận rủi ro mạng, tập trung ít hơn vào việc hạn chế những gì mô hình AI có thể làm và nhiều hơn vào việc xác minh ai được cấp quyền truy cập vào các khả năng nhạy cảm nhất.
OpenAI cho biết đặt mục tiêu làm cho các công cụ "càng dễ tiếp cận càng tốt trong khi ngăn chặn việc lạm dụng" thông qua hệ thống xác minh danh tính và giám sát.
Cách tiếp cận của OpenAI khác với động thái triển khai hạn chế hơn của Anthropic.
OpenAI đang phản ứng với các rủi ro bảo mật tương tự bằng cách cố gắng làm cho các công cụ AI của mình được sử dụng rộng rãi hơn cho công việc phòng thủ mạng, đồng thời vẫn ngăn chặn các tác nhân xấu truy cập vào chúng.
Người dùng được chấp thuận ở cấp độ cao nhất sẽ có quyền truy cập GPT-5.4-Cyber, với ít hạn chế hơn về các tác vụ an ninh mạng nhạy cảm, chẳng hạn nghiên cứu và phân tích lỗ hổng.
GPT-5.4-Cyber được thiết kế để giảm "hạn chế không cần thiết" cho công việc bảo mật hợp pháp, sau khi một số đối tác an ninh mạng cho biết gặp vấn đề vì các mô hình GPT trước đó đôi khi từ chối trả lời các truy vấn an ninh mạng lưỡng dụng, gồm cả mục đích phòng thủ lẫn tấn công.
"Đây là một môn thể thao đồng đội, chúng ta cần đảm bảo rằng mọi đội đều được trao quyền để bảo mật hệ thống của họ. Không ai nên can thiệp vào việc chọn người thắng kẻ thua khi nói đến an ninh mạng", Fouad Matin - nhà nghiên cứu an ninh mạng tại OpenAI - nói với các phóng viên.
Việc triển khai sẽ diễn ra dần dần. OpenAI cho biết quyền truy cập ban đầu vào GPT-5.4-Cyber sẽ bị giới hạn với các nhà cung cấp, tổ chức và nhà nghiên cứu an ninh đã được kiểm duyệt, nhưng phạm vi triển khai rộng hơn sẽ được mở rộng theo thời gian.
Công ty dự kiến quá trình đăng ký sử dụng GPT-5.4-Cyber sẽ mất thời gian vì họ cần xem xét và xác minh người dùng.
OpenAI hiện không cung cấp quyền truy cập GPT-5.4-Cyber cho các cơ quan chính phủ Mỹ. Thế nhưng, "cha đẻ ChatGPT" cho biết đang thảo luận và sẽ xem xét thông qua các quy trình quản trị nội bộ, đánh giá an toàn.











