'Cha đẻ AI' gọi Claude Mythos là trò bịp, chuyên gia an ninh mạng nói gì?
Yann LeCun - nhà khoa học được mệnh danh là 'cha đẻ AI' viết trên mạng xã hội X: 'Drama về Mythos chỉ là trò bịp xuất phát từ sự tự lừa dối'.
Anthropic hôm 8.4 cho biết sẽ không phát hành rộng rãi Claude Mythos do lo ngại hacker có thể khai thác khả năng của mô hình AI mạnh mẽ này.
Anthropic nói rằng Claude Mythos mạnh đến mức ngay cả những người không chuyên cũng có thể tận dụng mô hình AI này để khai thác các lỗ hổng trong những hệ điều hành lớn.
Theo Anthropic, Claude Mythos có tính tự chủ cực cao và khả năng suy luận tinh vi, tương đương chuyên gia nghiên cứu bảo mật cấp cao. Nó có thể phát hiện hàng chục nghìn lỗ hổng bảo mật mà ngay cả những chuyên gia săn lỗi hàng đầu cũng khó tìm ra.
Trong quá trình thử nghiệm của Anthropic, Claude Mythos đã phát hiện lỗi trong “mọi hệ điều hành và trình duyệt web lớn”, gồm cả những lỗ hổng tồn tại hàng chục năm mà các cuộc kiểm tra bảo mật do con người thực hiện trước đó không phát hiện ra.
Thay vì phát hành rộng rãi, Anthropic cho biết sẽ cung cấp phiên bản Claude Mythos Preview cho 11 tổ chức trong khuôn khổ Dự án Glasswing, gồm Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, Linux Foundation, Microsoft, Nvidia, Palo Alto Networks, JPMorgan Chase.
Anthropic tiết lộ đang mở rộng quyền truy cập Claude Mythos Preview cho khoảng 40 tổ chức khác chịu trách nhiệm về hạ tầng phần mềm quan trọng. Theo Anthropic, mục tiêu lâu dài của công ty là giúp người dùng có thể triển khai các mô hình AI mạnh mẽ như Claude Mythos một cách an toàn và trên quy mô lớn, kể cả cho các mục đích ngoài an ninh mạng.

Anthropic của Dario Amodei gây lo ngại khi công bố Claude Mythos có thể phát hiện hàng chục nghìn lỗ hổng bảo mật mà ngay cả những chuyên gia săn lỗi hàng đầu cũng khó tìm ra - Ảnh: Internet
Những tuyên bố từ Anthropic về khả năng của Claude Mythos nhanh chóng làm dấy lên lo ngại, dẫn tới cuộc họp khẩn giữa Chủ tịch Fed Jerome Powell, Bộ trưởng Tài chính Mỹ Scott Bessent với lãnh đạo các ngân hàng lớn ở Mỹ.
Tuy nhiên, một số chuyên gia nghi ngờ mức độ quan trọng của thông báo này, cho rằng Mythos không vượt trội quá xa so với các mô hình AI khác và có thể chỉ là một chiến lược PR hiệu quả của Anthropic.
Liệu Claude Mythos có thực sự khiến các giám đốc an ninh phải toát mồ hôi, hay Anthropic là bậc thầy trong việc tiếp thị mô hình AI của mình? Dưới đây là những gì các chuyên gia nói về bước phát triển AI mới nhất.
Gary Marcus

Gary Marcus, nhà nghiên cứu AI nổi tiếng, cho rằng thông báo của Anthropic về Claude Mythos “bị thổi phồng”.
“Ở một mức độ nào đó, tôi cảm thấy chúng ta đã bị dẫn dắt. Bản demo chắc chắn là minh chứng rằng chúng ta cần chuẩn bị tốt hơn về mặt quy định và kỹ thuật, nhưng không phải là mối đe dọa tức thời như truyền thông và công chúng đã tin”, Gary Marcus viết trên nền tảng Substack.
Gary Marcus cho biết, theo những gì ông thấy, Claude Mythos chỉ “cải thiện dần dần” so với các mô hình AI trước đó, chứ không phải là “bước đột phá”.
Yann LeCun: Drama về Claude Mythos chỉ là trò bịp

Yann LeCun - nhà sáng lập công ty khởi nghiệp AMI Labs và cựu giám đốc khoa học AI của Meta - cũng tỏ ra hoài nghi về cơn sốt Claude Mythos.
“Drama về Mythos chỉ là trò bịp xuất phát từ sự tự lừa dối”, nhà khoa học được mệnh danh là “cha đẻ AI” viết trên mạng xã hội X.
Ông phản hồi bài đăng từ công ty an ninh AI Aisle, cho biết đã thử nghiệm các mô hình nhỏ hơn, rẻ hơn trên cùng những lỗ hổng mà Anthropic đề cập và nhận thấy chúng có thể thực hiện phần lớn phân tích tương tự.
Jake Moore

Jake Moore, chuyên gia an ninh mạng toàn cầu tại hãng ESET, nói với trang Insider rằng thông báo của Anthropic có yếu tố tiếp thị, nhưng “về cơ bản mô hình AI này có vẻ cực kỳ ấn tượng và sẽ còn cải thiện theo thời gian”.
“Anthropic đã xây dựng danh tiếng là công ty AI đặt an toàn lên hàng đầu, nên những thông báo như vậy phục vụ hai mục đích: cảnh báo thực sự và khẳng định lập trường chú trọng an toàn”, Jake Moore nhận xét.
Dave Kasten
Dave Kasten, trưởng bộ phận chính sách tại tổ chức nghiên cứu phi lợi nhuận Palisade Research, cho rằng nhiều khả năng các mô hình AI khác cũng không kém Mythos quá xa.
Ông nói với kênh CNBC rằng kỳ vọng của mình là “Anthropic có thể đi trước một chút, nhưng không vượt trội áp đảo, và họ cũng không có lợi thế bền vững rõ ràng”.
Dave Kasten nhắc đến một bản tin của trang Axios cho biết OpenAI cũng có một mô hình với năng lực an ninh mạng tiên tiến, dự kiến chỉ phát hành cho một nhóm nhỏ thay vì công chúng.
Ông cho rằng Gemini cũng có thể không thua kém nhiều, nhưng việc Google tham gia Dự án Glasswing cho thấy Anthropic có thể đang nắm lợi thế với Claude Mythos, ít nhất là trong vài tháng tới.
David Sacks

David Sacks, cựu cố vấn AI của Nhà Trắng dưới chính quyền Trump, cho rằng các tuyên bố từ Anthropic về Claude Mythos là đáng chú ý nhưng cần được nhìn nhận thận trọng.
“Thế giới không còn lựa chọn nào khác ngoài việc phải xem xét nghiêm túc mối đe dọa an ninh mạng liên quan đến Mythos. Song cũng khó bỏ qua việc Anthropic có tiền lệ sử dụng các chiến thuật gây lo ngại”, David Sacks viết trên X. Kèm theo đó là một số ví dụ về các trường hợp trước đây khi Anthropic đưa ra những cảnh báo hoặc câu chuyện đáng báo động về các mô hình AI.
T.J. Marlin
T.J. Marlin, Giám đốc điều hành Guardrail Technologies, cho rằng cuộc họp giữa các quan chức liên bang Mỹ và Phố Wall thực chất nhằm đảm bảo rằng nếu xảy ra một vụ tấn công mạng lớn, các ngân hàng sẽ không thể viện lý do “chúng tôi không biết”.
Ông nhấn mạnh rằng bất kỳ giám đốc điều hành nào tham dự cuộc họp mà không ghi lại và báo cáo rõ ràng phương án ứng phó ở cấp hội đồng quản trị thì đang tự đặt mình vào rủi ro pháp lý rất lớn.
Guardrail Technologies là hãng công nghệ chuyên về bảo mật và kiểm soát rủi ro của AI, đặc biệt trong môi trường doanh nghiệp.
T.J. Marlin từng làm việc trong lĩnh vực công nghệ pháp y toàn cầu của hãng kiểm toán EY.
Pablos Holman

Pablos Holman, thành viên quỹ đầu tư mạo hiểm Deep Future, cho rằng những người bảo vệ an ninh mạng có thể hưởng lợi nhiều hơn từ AI so với những kẻ tấn công.
“Nhiều người đang hoảng loạn về các cuộc tấn công được hỗ trợ bởi AI. Điều họ bỏ qua là phía phòng thủ cũng sở hữu cùng các AI đó, thậm chí tốt hơn và có nhiều tài nguyên tính toán hơn”, Pablos Holman viết trên LinkedIn.
Ông cho rằng các bên phòng thủ sẽ có quyền truy cập vào cùng các mô hình AI và nhiều nguồn lực hơn, chẳng hạn mã nguồn.
“Đây là cuộc chạy đua đang leo thang, nhưng giờ đây bên phòng thủ có lợi thế. An ninh sắp trở nên tốt hơn, không phải tệ hơn”, ông viết.
Ben Seri
“Chúng ta đã bước vào ‘khoảnh khắc Dự án Manhattan’ của an ninh mạng”, ông Ben Seri - đồng sáng lập Zafran Security - nhận định.
Ben Seri cho rằng mối đe dọa an ninh mạng là có thật và cấp bách, trong khi tiềm năng phòng thủ cũng có thật nhưng sẽ cần thời gian để phát huy. Ông nhấn mạnh thách thức lớn nhất là các đội an ninh phải hành động nhanh hơn ở quy mô lớn.
“AI sẽ tìm ra lỗ hổng nhanh hơn. AI cũng sẽ vá lỗ hổng nhanh hơn. Thế nhưng, điểm nghẽn chưa bao giờ chỉ nằm ở việc phát hiện hay khắc phục, mà ở khả năng triển khai các bản vá vào môi trường sản xuất một cách an toàn, nhanh chóng và trên quy mô lớn”, ông nói.
“Việc áp dụng thay đổi nhanh một cách an toàn trong môi trường sản xuất sẽ là bước chuyển quan trọng nhất mà các lãnh đạo công nghệ và an ninh cần thực hiện để thích ứng với thời điểm này”, Ben Seri cho biết thêm.
Zafran Security là công ty khởi nghiệp an ninh mạng tập trung vào việc giúp doanh nghiệp phát hiện và xử lý lỗ hổng bảo mật bằng AI.
Dự án Manhattan là chương trình nghiên cứu tuyệt mật trong Thế chiến II, nhằm chế tạo bom nguyên tử đầu tiên trên thế giới. Dự án này diễn ra từ khoảng 1942 đến 1946, do Mỹ dẫn đầu với sự hợp tác của Anh và Canada. Mục tiêu chính là phát triển vũ khí hạt nhân trước Đức Quốc xã.











