Thí nghiệm Nano Banana Pro: Các công cụ nhận diện AI bất lực trước ảnh chỉnh sửa đơn giản

Thử nghiệm với 6 công cụ phát hiện deepfake hàng đầu cho thấy công nghệ hiện nay dễ dàng bị đánh lừa chỉ bằng vài thao tác hậu kỳ, khiến tỷ lệ nhận diện giảm xuống gần mức 0.

Trong bối cảnh nội dung giả mạo (deepfake) đang bùng nổ, câu hỏi đặt ra là liệu phần mềm có thể bảo vệ chúng ta? Thí nghiệm mới nhất mang tên Nano Banana Pro đã đưa ra một câu trả lời đáng quan ngại: các công cụ phát hiện AI hiện nay hoàn toàn có thể bị khuất phục bởi những chỉnh sửa thủ công cơ bản.

Thí nghiệm Nano Banana Pro và sự thất bại của công nghệ nhận diện

Các chuyên gia đã tiến hành thử nghiệm khả năng của 6 công cụ nhận diện AI phổ biến nhất hiện nay bằng cách sử dụng hình ảnh một người phụ nữ cầm quả chuối (được đặt tên là Nano Banana Pro). Kết quả cho thấy, mặc dù các công cụ này có thể nhận diện được các bức ảnh thuần AI, nhưng chúng nhanh chóng trở nên vô dụng khi đối mặt với các tệp tin đã qua xử lý.

Woman holding banana 3 – This image tricks them all (Source: Nano Banana Pro – post-processed with CyberLink PhotoDirector)

Woman holding banana 3 – This image tricks them all (Source: Nano Banana Pro – post-processed with CyberLink PhotoDirector)

Đáng chú ý, nhóm thử nghiệm không cần đến các kỹ thuật bẻ khóa phức tạp. Họ chỉ sử dụng các phần mềm chỉnh sửa tiêu chuẩn như CyberLink PhotoDirector để thực hiện các thay đổi hậu kỳ. Ngay sau khi các thao tác chỉnh sửa đơn giản này được áp dụng, tỷ lệ phát hiện nội dung do AI tạo ra của cả 6 công cụ đều sụt giảm nghiêm trọng, thậm chí chạm mức 0%.

Lỗ hổng từ các phương thức chỉnh sửa thông thường

Nguyên lý cốt lõi của các công cụ nhận diện AI thường dựa trên việc tìm kiếm các sai số trong cấu trúc pixel hoặc các dấu vết kỹ thuật đặc trưng mà các mô hình tạo ảnh để lại. Tuy nhiên, việc áp dụng các bộ lọc, thay đổi độ tương phản hoặc tái cấu trúc nhẹ qua các phần mềm như CyberLink PhotoDirector đã vô tình xóa sạch những "dấu vân tay" này.

Tính nguyên bản bị phá vỡ: Các công cụ nhận diện thường hoạt động tốt nhất trên các tệp tin gốc chưa qua xử lý.
Sự đơn giản của phương pháp: Việc chỉ cần các phần mềm chỉnh sửa ảnh phổ thông để vượt qua hàng rào bảo mật cho thấy mức độ rủi ro rất cao đối với người dùng cuối.
Độ tin cậy thấp: Kết quả thí nghiệm khẳng định rằng người dùng không nên đặt niềm tin tuyệt đối vào các nhãn dán "AI-generated" hoặc kết quả từ các trang web quét deepfake hiện nay.

Thách thức trong việc kiểm soát deepfake và bảo mật nội dung

Sự thất bại của các công cụ nhận diện trong thí nghiệm Nano Banana Pro đặt ra một thách thức lớn cho các nhà quản lý nội dung và các cơ quan thực thi luật an ninh mạng. Khi mà các chỉnh sửa đơn giản cũng có thể đánh lừa được hệ thống tinh vi nhất, ranh giới giữa sự thật và giả mạo trở nên mong manh hơn bao giờ hết.

Nhìn chung, công nghệ phát hiện AI hiện tại đang tụt hậu so với khả năng tạo ra và tùy biến nội dung của các mô hình trí tuệ nhân tạo. Để đối phó với làn sóng deepfake trong tương lai, các chuyên gia nhận định cần có những phương pháp xác thực nguồn gốc từ gốc (như chữ ký số trong máy ảnh) thay vì chỉ dựa vào việc phân tích hình ảnh sau khi chúng đã được đăng tải và qua tay nhiều bước xử lý hậu kỳ.

Tuệ Nhân

Nguồn Lâm Đồng: https://baolamdong.vn/thi-nghiem-nano-banana-pro-cac-cong-cu-nhan-dien-ai-bat-luc-truoc-anh-chinh-sua-don-gian-417804.html