AI ảo giác khiến thực khách bị mắc lừa

Google AI Overview đang vô tình trở thành kẻ phá hoại trong ngành dịch vụ ăn uống khi nó bắt đầu 'sáng tạo' ra những món ăn và chương trình khuyến mãi chưa từng tồn tại.

Câu chuyện của nhà hàng Stefanina's Wentzville ở Missouri không chỉ là một sự cố đáng tiếc mà còn là hồi chuông cảnh báo về một hiện tượng nguy hiểm đang lan rộng: khi AI quá tự tin vào những thông tin sai lệch mà nó tự tạo ra.

Từ trợ lý thông minh đến "kẻ nói dối" nguy hiểm

Eva Gannon, chủ nhà hàng Stefanina's Wentzville, chắc hẳn không bao giờ tưởng tượng được rằng một ngày nào đó bà phải đứng ra cảnh báo khách hàng đừng tin vào... Google. Trong bài đăng trên Facebook đã lan truyền rộng rãi, gia đình bà buộc phải viết: "Xin đừng sử dụng Google AI để tìm hiểu về các món đặc biệt của chúng tôi... Google AI không chính xác và đang nói với mọi người về những ưu đãi không hề tồn tại, khiến khách hàng tức giận và la hét với nhân viên của chúng tôi".

Chủ quán khẩn khoản xin lỗi khách hàng "trót tin" quảng cáo trên AI của Google

Chủ quán khẩn khoản xin lỗi khách hàng "trót tin" quảng cáo trên AI của Google

Điều đáng lo ngại nhất không phải là AI đưa ra thông tin sai, mà là cách nó trình bày thông tin đó với độ tự tin tuyệt đối. Khi Google AI Overview nói rằng bạn có thể mua một pizza lớn với giá của pizza nhỏ tại Stefanina's Wentzville, không hề có lời cảnh báo. Đối với người dùng, đây trông giống như một thông tin chính thức từ nhà hàng.

Đây chính là sự khác biệt quan trọng giữa "thông tin sai" truyền thống và "ảo giác của AI". Khi một trang web đưa tin sai, chúng ta vẫn có thể truy tìm nguồn gốc. Nhưng khi AI "bịa" ra thông tin, nó tạo ra một loại sự thật giả tạo hoàn toàn mới, một sự thật không có nguồn gốc nhưng lại có vẻ đáng tin cậy tuyệt đối.

Cuộc chiến bất công giữa doanh nghiệp nhỏ và "người khổng lồ" công nghệ

Câu nói của Eva Gannon - "Là một doanh nghiệp nhỏ, chúng tôi không thể thực hiện được ưu đãi mà Google AI đưa ra" - phản ánh một bất công cơ bản trong kỷ nguyên AI.

Hãy tưởng tượng bạn là chủ một nhà hàng gia đình với 10 - 15 nhân viên. Mỗi ngày bạn phải lo về nguyên liệu, chi phí thuê mặt bằng, lương nhân viên... Và bây giờ, bạn còn phải đối phó với một "nhân viên tiếp thị" không được mời mà đến - một AI có thể tự ý tạo ra những chương trình khuyến mãi mà bạn không hề biết, rồi gửi hàng trăm khách hàng đến yêu cầu thực hiện.

Điều thú vị là Google có thể thoái thác trách nhiệm bằng các điều khoản sử dụng và tuyên bố miễn trừ trách nhiệm về độ chính xác. Nhưng với các doanh nghiệp nhỏ, họ không có lựa chọn nào khác ngoài việc đối mặt với những hậu quả thực tế: khách hàng tức giận, nhân viên bị la mắng, và danh tiếng bị tổn hại.

Đây là một dạng "chủ nghĩa thực dân doanh nghiệp" mới: các công ty công nghệ lớn tạo ra các công cụ có thể tác động trực tiếp đến doanh nghiệp nhỏ, nhưng không chịu trách nhiệm về những hậu quả tiêu cực.

Hiện tượng "ảo giác của AI": Máy móc cũng mơ màng

Thuật ngữ "ảo giác của AI" (AI hallucination) nghe có vẻ thơ mộng, nhưng thực chất nó mô tả một hiện tượng cực kỳ nguy hiểm. Không giống như con người khi "nói bậy", AI không có ý thức về việc mình đang bịa đặt. Nó đơn giản là kết hợp các mẫu thông tin đã học để tạo ra câu trả lời có vẻ hợp lý nhất.

Vấn đề trở nên nghiêm trọng hơn khi AI được tích hợp vào các nền tảng có độ tin cậy cao như Google Tìm kiếm. Người dùng đã quen với việc tin tưởng vào kết quả tìm kiếm của Google trong hơn 20 năm qua. Khi AI Overview xuất hiện ở đầu trang kết quả, nó thừa hưởng toàn bộ uy tín đó.

Vụ kiện của công ty năng lượng mặt trời ở Minnesota chống lại Google cho thấy tác động có thể lan rộng ra ngoài ngành dịch vụ ăn uống. Khi AI tạo ra thông tin sai về việc công ty đang đối mặt với kiện tụng về "hành vi bán hàng lừa đảo", đây không chỉ là sự bất tiện mà còn có thể phá hủy cả một doanh nghiệp.

Lời kêu gọi trở lại của "phương pháp cũ"

Điều trớ trêu là trong thời đại AI tiên tiến, các nhà hàng lại phải khuyên khách hàng quay về với "phương pháp cũ": kiểm tra Facebook, xem trang web, hoặc gọi điện trực tiếp. Đây không phải là sự lùi bước của công nghệ, mà là sự nhận ra rằng một số thông tin cần có "bàn tay con người" để đảm bảo độ chính xác.

Chúng ta đang chứng kiến sự ra đời của một phong trào "xác minh tính xác thực" - việc xác minh thông tin từ nguồn gốc con người. Các doanh nghiệp bắt đầu quảng cáo rằng thông tin của họ được "cập nhật bởi con người" như một điểm bán hàng.

Stefanina's Wentzville không phải là nạn nhân duy nhất. Trên khắp nước Mỹ, hàng trăm nhà hàng nhỏ đang đối mặt với tình trạng tương tự. Một số đã bắt đầu đặt biểu ngữ trên trang web: "Chỉ tin thông tin trực tiếp từ chúng tôi - không tin AI tổng hợp".

Google đã âm thầm thừa nhận vấn đề trong hướng dẫn sử dụng tìm kiếm AI, cảnh báo rằng kết quả "đôi khi có thể không chính xác". Nhưng tuyên bố miễn trừ trách nhiệm nhỏ này có thể dễ dàng bị bỏ qua bởi hàng triệu người dùng hằng ngày.

Bài học cho thời đại AI

Câu chuyện của Stefanina's Wentzville không chỉ là về một nhà hàng nhỏ đấu tranh với Google AI. Đây là câu chuyện về việc chúng ta cần xác định lại mối quan hệ giữa con người và máy móc trong việc chia sẻ thông tin.

AI có thể xử lý hàng petabyte dữ liệu trong vài giây, nhưng nó không thể thay thế được sự chính xác và trách nhiệm của con người trong việc cung cấp thông tin về doanh nghiệp của chính mình. Có lẽ đây chính là điều mà Eva Gannon muốn nói khi bà khuyên khách hàng nên "gọi điện hỏi trực tiếp" thay vì tin vào AI.

Trong thế giới ngày càng được AI hóa, việc duy trì kết nối trực tiếp giữa con người với con người không phải là sự lùi bước, mà là sự thông minh. Bởi vì cuối cùng, chỉ có con người mới có thể chịu trách nhiệm cho những gì họ nói - và đó chính là điều mà AI, dù tiên tiến đến đâu, vẫn chưa thể làm được.

Stefanina's Wentzville đã buộc phải cảnh báo khách hàng đừng tin Google AI. Nhưng có lẽ đây chính là lời cảnh báo cần nghe: Trong thời đại thông tin, việc xác minh nguồn gốc vẫn là kỹ năng quan trọng nhất.

Bùi Tú

Nguồn Một Thế Giới: https://1thegioi.vn/ai-ao-giac-khien-thuc-khach-bi-mac-lua-236887.html