Con người mắc đầy sai lầm vì lạm dụng AI trong năm 2025

Gần như mọi ngành đều chịu ảnh hưởng từ việc con người dùng AI một cách thiếu kiểm soát.

Suốt nhiều năm qua, nỗi lo lớn nhất của con người với AI (trí tuệ nhân tạo) là viễn cảnh một ngày nào đó công nghệ này trở nên quá thông minh và vượt khỏi tầm kiểm soát. Song có lẽ mối nguy không nằm ở tương lai xa mà đã hiện hữu, dưới một hình thức âm thầm và đời thường hơn rất nhiều: Con người tự làm hại mình vì lạm dụng AI.

Ý nghĩ này xuất hiện khi nhìn lại hàng loạt sự cố liên quan đến AI trong năm 2025. Điều đáng nói là phần lớn vụ việc không xuất phát từ những hệ thống siêu trí tuệ mà do các công cụ AI còn khá sơ khai, được quảng bá là “hỗ trợ”, “tiết kiệm thời gian” hay “tăng năng suất”. Thứ gây ra hậu quả không hẳn là AI, mà là cách con người sử dụng công nghệ này: Vội vàng, thiếu kiểm chứng và đôi khi là vì áp lực cạnh tranh.

Danh sách các sai lầm cho thấy một điểm chung đáng lo ngại: Những đặc tính rất con người như lười biếng, tham lam và ham tiết kiệm chi phí đang biến AI thành con dao hai lưỡi.

Nhiều người đang tự làm hại mình vì lạm dụng AI - Ảnh: Internet

Nhiều người đang tự làm hại mình vì lạm dụng AI - Ảnh: Internet

Từ báo chí...

Ngành báo chí là một ví dụ điển hình. Ngay từ đầu năm, một số người dùng iPhone tại Anh phát hiện trên màn hình thông báo của họ xuất hiện bản tin giả mạo mang logo BBC với nội dung gây sốc: Rafael Nadal, huyền thoại quần vợt Tây Ban Nha, không chỉ “đổi quốc tịch” sang Brazil mà còn công khai mình là người đồng tính. Đây hoàn toàn là thông tin bịa đặt.

BBC tuyên bố không viết, không đăng, không phát hành bản tin này trên bất kỳ nền tảng nào, mà bản tin sai lệch này được tạo bởi tính năng AI do Apple triển khai cho những người dùng iPhone. Trước phản ứng dữ dội, Apple buộc phải tạm dừng tính năng đó, vốn cũng từng phát đi nhiều thông báo không chính xác khác.

Vấn đề đặt ra không chỉ là lỗi kỹ thuật mà là câu hỏi lớn hơn: Trong cuộc đua công nghệ, các công ty đã chịu áp lực đến mức nào để tung ra những sản phẩm chưa được kiểm chứng đầy đủ?

Vài tháng sau, câu chuyện lặp lại theo cách còn khó xử hơn. Tờ Chicago Sun-Times phải công khai thừa nhận một “bài học kinh nghiệm” sau khi đăng loạt sách nên đọc mùa hè, trong đó có nhiều cuốn… không hề tồn tại. Nguồn gốc của danh sách sách này đến từ một cộng tác viên làm việc với đối tác nội dung của tờ báo, vốn sử dụng AI mà không kiểm tra lại kết quả.

Tại Pakistan, tờ Dawn cũng phải xin lỗi độc giả vì bài viết về doanh số ô tô nhưng vô tình để lộ một câu lệnh dành cho AI ở cuối bài, với nội dung đề nghị làm bài viết “hấp dẫn hơn” bằng cách bổ sung các con số ngắn gọn, dễ gây chú ý nhằm tạo tác động mạnh tới người đọc. Sự cố đó cho thấy rất rõ cách AI đang được sử dụng trong một số tòa soạn hiện nay: Giúp làm nội dung nhanh hơn, rẻ hơn, nhưng cũng tiềm ẩn nhiều rủi ro nếu thiếu khâu kiểm tra cuối cùng của con người.

Sai sót trong báo chí vốn không phải chuyện mới. Tuy nhiên, điều khiến giới làm nghề lo ngại là khi một ngành đang chật vật vì tài chính lại ngày càng phụ thuộc vào AI để cắt giảm chi phí, chính công nghệ đó lại làm gia tăng nguy cơ sai sót và làm xói mòn uy tín.

... đến y tế, luật và chính trị

Nếu những sai sót của báo chí thường chỉ gây hiểu nhầm, thì trong y tế, hậu quả có thể nghiêm trọng hơn rất nhiều. Năm nay, một người đàn ông phải nhập viện vì ngộ độc brom sau khi làm theo lời khuyên của AI nhằm giảm lượng muối trong chế độ ăn.

Brom là chất có thể gây độc nếu hấp thụ quá nhiều. Khi brom tích tụ trong cơ thể, người bệnh có thể gặp các triệu chứng như rối loạn thần kinh, mệt mỏi, lú lẫn, buồn nôn, phát ban, trường hợp nặng phải nhập viện. Tình trạng này được gọi là ngộ độc brom.

Trường hợp trên khiến các nhà nghiên cứu cảnh báo rằng việc sử dụng AI cho tư vấn y tế có thể dẫn đến những hậu quả sức khỏe nghiêm trọng, nhưng hoàn toàn có thể tránh được.

Ngành luật cũng không tránh khỏi làn sóng sai sót này. Tại Úc, luật sư cao cấp đã phải xin lỗi thẩm phán chủ trì một vụ án giết người bị trì hoãn xét xử, do các bản đệ trình có hỗ trợ AI chứa đầy trích dẫn bịa đặt và các án lệ không tồn tại. Không giấu được sự bức xúc, vị thẩm phán nhận xét rằng cách mọi việc diễn ra là “không thể chấp nhận được”.

Một thống kê cho thấy kể từ tháng 4.2023 (vài tháng sau khi ChatGPT xuất hiện) đến nay, đã có gần 700 vụ việc trong ngành luật gặp rắc rối vì AI bị “ảo giác” (tạo ra thông tin không có thật).

Các dịch vụ chuyên môn khác cũng không khá hơn. Giới tư vấn đặc biệt chú ý tới thông tin hãng Deloitte phải hoàn trả một phần chi phí cho báo cáo trị giá 290.000 USD thực hiện cho chính phủ Úc, do nội dung này chứa nhiều lỗi và được sản xuất một phần bằng AI. Trong bối cảnh các hãng tư vấn đổ hàng triệu USD vào AI để giữ lợi thế cạnh tranh, sự cố này như một lời cảnh tỉnh.

Tuy nhiên, lĩnh vực gây nhiều thất vọng nhất lại là chính trị. Không phải vì AI lan truyền tin giả hay thao túng dư luận, mà do cách các chính trị gia sử dụng công nghệ này một cách hời hợt.

Câu nói “Chúng tôi không bầu cho ChatGPT” ngày càng xuất hiện nhiều, kể từ khi Thủ tướng Thụy Điển Ulf Kristersson thừa nhận ông dùng AI để tham khảo ý kiến thứ hai về một số vấn đề. Các chính trị gia khác còn dùng AI trong bản đệ trình trước nghị viện, để rồi bị phát hiện là sai sự thật.

Đỉnh điểm của sự khó hiểu xảy ra vào tháng 9 tại Albania, khi Thủ tướng Edi Rama giới thiệu “bộ trưởng” do AI tạo ra, có tên Diella, như một thành viên nội các. Dù đây có thể chỉ là động thái mang tính biểu tượng, vì hiến pháp Albania yêu cầu bộ trưởng phải là công dân từ 18 tuổi trở lên, nhưng thông điệp từ chuyện này rất đáng ngại.

Con người vốn đã khó hiểu và dễ mắc sai lầm. Khi AI được đưa vào ngày càng nhiều quyết định quan trọng, việc hiểu và kiểm soát những gì đang chi phối các quyết định đó càng trở nên khó khăn. Đây có thể chính là bài học đáng lo ngại nhất của năm 2025.

Sơn Vân

Nguồn Một Thế Giới: https://1thegioi.vn/con-nguoi-mac-day-sai-lam-vi-lam-dung-ai-trong-nam-2025-242647.html