Hai chatbot đưa tin sai về xung đột Israel - Hamas, Lực lượng Không gian Mỹ cấm dùng ChatGPT
Khi tên lửa tiếp tục bay qua Israel và Gaza trong tuần này, chatbot trí tuệ nhân tạo (AI) của Google và Microsoft đã tuyên bố sai sự thật rằng thực sự có một lệnh ngừng bắn.
Chatbot Bard của Google và Bing Chat của Microsoft bị phát hiện cung cấp thông tin không chính xác về cuộc xung đột Israel - Hamas đang diễn ra. Trong bối cảnh căng thẳng leo thang, hai chatbot này đã tuyên bố sai sự thật về sự tồn tại của thỏa thuận ngừng bắn ở Israel.
Bard và Bing Chat được thiết kế để cung cấp cho người dùng thông tin nhanh chóng và chính xác về nhiều chủ đề khác nhau. Song trong trường hợp này, câu trả lời của chúng đã không phản ánh đúng tình hình thực tế.
Google và Microsoft từng đăng các tuyên bố từ chối trách nhiệm rõ ràng về chatbot AI của họ, cảnh báo rằng chúng chỉ mang tính thử nghiệm và có thể trả lời không chính xác.
Sương mù chiến tranh trong lịch sử đã gây khó khăn cho việc thu thập thông tin chính xác và cập nhật trong các cuộc xung đột. Trong trường hợp này, hai chatbot AI đã tạo ra thông tin sai lệch một cách không thích hợp, từ đó gây hiểu lầm cho những người dùng dựa vào chúng để tìm kiếm thông tin chính xác. Vấn đề này nêu bật những hạn chế của AI trong việc diễn giải và hiểu các tình huống phức tạp.
Sương mù chiến tranh là thuật ngữ chỉ việc thu thập thông tin chưa đầy đủ trong một cuộc chiến dẫn đến sự thiếu chắc chắn trong nhận thức tình huống của các bên tham chiến.
Hơn nữa, cuộc xung đột Israel - Hamas đang diễn ra đã tạo ra luồng thông tin khổng lồ, cả chính xác lẫn sai lệch, trên nhiều nền tảng khác nhau. Các chatbot AI đóng vai trò quan trọng trong việc cung cấp cho người dùng thông tin đáng tin cậy trong thời kỳ khủng hoảng.
Khi công nghệ AI tiến bộ, nhu cầu xem xét và phát triển các hệ thống này ngày càng tăng để đảm bảo chúng cung cấp thông tin chính xác, không thiên vị. Những cải tiến trong khả năng xử lý ngôn ngữ tự nhiên và xác minh thông tin có thể góp phần mang lại kết quả tốt hơn trong tương lai.
Trong các tin tức liên quan, Microsoft sẽ sớm tung ra một tính năng AI giúp đơn giản hóa quá trình viết email. Dù sự đổi mới này có tiềm năng nâng cao năng suất nhưng cũng làm dấy lên mối lo ngại về tác động đến khả năng sáng tạo và tính xác thực của con người.
Adobe đã giới thiệu các phiên bản mới của mô hình generative AI của mình, hứa hẹn tạo ra hình ảnh chất lượng cao hơn.
Generative AI là một loại trí tuệ nhân tạo được lập trình để tự động tạo ra nội dung mới, như văn bản, hình ảnh, âm thanh và video. Nó khác với các hệ thống AI khác như máy học sâu (deep learning) hoặc học máy (machine learning) trong việc dự đoán kết quả từ dữ liệu đã có sẵn. Thay vì dựa trên dữ liệu huấn luyện, hệ thống generative AI có khả năng tự tạo ra dữ liệu mới và phong phú hơn.
Những tiến bộ không ngừng trong công nghệ AI mang lại cả cơ hội và thách thức, đòi hỏi phải cân nhắc và đưa ra quyết định cẩn thận. Điều quan trọng là phải thận trọng khi tiếp cận các chatbot AI và kiểm tra chéo phản hồi của chúng bằng các nguồn đáng tin cậy để tránh lan truyền thông tin sai lệch. Dù các hệ thống thông minh này có giá trị nhưng đôi khi chúng có thể cung cấp thông tin không chính xác hoặc lỗi thời, như được minh họa trong trường hợp nêu trên.
Lực lượng Không gian Mỹ cấm dùng ChatGPT và các công cụ generative AI dựa trên web
Lực lượng Không gian Mỹ đã tạm thời cấm sử dụng các công cụ generative AI dựa trên web như ChatGPT. Quyết định này có thể được đưa ra để duy trì tính bảo mật và tính toàn vẹn của dữ liệu nhạy cảm trong bộ.
Lực lượng Không gian Mỹ cấm nhân viên (được gọi là Guardian) sử dụng các công cụ AI như vậy, gồm cả các mô hình ngôn ngữ lớn trên máy tính của chính phủ cho đến khi nhận được sự chấp thuận chính thức của Giám đốc Văn phòng Đổi mới và Công nghệ thuộc lực lượng.
Họ cho biết lệnh cấm tạm thời là "do rủi ro tổng hợp dữ liệu".
Việc sử dụng generative AI, được hỗ trợ bởi các mô hình ngôn ngữ lớn có khả năng tiếp thu một lượng dữ liệu lớn từ quá khứ để học hỏi, đã bùng nổ trong năm qua. Điều này là nền tảng cho các sản phẩm ngày càng phát triển như ChatGPT của OpenAI có khả năng tạo nhanh nội dung như văn bản, hình ảnh hoặc video dựa trên lời nhắc đơn giản.
Lisa Costa, Giám đốc công nghệ và đổi mới của Lực lượng Không gian Mỹ, cho biết trong bản ghi nhớ rằng công nghệ này "chắc chắn sẽ cách mạng hóa lực lượng lao động và nâng cao khả năng hoạt động tốc độ của nhân viên".
Người phát ngôn Lực lượng Không quân Mỹ xác nhận về lệnh cấm tạm thời, được trang Bloomberg đưa tin đầu tiên.
Tanya Downsworth, người phát ngôn Lực lượng Không quân Mỹ, cho biết: “Chúng tôi đã thực hiện một sự tạm dừng chiến lược về việc sử dụng generative AI và mô hình mgôn ngữ lớn trong Lực lượng Không gian Mỹ trong khi xác định con đường tốt nhất để tích hợp những khả năng này vào vai trò của các nhân viên và nhiệm vụ của lực lượng. Đây là biện pháp tạm thời để bảo vệ dữ liệu của dịch vụ và nhân viên của chúng tôi”.
Lisa Costa cho biết trong bản ghi nhớ rằng văn phòng của bà đã thành lập một đội đặc nhiệm generative AI cùng các văn phòng khác của Lầu Năm Góc để nghiên cứu các cách sử dụng công nghệ này một cách "có trách nhiệm và chiến lược".
Theo bà, hướng dẫn thêm về việc sử dụng generative AI của Lực lượng Không gian Mỹ sẽ được phát hành trong tháng 11 tới.
Cuối tháng 9, Craig Martell, quan chức hàng đầu về AI của Bộ Quốc phòng Mỹ, đã kêu gọi các nhà phát triển AI phải minh bạch hơn.
Theo Craig Martell, Bộ Quốc phòng Mỹ cần biết thêm về các công cụ AI trước khi hoàn toàn cam kết sử dụng chúng. Ông muốn các công ty chia sẻ những hiểu biết sâu sắc về cách xây dựng phần mềm AI của họ để Bộ Quốc phòng Mỹ có thể cảm thấy thoải mái và an toàn khi áp dụng nó.
Hiện tại, phần mềm AI dựa trên các mô hình ngôn ngữ lớn, sử dụng các bộ dữ liệu khổng lồ để cung cấp sức mạnh cho các công cụ như chatbot và trình tạo hình ảnh. Tuy nhiên, những dịch vụ này thường được phát hành mà không tiết lộ cách thức hoạt động bên trong của chúng, khiến người dùng khó hiểu cách công nghệ đưa ra quyết định hoặc cải thiện theo thời gian.
Craig Martell bày tỏ lo ngại về việc thiếu thông tin liên quan đến cấu trúc và dữ liệu được sử dụng trong các mô hình AI này. Ông cũng nhấn mạnh những mối nguy hiểm do hệ thống AI gây ra mà các công ty thường không tiết lộ.
Để giải quyết những vấn đề đó, Craig Martell đang mời giới công nghiệp và giới học thuật tới tham dự một hội nghị chuyên đề ở Washington vào tháng 2.2024. Hội nghị chuyên đề nhằm xác định cách sử dụng phù hợp cho mô hình ngôn ngữ lớn trong Bộ Quốc phòng và phát triển các tiêu chuẩn liên quan đến các vấn đề như ảo giác (trả lời câu hỏi sai nhưng y như thật), thành kiến và nguy hiểm.
Nhóm của Craig Martell đã xác định được 200 cách sử dụng tiềm năng cho mô hình ngôn ngữ lớn trong Bộ Quốc phòng Mỹ. Ông nhấn mạnh rằng không muốn ngừng sử dụng hoàn toàn mà muốn hiểu rõ lợi ích, mối nguy hiểm và cách giảm thiểu những nguy cơ đó.
Bộ Quốc phòng Mỹ có hơn 800 dự án AI đang được triển khai, một số liên quan đến hệ thống vũ khí. Với mức đầu tư cao liên quan đến các dự án này, Bộ Quốc phòng Mỹ sẽ áp dụng tiêu chuẩn cao hơn cách sử dụng các mô hình thuật toán so với khu vực tư nhân. Craig Martell tin rằng việc cho phép xảy ra ảo giác hoặc kết quả sai là không thể chấp nhận được, đặc biệt là trong những tình huống nguy cấp khi tính mạng đang bị đe dọa.
Bằng cách tìm kiếm sự minh bạch và hiểu biết cao hơn về các công cụ AI, Bộ Quốc phòng Mỹ muốn đảm bảo triển khai chúng một cách có trách nhiệm và hiệu quả trong các hoạt động của mình.