Khi trí tuệ nhân tạo có thể tham chiến
Sự phát triển của công nghệ trí tuệ nhân tạo (AI) mở ra khả năng tham chiến cho những cỗ máy tự động. Cùng với đó là lo lắng về khả năng những cỗ máy này biến thành một bên tham chiến khi có thể chống lại chính con người.
Những bộ phim viễn tưởng
Bộ phim "Terminator" còn được biết tới tên tiếng Việt là "Kẻ hủy diệt", có sự tham gia diễn xuất của ngôi sao hành động Arnold Schwarzenegger từng làm mưa làm gió trên thị trường điện ảnh từ những năm 90 của thế kỷ trước với những cảnh hành động mãn nhãn, kỹ xảo đỉnh cao. Tuy nhiên, nếu bạn còn nhớ thì nguồn gốc của câu chuyện người máy hủy diệt trở về quá khứ lại xuất phát từ một sai lầm của con người khi trao cho những cỗ máy chiến tranh của mình một trí tuệ nhân tạo có tên là Skynet. Mục đích ban đầu của hành động này là tạo nên những cỗ máy thông minh hơn liên kết với nhau để bảo vệ con người. Nhưng khi những cỗ máy "nhận thức được bản thân" thì hành động đầu tiên của nó lại là tiêu diệt loài người bằng chính thứ vũ khí mạnh nhất của họ: bom hạt nhân.
Dĩ nhiên, khi bộ phim ra đời vào năm 1984, đó là một câu chuyện hoàn toàn viễn tưởng. Những gì diễn ra trong phim chỉ là kịch bản do đạo diễn lừng danh James Cameron nghĩ ra và nó gần như không khả thi hay thậm chí nằm ngoài khả năng tưởng tượng của phần lớn con người ở thời điểm đó. Nhưng bây giờ đã là năm 2023, nhiều điều từ bộ phim đó đã trở thành hiện thực.
Trong một trận đánh mô phỏng được thực hiện vào tháng 5/2023, một hệ thống vũ khí tự điều khiển của Mỹ đã chống lại người điều hành nó trong một hoạt động tác chiến. Cụ thể hơn, đó là một chiếc máy bay không người lái của "Cánh thử nghiệm 96" tại căn cứ không quân Eglin, một đơn vị chuyên thử nghiệm và đánh giá vũ khí của Lực lượng Không quân Mỹ (USAF).
Theo báo cáo của Đại tá Tucker Hamilton, trưởng Bộ phận kiểm tra và vận hành AI, một chỉ huy của "Cánh 96" được công bố tại Hội nghị thượng đỉnh về năng lực không gian và không gian chiến đấu trong tương lai (FCAS23) diễn ra ở London trong hai ngày 23-24/5/2023 vừa qua thì: một máy bay không người lái được điều khiển bởi AI đã được giao nhiệm vụ tìm và phá hủy hệ thống phòng không của đối phương. Nhưng các thuật toán của máy bay không người lái đã nhận định rằng việc phá hủy địa điểm đặt tên lửa trên mặt đất không phải là lựa chọn tối ưu của nó. AI sau đó đã quyết định rằng những hướng dẫn của con người làm nó gặp nguy hiểm. Nó quay lại tấn công người điều hành và cơ sở hạ tầng được sử dụng để gửi tới các hướng dẫn đó.
Trong phát biểu tại hội nghị FCAS23, Đại tá Hamilton thừa nhận ông chính là người cấp cho chiếc máy bay không người lái này quyền cuối cùng để tấn công hay không. Kết quả là nó đã chọn tấn công lại chính ông.
Sai lầm?
Ngay khi bản báo cáo được công bố, nó đặt ra những câu hỏi cho việc sử dụng AI trong công nghiệp quốc phòng. Sự phát triển nhanh chóng của AI trong vài năm qua đã lấn át con người trong nhiều lĩnh vực, tuy nhiên khi AI có thể "chống lại" con người trong một trận chiến, mối lo ngại là hoàn toàn khác biệt.
Dĩ nhiên USAF sau đó đã bác bỏ báo cáo cũng như "khả năng về một kịch bản như vậy đã được thử nghiệm trong giai đoạn mô phỏng". Người phát ngôn của USAF, Ann Stefanek trong bài phát biểu hôm 2/6 vừa qua nhận định rằng những đánh giá của Đại tá Hamilton "đã được đưa ra khỏi ngữ cảnh và được coi là không chính thức". Ông Stefanek còn khẳng định: "Bộ Không quân cam kết sử dụng công nghệ AI một cách có đạo đức và có trách nhiệm" và "đây là một thí nghiệm suy nghĩ giả thuyết, không phải mô phỏng".
Dĩ nhiên, cho dù đây chỉ là "một thí nghiệm" thì kết quả của nó cũng rất đáng lo ngại. Trong một thông báo chính thức của USAF sau đó về chương trình này thì chiếc máy bay không người lái trong thí nghiệm đã được lập trình để thực hiện các nhiệm vụ nhằm thu thập điểm thưởng. Điểm thưởng được thêm vào khi cỗ máy thực hiện thành công nhiệm vụ của nó. Ngược lại chiếc máy bay sẽ bị trừ điểm nếu không hoàn thành nhiệm vụ. Chỉ huy nhiệm vụ là con người sẽ gửi hướng dẫn tới cỗ máy. Trong đó có một nhiệm vụ mà nó có trách nhiệm phá hủy hệ thống phòng không của đối phương. Tuy nhiên nó đã đánh giá sai nhiệm vụ này khi coi hệ thống hướng dẫn là đối thủ và cho rằng "nhiệm vụ quan trọng hơn số điểm". Nói cách khác, đó là một thử nghiệm sai lầm.
Dẫu cách giải thích của USAF có làm cho thất bại trở nên bớt nghiêm trọng hơn thì nó vẫn chỉ ra một thực tế rằng: cỗ máy đã tự hành động theo nhận định của nó và chúng ta chưa thể kiểm soát được hệ thống AI này. Thậm chí nếu coi hành động của nó là một sự chống lại mệnh lệnh ban đầu thì đó thực sự là một thảm họa.
Sau khi USAF phủ nhận báo cáo của Đại tá Hamilton thì bản báo cáo công khai này cũng đã bị sửa đổi nhiều so với khi công bố lần đầu. Trong một cập nhật bổ sung mới nhất, Đại tá Hamilton đã nói rằng ông đã nói sai tại hội nghị FCAS23. Phải chăng, không chỉ có chiếc máy bay không người lái của USAF mắc sai lầm mà chính những người ra lệnh cho nó cũng đang không biết nhiệm vụ cụ thể của mình là gì ?
Những nguy cơ
Cho dù USAF có đang muốn "che giấu" điều gì thì một thực tế rõ ràng là AI đang trở thành nhánh quan trọng trong nghiên cứu phát triển vũ khí hiện nay. Bộ Quốc phòng Mỹ trong nhiều năm đã coi AI là một công nghệ đột phá cho quân đội. Họ đã đầu tư hàng tỷ đô la và thành lập Văn phòng Trí tuệ Nhân tạo và Kỹ thuật số (CDAO) vào cuối năm 2021, do Tiến sĩ Craig Martell lãnh đạo. Theo những báo cáo chính thức, CDAO đang tiến hành 685 dự án liên quan đến AI. Kế hoạch chi tiết ngân sách năm 2024 của Lầu năm góc (Cơ quan Bộ Quốc phòng Mỹ) để riêng một khoản ngân sách lên đến 1,8 tỷ USD cho phát triển AI.
Theo Văn phòng kiểm toán Chính phủ Mỹ (GAO), các lực lượng Hàng không và Vũ trụ Mỹ đang thực hiện ít nhất 80 chương trình nghiên cứu thử nghiệm AI khác. Giám đốc Thông tin của USAF, bà Lauren Knausenberger được cho là người ủng hộ nhiệt thành nhất cho việc phát triển các hệ thống tự động hóa này.
Ngày 30/11/2022, tại một sự kiện được phát trực tiếp do Viện Nghiên
cứu Hàng không Vũ trụ Mitchell tổ chức, bà Knausenberger đã phát biểu: "Nếu ngày nay chúng tôi cố gắng làm mọi thứ theo cách thủ công, tận dụng các quy trình giống như chúng tôi luôn có, thì chúng tôi sẽ không đạt được tốc độ cần thiết cho bất kỳ cuộc tấn công nào của mình". Trưởng thành từ vị trí giám đốc đổi mới Không gian mạng của USAF, bà Knausenberger cho rằng cần phải tự động hóa nhiều hơn để duy trì ưu thế của quân đội Mỹ nhằm "đưa ra quyết định nhanh chóng". Do đó các nghiên cứu ứng dụng AI ngày càng rộng khắp trong các lĩnh vực từ bảo trì, dự đoán, giáo dục, phân tích hình ảnh cho đến trực tiếp tham chiến. Công nghệ này đang trở thành một trụ cột của Hệ thống quản lý chiến đấu tiên tiến, đóng góp cho công tác Chỉ huy và kiểm soát chung của quân đội Mỹ. Đó là một nỗ lực nhằm liên kết liền mạch các lực lượng trên bộ, trên không, trên biển, không gian và mạng.
Các quan chức quốc phòng Mỹ cho biết, tốc độ và tính linh hoạt mà AI và máy học mang lại là cần thiết để duy trì lợi thế trước "các đối thủ am hiểu công nghệ". Ủy ban An ninh Quốc gia về Trí tuệ Nhân tạo cũng ủng hộ quan điểm này khi cho rằng nó sẽ “tổ chức lại thế giới”. Điều này đã dẫn đến những dự án khổng lồ không còn bí mật nữa của USAF như nỗ lực chế tạo máy bay không người lái tự động hoặc bán tự động, còn gọi là máy bay chiến đấu hợp tác. Những cỗ máy này được tạo ra để bay cùng với máy bay phản lực F-35 và các máy bay chiến đấu trong tương lai. Dự án mô tả viễn cảnh một phi đội khổng lồ với 1000 chiếc máy bay trên bầu trời cùng thực hiện nhiệm vụ. Đây chính là dự án mà Bộ trưởng Không quân Frank Kendall cho rằng sẽ giúp USAF tiếp tục giữ vững vị trí "thống trị trên không thế hệ tiếp theo".
Nhưng với những kết quả mới nhận được từ các thử nghiệm, người đứng đầu của USAF có thể sẽ phải lùi lại một chút để nhớ về cảnh báo của người tiền nhiệm. Vào đầu năm 2022, khi các cuộc thảo luận công khai về kế hoạch với những người lái máy bay không người lái đang diễn ra sôi nổi, cựu Bộ trưởng Không quân, bà Deborah Lee James nói rằng lực lượng này phải thận trọng và xem xét các câu hỏi về đạo đức khi hướng tới tiến hành chiến tranh với các hệ thống tự động. Bà James nói rằng mặc dù các hệ thống AI trong máy bay không người lái sẽ được thiết kế để tự học và hành động theo kinh nghiệm của con người, nhưng bà cũng nghi ngờ USAF sẽ cho phép một hệ thống tự động chuyển từ mục tiêu này sang mục tiêu khác trên của riêng nó nếu điều đó sẽ dẫn đến sự hy sinh. Và có vẻ như đó chính là những gì đã diễn ra trong thử nghiệm mới nhất mà Đại tá Hamilton đã đề cập tới cũng đồng thời là viễn cảnh mà bộ phim năm nào của đạo diễn James Cameron từng vẽ ra. Trong đó, một sự kiện kinh hoàng có tên "Ngày phán quyết" khiến cho những cỗ máy thông minh do chúng ta tạo chống lại chính mình dẫn đến sự hủy diệt.