Cảnh báo về những mặt trái của phát triển trí tuệ nhân tạo

Trong những năm gần đây, việc ứng dụng trí tuệ nhân tạo (AI) cho phép các hệ thống vũ khí tự động lựa chọn và tấn công mục tiêu đã gây nhiều tranh cãi về mặt đạo đức.

Ảnh minh họa. (Nguồn: irishtimes.com)

Theo nghiên cứu mới nhất, Amazon, Microsoft và Intel nằmtrong số các công ty công nghệ đang đẩy thế giới vào một cuộc chạy đua vũ trangnguy hiểm với việc phát triển cácrobotthông minh cókhả năng hủy diệt.

Tổ chức phi chính phủ Pax của Hà Lan đã xếp hạng khoảng 50công ty công nghệ theo ba tiêu chí: liệu họ có đang phát triển công nghệ liênquan đếntrítuệ nhân tạo(AI) nguy hiểm không, liệu họ có đang triển khai các dưạ́n quân sự liên quan và liệu họ có cam kết không tham gia chạy đua vũ trang AItrong tương lai hay không.

Trong số này, 22 công ty được xếp hạng ở mức "quan ngạitrung bình," 21 công ty ở mức "quan ngại cao."

Amazon và Microsoft đang tìm cách "có chân" trongdự án trị giá 10 tỷ USD của Bộ Quốc phòng Mỹ cung cấp cơ sở hạ tầng điện toánđám mây cho quân đội Mỹ.

Ngoài ra, Palantir, doanh nghiệp có liên hệ với tổ chức đâùtư do Cơ quan Tình báo Trung ương Mỹ (CIA) hậu thuẫn, đã nhận được hợp đồng trịgiá 800 triệu USD để phát triển hệ thống AI có thể giúp các binh sỹ phân tíchkhu vực chiến đấu kịp thời.

Trong những năm gần đây, việc ứng dụng AI cho phép các hệthống vũ khí tự động lựa chọn và tấn công mục tiêu đã gây nhiều tranh cãi vềmặt đạo đức.

Những ý kiến chỉ trích cho rằng hệ thống này sẽ đe dọa đếnan ninh quốc tế và báo trước một cuộc cách mạng thứ ba trong chiến tranh sausúng đạn và bom nguyên tử.

Giáo sư Khoa học máy tính của Đại học California, Berkeley(Mỹ), ông Stuart Russell nhận định các vũ khí tự động chắc chắn sẽ trở thành vũkhí hủy diệt hàng loạt, vì một cá nhân có thể "kích hoạt" hàng triệu,thậm chí là trăm triệu vũ khí cùng lúc.

Thực tế cho thấy các tập đoàn sẽ nghiên cứu và phát triểncác loại vũ khí tự động, và chính những tập đoàn này sẽ đóng vai trò lớn trongviệc ngăn các vũ khí tự động trở nên phổ biến.

Việc phát triểnAIvì mục đích quân sựđã gây tranh cãi và phản đối ngay trong chính ngành công nghiệp này.

Năm ngoái, Google đã từ chối gia hạn hợp đồng Maven với LâùNăm Góc, trong đó sử dụng máy móc để phân biệt con người và vật thể trong cácđoạn video của máy bay không người lái.

Google cũng không tham gia đấu thầu dự án Cơ sở Hạ tầng quốcphòng doanh nghiệp chung (JEDI) về điện toán đám mây mà Amazon và Microsoftmuốn thực hiện.

Ngay chính các nhân viên của Microsoft cũng lên tiếng phảnđối hợp đồng của tập đoàn vơíquânđội Mỹvề kính thực tế ảo - HoloLens - để tăng tính sát thương trênchiến trường.

Giáo sư Russell cảnh báo mọi loại vũ khí hiện nay đều có thểđược chuyển sang phiên bản tự động, từ các loại súng thông thường tới xe tăng,chiến đấu cơ hay tàu ngầm.

Trong tương lai, nguy cơ từ các thiết bị quân sự như máy baykhông người lái trang bị vũ trang ngày càng lớn.

Do đó, ông cho rằng quốc tế cần đưa ra lệnh cấm sử dụng AIvì mục đích gây sát thương, nói cách khác là cấm phát triển, triển khai và sửdụng những cỗ máy thông minh có thể tư duy và ra quyết định này.

Tháng Tư vừa qua, Liên minh châu Âu (EU) đã công bố bộ quyđịnh hướng dẫn các công ty và chính phủ nên phát triển AI vì sự thịnh vượng củaxã hội và môi trường mà không phân biệt đối xử, tôn trọng quyền riêngtư./.

Theo Đặng Ánh (TTXVN/Vietnam+)

Nguồn Ninh Bình: http://baoninhbinh.org.vn/canh-bao-ve-nhung-mat-trai-cua-phat-trien-tri-tue-nhan-tao-20190823073322341p4c32.htm