Rủi ro đạo đức với AI: mỗi người hãy thận trọng hơn, ít ngây thơ hơn

Rủi ro đạo đức với AI (Artificial Intelligence - trí tuệ nhân tạo) sẽ không chỉ dừng lại ở chuyện an ninh thông tin của mỗi người bị ảnh hưởng, mà còn có những nguy cơ nghiêm trọng như: sự phân biệt chủng tộc, thậm chí là sinh mệnh con người, tội ác chiến tranh...

“Khi áp dụng AI trong an ninh quốc phòng, điều gì xảy ra nếu hệ thống không người lái nhận định nhầm những cơ sở dân sự là mục tiêu quân sự và ném bom vào nó…”, ông Mai Tấn Tài - Phó giáo sư ngành khoa học máy tính, Đại học Thành phố Dublin (Ireland), nêu ví dụ về một rủi ro đạo đức với AI khi chia sẻ với phóng viênbên lề buổi tọa đàm Rủi ro đạo đức với trí tuệ nhân tạo do Tia Sáng tổ chức chiều 28.7 tại Hà Nội.

Chuyên gia khoa học máy tính Mai Tán Tài. Ảnh: Hoàng Hương

Chuyên gia khoa học máy tính Mai Tán Tài. Ảnh: Hoàng Hương

Phân biệt chủng tộc, sinh mệnh con người và những gì nữa?

Phân tích về rủi ro đạo đức với AI, chuyên gia Mai Tấn Tài cho biết nguy cơ nhãn tiền là an ninh cá nhân.

Dữ liệu cá nhân của mọi người trước đây bị lộ không được mấy ai quan tâm do chưa có nhiều công cụ và công nghệ để có thể khai thác được dữ liệu đó. Nhưng bây giờ thì khác, có rất nhiều công cụ để ai đó có thể khai thác dữ liệu bị lộ của các cá nhân vào những mục đích không trong sáng.

Hậu quả là mọi người có thể bị gửi thông tin không mong muốn, những phiền toái hàng ngày như cuộc gọi quảng cáo, hoặc tiêm nhiễm vào đầu cộng đồng những thông tin mang tính cực đoan…

Nhưng theo ông Tài, rủi ro đạo đức với AI còn có thể đi xa hơn, khi mà công nghệ được áp dụng nhiều hơn. Ví dụ như sự thiên lệch về mặt quyết định của các hệ thống AI.

“Bạn hay con cái của bạn có thể bị loại khỏi một cuộc cạnh tranh nào đó chỉ vì các bạn mang một vài đặc trưng khiến AI, do bị lỗi thiên lệch, định kiến, đã loại bỏ các bạn. Ví dụ ở các nước phát triển có thể gặp vấn đề về phân biệt chủng tộc do lỗi của AI. Những người da màu bị loại ra khỏi các sự kiện, trường học, công việc…”, ông Tài nói.

Chuyên gia này giải thích AI thiên lệch vì dữ liệu có sự thiên lệch. Dữ liệu thiên lệch bởi không ai có thể thu thập được dữ liệu của mọi nơi trên thế giới mà chỉ sử dụng một bộ phận của dữ liệu thôi.

Thí dụ trong dữ liệu cho thấy 70% các nhà khoa học nghiên cứu về AI là người da trắng. Khi dữ liệu đó được huấn luyện thì AI sẽ hiểu là đa phần những người nghiên cứu AI là những người da trắng.

Khi nhà tuyển dụng đặt câu hỏi cho AI như hãy giúp tôi đưa ra những tiêu chí để tìm được người phát triển AI giỏi, thì hệ thống sẽ đưa ra tiêu chí trong đó có tiêu chí về màu da.

Trong thực tế không phải người da trắng giỏi về AI hơn người da màu mà chỉ là do độ sẵn sàng về dữ liệu thì người da trắng nhiều hơn người da màu và công ty phát triển AI đó họ chỉ có dữ liệu như vậy chứ không có được dữ liệu bao quát.

Rủi ro đạo đức với AI còn có thể đi xa hơn, khi mà công nghệ được áp dụng nhiều hơn. Ảnh: Getty Images

Ông Tài cũng dẫn thêm ví dụ khác về nguy cơ phân biệt chủng tộc từ AI. Khi tìm kiếm cụm từ “Cute baby” trên google, ông nhận được kết quả hầu hết là các em bé da trắng.

“Kết quả này liệu có tiêm nhiễm vào đầu những người dùng rằng các em bé phải da trắng mới dễ thương. Trong khi các bé da màu cũng dễ thương. Chỉ vì dữ liệu đầu vào có nhiều em bé da trắng hơn da màu nên mới sinh ra như vậy”, ông Tài nói.

Ngoài nguy cơ phân biệt chủng tộc, AI còn có thể đưa đến nguy cơ lớn hơn, thậm chí là sinh mệnh con người.

Ông Tài ví dụ khi áp dụng AI trong an ninh quốc phòng, nếu nhầm lẫn có thể gây ra những thiệt hại về sinh mệnh con người mà rất khó quy trách nhiệm cho bên nào.

“Tội ác chiến tranh do AI tạo ra sẽ được quy cho ai, cho đất nước phát động chiến tranh hay cho những người phát triển hệ thống AI. Đây là những vấn đề rất khó cần đưa ra để mổ xẻ”, ông Tài nói.

“Bớt ngây thơ khi nghĩ về AI”

Để hạn chế những rủi ro đạo đức với AI, ông Tài cho rằng phải có sự tiếp cận hai chiều, từ trên xuống và từ dưới lên.

Từ trên xuống là các chính sách của chính phủ, các quy tắc đạo đức với các nhà khoa học nghiên cứu AI.

Từ dưới lên chính là nhận thức của người dân về AI. Người dân luôn luôn phải có ý thức bảo vệ dữ liệu của mình trước, và phải trang bị thêm về nguyên lý hoạt động của AI. Không cần chuyên sâu như các nhà khoa học, mà ở mức độ thường thức để vẫn hiểu được AI thế nào và khả năng sử dụng dữ liệu của mình sẽ đi xa tới đâu.

“Mọi người có lẽ nên tiếp cận AI cẩn trọng, ít ngây thơ hơn. Đừng nghĩ AI chỉ là của các nhà nghiên cứu, của chính phủ mà nó liên quan mật thiết với mỗi người nên tiếp cận cẩn thận, tìm hiểu về nó nhiều hơn”, ông Tài đưa ra lời khuyên.

Hoàng Hương

Nguồn Người Đô Thị: https://nguoidothi.net.vn/rui-ro-dao-duc-voi-ai-moi-nguoi-hay-than-trong-hon-it-ngay-tho-hon-40409.html