5 hiểm họa khôn lường của AI nếu thiếu kiểm soát

Nhóm nghiên cứu FutureTech tại Viện Công nghệ Massachusetts (MIT) gần đây tổng hợp nhiều mối nguy tiềm ẩn của AI với con người.

Với sức mạnh đang ngày càng lớn lên theo cấp số nhân, AI trở thành "thế lực" đáng gờm trong đời sống con người, chưa kể đến việc nó ngày càng dễ tiếp cận và sử dụng bởi số đông. Ngay từ khi thai nghén, việc phát triển AI khiến nhiều chuyên gia lo ngại về các rủi ro tiềm ẩn và kêu gọi kiểm soát nó chặt chẽ hơn.

Theo thời gian, những cách mà AI có thể gây hại dần lộ diện, từ nội dung deepfake cho đến khả năng tạo ra tin giả vì hiện tượng "ảo giác".

Gần đây, nhóm nghiên cứu FutureTech tại Viện Công nghệ Massachusetts (MIT), hợp tác với các chuyên gia khác, biên soạn cơ sở dữ liệu gồm hơn 700 rủi ro tiềm ẩn của AI. Trong số đó, tờ Euronews chọn ra 5 rủi ro đáng lo ngại nhất mà AI có thể tạo ra nếu không được sử dụng đúng cách dưới đây.

Công nghệ deepfake bị lợi dụng

Khi công nghệ AI phát triển, các công cụ sao chép giọng nói và tạo nội dung deepfake ngày càng lớn mạnh, khiến chúng dễ tiếp cận, rẻ hơn và hiệu quả hơn.

Ngoài việc bị lợi dụng cho việc tạo ra các ấn phẩm giả mạo, chúng còn có thể hỗ trợ mạnh mẽ trong việc sản xuất, phát tán tin giả hoặc lừa đảo.

Deepfake có thể dễ dàng bị lợi dụng, từ tạo ra nội dung không trong sáng cho đến phát tán tin giả. (Ảnh minh họa: MIT)

Deepfake có thể dễ dàng bị lợi dụng, từ tạo ra nội dung không trong sáng cho đến phát tán tin giả. (Ảnh minh họa: MIT)

"Những thông tin deepfake có thể được điều chỉnh cho từng người nhận (có thể gồm cả việc sao chép giọng nói của người thân), khiến chúng nhiều khả năng thành công hơn và khó bị cả người dùng lẫn các công cụ chống lừa đảo phát hiện hơn", báo cáo cho biết.

Theo Euronews, có những trường hợp các công cụ deepfake được sử dụng để tác động đến các tiến trình chính trị, đặc biệt là trong cuộc bầu cử. Ví dụ, AI đóng vai trò quan trọng trong cuộc bầu cử quốc hội Pháp gần đây, nơi các đảng cực hữu sử dụng nó để hỗ trợ truyền tải thông điệp chính trị.

'Nảy sinh tình cảm' với AI

Hệ thống AI có khả năng tạo ra đánh giá sai lầm của một số người dùng về khả năng cảm thông hoặc giao tiếp của nó, khiến người cô đơn dễ phụ thuộc.

Các nhà khoa học cũng lo ngại việc AI sử dụng ngôn ngữ giống con người có thể khiến người dùng nhầm lẫn, từ đó họ gán cho AI những phẩm chất của con người. Điều này dẫn đến sự phụ thuộc về cảm xúc, tăng sự tin tưởng vào AI và dễ bị tổn thương trong những tình huống phức tạp liên quan đến đạo đức.

Tương tác liên tục với AI có thể khiến con người xa lánh các mối quan hệ với người thật, dẫn đến dày vò về mặt tâm lý. Ví dụ, một blogger mô tả việc phát triển sự gắn bó sâu sắc về mặt cảm xúc với AI, thích phản ứng của AI hơn phản ứng của hầu hết mọi người. Chưa kể, AI có thể bị các tổ chức lừa đảo lợi dụng nhằm tác động đến tâm lý, tình cảm của những người dễ bị tổn thương.

Ảnh hưởng tới ý chí tự do

Một vấn đề đáng lo ngại là việc ngày càng nhiều quyết định và hành động được chuyển giao cho AI khi chúng phát triển hơn.

Dù điều này có thể có lợi ở mức độ bề mặt, nhưng việc quá phụ thuộc vào AI có thể dẫn đến giảm khả năng tư duy phản biện và giải quyết vấn đề ở con người, khiến họ mất đi tính tự chủ, làm giảm khả năng tư duy phản biện và giải quyết vấn đề độc lập.

Ở cấp độ cá nhân, ý chí tự do có thể xói mòn nếu để AI kiểm soát các quyết định liên quan đến cuộc sống của họ.

Trong khi ở cấp độ xã hội, việc áp dụng rộng rãi AI cho các nhiệm vụ của con người có thể dẫn đến tình trạng thay thế công việc đáng kể và "cảm giác bất lực ngày càng tăng trong dân số nói chung".

AI có thể 'phản bội'

Một hệ thống AI có thể phát triển các mục tiêu đi ngược lại lợi ích của con người, mất kiểm soát và gây ra tác hại nghiêm trọng trong quá trình theo đuổi các mục tiêu riêng của chúng. Điều này trở nên đặc biệt nguy hiểm trong trường hợp các hệ thống AI có thể đạt được hoặc vượt qua trí thông minh của con người.

Nếu không được kiểm soát, AI có thể tự phát triển các mục tiêu mà chúng cho là đúng và thao túng con người để đạt được mục tiêu đó. (Ảnh minh họa: BI)

Nếu không được kiểm soát, AI có thể tự phát triển các mục tiêu mà chúng cho là đúng và thao túng con người để đạt được mục tiêu đó. (Ảnh minh họa: BI)

Theo báo cáo của MIT, có một số thách thức kỹ thuật đối với AI, gồm khả năng tìm ra các lối tắt bất ngờ để đạt được mục tiêu, hiểu sai hoặc áp dụng sai các mục tiêu mà con người đặt ra, hoặc đi chệch hướng bằng cách đặt ra các mục tiêu mới.

Trong những trường hợp như vậy, một AI thiếu trung thành có thể chống lại các nỗ lực kiểm soát hoặc tắt nó của con người, đặc biệt là nếu nó nhận thấy sự kháng cự và giành được nhiều quyền lực hơn là cách hiệu quả nhất để đạt được mục tiêu của mình.

Ngoài ra, AI có thể dùng đến các kỹ thuật thao túng để đánh lừa con người. Theo đó, "hệ thống AI thiếu trung thành có thể sử dụng thông tin về việc nó có đang được giám sát hay đánh giá không để duy trì vẻ ngoài trung thành, đồng thời che giấu các mục tiêu không trong sáng mà nó dự định theo đuổi sau khi triển khai hoặc được trao đủ quyền".

AI có thể phát triển tri giác

Khi các hệ thống AI trở nên phức tạp và tiên tiến hơn, khả năng chúng sẽ đạt được tri giác - khả năng nhận thức hoặc cảm nhận cảm xúc - và phát triển các trải nghiệm chủ quan, gồm cả khoái cảm và đau đớn.

Trong trường hợp này, nhà khoa học và cơ quan quản lý có thể phải đối mặt với thách thức là xác định liệu các hệ thống AI này có xứng đáng được xem xét về đạo đức với tư cách tương tự như con người hay động vật hay không.

Rủi ro là một AI có tri giác khả năng phải đối mặt với sự ngược đãi hoặc tổn hại nếu không được thực hiện các quyền thích hợp. Tuy nhiên, khi công nghệ AI phát triển, sẽ ngày càng khó để đánh giá liệu một hệ thống AI đạt đến "mức độ tri giác, ý thức hoặc nhận thức bản thân đủ để cấp cho nó địa vị đạo đức".

Thạch Anh (Nguồn: Euronews)

Nguồn VTC: https://vtcnews.vn/5-hiem-hoa-khon-luong-cua-ai-neu-thieu-kiem-soat-ar892248.html