5 thách thức về đạo đức và nỗ lực kiểm soát AI trong năm 2025
Vào năm 2025, một số câu hỏi về đạo đức trở nên cấp bách: Ai chịu trách nhiệm khi AI thất bại? Làm thế nào để cân bằng đổi mới với công bằng và bền vững? Làm thế nào để đảm bảo AI biến đổi thế giới một cách có trách nhiệm?
Bối cảnh kiểm soát AI toàn cầu năm 2025
Năm 2025, các quốc gia trên toàn thế giới đang tích cực xây dựng quy định để kiểm soát trí tuệ nhân tạo (AI). Tuy nhiên, thách thức lớn nhất hiện nay là làm thế nào để cân bằng giữa việc khuyến khích đổi mới công nghệ và giải quyết những vấn đề quan trọng về đạo đức, xã hội và an ninh. Mục tiêu trọng tâm là xây dựng một hệ thống AI có trách nhiệm, bảo đảm công bằng, minh bạch và trách nhiệm giải trình.
Liên Minh Châu Âu
Năm 2024, Liên Minh Châu Âu (EU) đã ban hành Đạo luật AI là quy định quản lý AI chi tiết và nổi bật nhất trên toàn cầu. Luật này cấm các hệ thống chấm điểm xã hội, yêu cầu gắn nhãn cho nội dung do AI tạo ra và đặt ra quy tắc nghiêm ngặt đối với các ứng dụng AI có rủi ro cao như lập hồ sơ tội phạm.
Mục tiêu chính là giảm thiểu rủi ro trong khi vẫn bảo đảm trách nhiệm giải trình. Tuy nhiên, quy định này vẫn chưa có hiệu lực hoàn toàn tính đến đầu năm 2025.
Canada
Tại Canada, Đạo luật Trí tuệ nhân tạo và Dữ liệu (AIDA) đã được giới thiệu như một phần của Dự luật C-27 trong khuôn khổ Đạo luật Thực hiện Hiến chương Kỹ thuật số năm 2022. Tuy nhiên, đến tháng 1/2025, đạo luật này vẫn chưa chính thức có hiệu lực.
Hoa Kỳ
Tháng 1/ 2025 đánh dấu sự thay đổi lớn khi Tổng thống Donald Trump bãi bỏ lệnh hành pháp mà người tiền nhiệm Joe Biden ký vào năm 2023. Lệnh của Biden được thiết lập để tạo ra các hướng dẫn an toàn liên bang cho AI tạo sinh, nhằm xây dựng một khuôn khổ thống nhất cho quy định về AI.
Sự hủy bỏ này đánh dấu sự chuyển hướng sang một chính sách thân thiện hơn với ngành công nghệ, để lại hầu hết các quy định về AI cho các bang và cơ quan liên bang tự quản lý.
Vương Quốc Anh
Khác với Đạo luật AI nghiêm ngặt của EU hay cách tiếp cận tự do hơn của Hoa Kỳ, Vương quốc Anh đã chọn hướng đi linh hoạt, ủng hộ đổi mới được nêu trong Sách trắng năm 2023. Tuy nhiên, chính phủ Lao động mới đang có kế hoạch đưa ra các luật nghiêm ngặt hơn về AI, phản ánh mối quan tâm về những tác động của công nghệ này trong cuộc sống hàng ngày.
Trong bối cảnh AI ngày càng trở nên quan trọng, những quan ngại về đạo đức đang trở nên cấp bách hơn bao giờ hết. Năm 2025, các thách thức đạo đức chủ yếu bao gồm việc cải thiện hiểu biết về AI, đảm bảo trách nhiệm giải trình, thiết kế dựa trên con người và các hoạt động bền vững. Để quản lý tốt hơn tác động của AI đến cuộc sống và xã hội, việc giải quyết những vấn đề đạo đức này là vô cùng cần thiết.
1. Kiến thức về AI: Xây dựng nhận thức và hiểu biết
Dù AI xuất hiện trong mọi khía cạnh từ tin tức mà chúng ta tiếp nhận cho đến các công cụ chúng ta sử dụng tại nơi làm việc, nhiều người vẫn không nhận thức được rằng họ đang tương tác với trí tuệ nhân tạo. Sự thiếu hiểu biết này khiến cho việc giải quyết những vấn đề nghiêm trọng như thiên vị trong thuật toán, quyền riêng tư và mối đe dọa đến việc làm trở nên khó khăn hơn.
Khi trí tuệ nhân tạo (AI) ngày càng đóng vai trò quan trọng hơn trong cuộc sống hàng ngày, việc hiểu biết về công nghệ này đã trở thành yếu tố then chốt để giải quyết các vấn đề liên quan đến đạo đức.
Phaedra Boinodiris, Trưởng nhóm AI tại IBM Consulting chỉ ra rằng: Hiểu biết về AI không chỉ đơn thuần là việc nắm rõ cách thức hoạt động của nó; mà còn bao gồm việc hiểu, sử dụng và đánh giá AI một cách có trách nhiệm.
"Để xây dựng các mô hình AI được quản lý có trách nhiệm và thực tế, chúng cũng chính là các mô hình chính xác hơn, bạn cần một đội ngũ đa dạng, không chỉ là các nhà khoa học dữ liệu. Hãy đưa các chuyên gia ngôn ngữ học, triết học, phụ huynh, người trẻ và những cá nhân có kinh nghiệm sống phong phú từ các nền tảng kinh tế xã hội khác nhau vào cuộc. Sự đa dạng về quan điểm càng lớn thì càng tốt. Vấn đề không chỉ nằm ở khía cạnh đạo đức; mà chủ yếu là ở toán học".
2. Trách nhiệm giải trình: Ai chịu trách nhiệm về các quyết định liên quan đến AI?
Trách nhiệm giải trình là một yếu tố quan trọng trong quản lý trí tuệ nhân tạo (AI). Nếu không có quy định rõ ràng về người chịu trách nhiệm cho các quyết định do AI đưa ra, mọi người có thể dễ dàng đổ lỗi cho các lỗi kỹ thuật khi mọi thứ không diễn ra như mong đợi.
AI có thể giải thích (viết tắt là XAI) đóng vai trò thiết yếu trong việc giải quyết vấn đề này. Bằng cách làm cho các quyết định của hệ thống AI trở nên minh bạch và dễ hiểu hơn, XAI giúp đảm bảo rằng những cá nhân hoặc tổ chức sử dụng AI phải chịu trách nhiệm về kết quả mà AI tạo ra.
Tiến sĩ Nathan Bos - nhà khoa học dữ liệu nhấn mạnh tầm quan trọng về mặt đạo đức của việc dạy sinh viên về XAI trong năm 2025. Đó là lý do ông đang cập nhật khóa học về đạo đức AI tại Đại học Johns Hopkins, hợp tác với Anthropic đưa vào nghiên cứu. Nghiên cứu này tập trung vào việc làm cho các hệ thống AI minh bạch hơn và các quyết định dễ hiểu hơn.
Phát hiện của Anthropic về hiện tượng "lời khen nịnh hót", nơi các hệ thống AI có thể tinh tế nịnh nọt người dùng đã khiến Tiến sĩ Bos cảm thấy lo ngại. Ông xem đây là một mối đe dọa đến an toàn, vì hành vi này có thể che giấu ý định thực sự của AI, làm cho việc quy trách nhiệm cho hệ thống trở nên khó khăn hơn.
XAI có thể giúp ngăn chặn tình trạng này bằng cách tiết lộ các mẫu ẩn, cho phép con người theo dõi và hướng dẫn AI một cách hiệu quả hơn.
3. Tác nhân AI: Tự chủ và thách thức quản lý mới
Năm 2025, sự phát triển mạnh mẽ của trí tuệ nhân tạo (AI) sẽ đặt ra những thách thức mới. Các hệ thống AI có khả năng tự lập kế hoạch và thực hiện các nhiệm vụ dựa trên mục tiêu của người dùng, điều này mang đến những lo ngại lớn về vấn đề quản trị.
Apoorva Kumar, Tổng Giám đốc điều hành và Đồng sáng lập của Inspeq AI – một nền tảng phát triển AI có trách nhiệm, cảnh báo rằng quyền tự chủ của AI đặt ra những câu hỏi nghiêm túc xung quanh quản lý. Trong khi đó, Jose Belo, đồng chủ tịch Hiệp hội các chuyên gia bảo mật quốc tế (IAPP) London, cũng nhấn mạnh sự cần thiết phải cân bằng quyền tự chủ với các biện pháp bảo vệ nhằm đảm bảo trách nhiệm giải trình.
Sự tham gia của các tác nhân AI trong công việc cũng được dự đoán sẽ ảnh hưởng lớn đến thị trường lao động. Alyssa Lefaivre Škopac, Giám đốc AI Trust and Safety tại Viện trí tuệ máy móc Alberta (Amii), dự đoán những cuộc tranh luận sẽ nảy sinh về việc AI có thể thay thế người lao động như thế nào và quy mô của sự thay thế này.
Tiến sĩ Saqib Nazir, Trợ lý Giáo sư tại Khoa Robot và Trí tuệ nhân tạo của Đại học Khoa học và Công nghệ Quốc gia (NUST) cho rằng những nhân viên trong tương lai sẽ phải chấp nhận một thực tế khắc nghiệt: "Không ngủ. Không lương. Không phúc lợi. Không thời gian nghỉ."
Các tác nhân AI sẽ có khả năng phát minh ra các giải pháp mới, thành lập các tổ chức, điều hành hoạt động một cách độc lập và phối hợp với các hệ thống AI khác.
4. AI lấy con người làm trung tâm (HCAI)
AI lấy con người làm trung tâm (HCAI) tập trung vào việc phát triển các hệ thống AI hỗ trợ và hợp tác với con người thay vì thay thế họ. Khác với các phương pháp chỉ chú trọng vào tự động hóa, HCAI chú trọng đến nhu cầu và giá trị của con người trong thiết kế AI.
Tiến sĩ Bos nhấn mạnh rằng khi AI phát triển nhanh hơn khả năng thích ứng của xã hội, việc áp dụng HCAI trở nên cần thiết để ngăn chặn các mô hình có hại trở thành thường trực. Ông cho rằng tầm quan trọng của việc tránh thiết kế các hệ thống AI mà che giấu cách thức hoạt động hoặc loại bỏ con người khỏi quá trình ra quyết định. Thay vào đó, cần phát triển các hệ thống AI dễ hiểu và tạo điều kiện cho người dùng đưa ra quyết định tốt hơn.
Các tổ chức như Sáng kiến AI lấy con người làm trung tâm của Stanford và chương trình Con người + AI của Google đang nỗ lực hiện thực hóa HCAI, tuy nhiên công việc này vẫn đang trong quá trình triển khai.
5. Mối quan tâm về môi trường
Nhu cầu năng lượng cao từ các mô hình AI đang gây ra thách thức lớn về môi trường, làm cho hoạt động bền vững trở nên thiết yếu trong ngành. Các chuyên gia nhấn mạnh rằng việc giảm tác động môi trường của AI là trách nhiệm chung của cả nhà cung cấp và người dùng.
Nhà cung cấp AI cần tiên phong trong việc phát triển hệ thống tiết kiệm năng lượng và cung cấp báo cáo carbon minh bạch, qua đó cho thấy mức tiêu thụ năng lượng và tìm ra giải pháp giảm phát thải.
Người dùng AI cũng có thể đóng góp bằng cách lựa chọn các trung tâm dữ liệu xanh, quản lý chặt chẽ việc sử dụng đám mây và tránh lãng phí năng lượng.
Năm 2025 sẽ là thời điểm quyết định cho các thách thức đạo đức, môi trường và quy định liên quan đến AI. Giải quyết những thách thức này vào năm 2025 là quan trọng để đảm bảo AI phát triển trách nhiệm và mang lại lợi ích.