Công việc ẩn sau các chương trình trí tuệ nhân tạo

Khi các chương trình AI ngày càng trở nên phổ biến, những nhân viên 'vô hình' và những người dễ bị tổn thương bởi AI cần sự quan tâm đặc biệt.

 Ảnh: MIT Sloan

Ảnh: MIT Sloan

Trí tuệ nhân tạo thường được tung hô dưới góc độ công nghệ thu hút sự chú ý và tương lai chói lọi. Nhưng nguồn nhân lực kích hoạt các chương trình này như dán mã hình ảnh hoặc tích hợp các chương trình vào nơi làm việc thường bị bỏ qua hoặc đánh giá thấp.

Theo nhà khoa học nghiên cứu cấp cao tại Google, Madeleine Clare Elish, "Đây là một mô hình phổ biến trong các nghiên cứu xã hội về công nghệ. Việc tập trung vào công nghệ mới và sự đổi mới hiện đại nhất đi kèm với việc bỏ quên những con người đang làm việc để đưa sự đổi mới đó hoạt động trong thế giới thực".

Phát biểu tại hội nghị EmTech Digital gần đây do MIT Technology Review tổ chức, Elish và các nhà nghiên cứu khác cho biết các chương trình trí tuệ nhân tạo thường không tính đến những người kết hợp các hệ thống AI vào quy trình làm việc hiện tại, nhân viên "đứng sau cánh gà" thực hiện các chương trình và những người bị ảnh hưởng tiêu cực bởi kết quả của AI.

Elish cho biết: "Đây là một thách thức đối với đạo đức AI, bởi vì việc bỏ qua vai trò của con người sẽ bỏ lỡ những gì đang thực sự diễn ra".

Dưới đây là kết quả của nhóm nghiên cứu về cách làm cho các hệ thống AI hoạt động hiệu quả và đạo đức hơn.

Xem xét cách AI được tích hợp vào nơi làm việc

Elish và nhóm nghiên cứu đã xem xét một sáng kiến của Đại học Duke có tên là Sepsis Watch, một hệ thống dựa trên AI để xác định các trường hợp nhiễm trùng huyết và sớm đưa ra cảnh báo.

Chương trình đã cải thiện đáng kể các trường hợp bệnh nhân bị nhiễm trùng huyết, nhưng đối với các nguồn nhân lực trong bệnh viện, Sepsis Watch đã gây rắc rối. Nó đã thay đổi cách thức giao tiếp của các y tá và bác sĩ phản ứng nhanh, và các y tá phải tìm ra những cách tốt nhất để chuyển điểm rủi ro cho bác sĩ.

Cụ thể, các y tá cấp cứu (RRT) sẽ là những người dùng chính của Sepsis Watch. Bởi lẽ, các bác sỹ – người chịu trách nhiệm đánh giá tình trạng và chẩn đoán cho bệnh nhân, có quá nhiều trách nhiệm khác, và vì vậy không có thời gian để liên tục theo dõi ứng dụng. Trái lại, các y tá RRT lại luôn phải kiểm tra tình trạng bệnh nhân và hỗ trợ họ khi cần thiết. Do đó, Sepsis Watch có thể được tích hợp dễ dàng vào quy trình làm việc của y tá.

Tuy nhiên, điều này lại mang tới một trở ngại lớn. Cụ thể, khi ứng dụng phát hiện bệnh nhân có nguy cơ sốc nhiễm khuẩn cao, y tá sẽ phải gọi bác sỹ phụ trách nhiễm khuẩn ở khoa cấp cứu (ED) – người không hề có quan hệ gì với họ trước đó, đồng thời làm việc ở một bộ phận hoàn toàn khác. Sự thay đổi này đã làm xáo trộn tiến trình thông báo thông thường tại bệnh viện, và các y tá cũng đã rất sốc khi biết họ phải đảm nhận việc gọi ED.

Elish cho biết: "Nhóm phát triển công nghệ thậm chí còn chưa suy tính đến điều này, nhưng chiến lược này tỏ rõ vai trò cần thiết. Chúng tôi đã thấy những cá nhân có kỹ năng thực hiện công việc cần thiết nhưng bị bỏ qua và đánh giá thấp."

Các y tá đã hoàn thành công việc mà Elish và các nhà nghiên cứu gọi là công việc sửa chữa (repair work) - công việc cần thiết để đưa công nghệ hoạt động hiệu quả trong thực tiễn.

Cách mà nhiều người tập trung vào công nghệ và sự phát triển của các chương trình AI đã bỏ sót những người đang thực hiện vận hành AI.

"Rất nhiều công việc đằng sau sự phổ biến của AI trên thế giới trở nên vô hình và sau đó bị đánh giá thấp," Elish nói.

Trong trường hợp của Sepsis Watch, mọi người sau đó tôn trọng quyền tự chủ của các y tá, và họ được phép ứng biến linh hoạt và tạo ra các cách thông báo về điểm số nguy cơ nhiễm trùng huyết. Những người tạo ra hệ thống AI cần phân bổ nguồn lực để hỗ trợ những người sẽ thực hiện loại công việc sửa chữa này và đảm bảo họ là một phần của dự án từ đầu đến cuối.

Elish nói: "Về lý thuyết, một giải pháp AI không thực sự giúp chúng ta tiến xa được. Thực hiện có trách nhiệm và hiệu quả xuất phát từ việc tập trung vào cách các cá nhân sẽ được trao quyền để sử dụng giải pháp trong một bối cảnh cụ thể."

Đừng quên những "nhân viên vô hình"

Công việc sửa chữa để tích hợp AI vào nơi làm việc không phải là công việc duy nhất không thể nhìn thấy. Saiph Savage, giám đốc Phòng thí nghiệm Đổi mới Công dân tại Đại học Tự trị Quốc gia Mexico, cho biết AI đã tạo ra hàng triệu việc làm mới, bao gồm cả nhân viên làm những việc như dán nhãn hình ảnh để một mô hình Machine Leanring (học máy) có thể học hỏi.

Các nhiệm vụ khác của con người có thể bao gồm phiên âm âm thanh, giúp trợ lý giọng nói hiểu thế giới hoặc gắn cờ nội dung bạo lực hoặc thông tin sai lệch trên các nền tảng truyền thông xã hội.

Theo Saiph Savage, những nhân viên điều hành hậu trường, thường được gọi là "nhân viên vô hình", người dùng không biết họ là ai. Nghiên cứu của bà cho thấy những người lao động này thường kiếm được dưới mức lương tối thiểu và có hạn chế về cơ hội phát triển và thăng tiến nghề nghiệp.

Việc tính đến người lao động đòi hỏi phải hiểu những thách thức mang tính hệ thống mà họ phải đối mặt và những giá trị mà họ tạo ra. Savage cho biết một số chương trình AI có thể được sử dụng để giúp các nhân viên bớt "vô hình" hơn:

- Các chương trình AI có thể phát hiện khi nào người sử dụng lao động đối xử không công bằng với người lao động, có thể thông qua những cách thức như phản hồi tiêu cực và sau đó thúc giục người sử dụng lao động xem xét lại.

- Nghiên cứu những người lao động có khả năng phát triển, đồng thời xây dựng các chương trình dựa trên chiến lược của họ. Savage nói: "Tôi tìm những nhân viên đó và sắp xếp họ để chia sẻ các mẹo và chiến lược cho những người khác, để họ có thể làm theo những chiến lược này và tăng lương cho họ." Bà đã phát triển các tính năng trên trang web cho phép nhân viên chia sẻ lời khuyên.

- Các công cụ kiểm toán để hiểu các điều kiện mà người lao động phải tiếp xúc như tiền lương theo giờ và nhiệm vụ vô hình.

Savage nói: "Chúng ta thực sự cần phải suy nghĩ về những rủi ro mà chúng ta đang đặt ra cho người lao động. Ví dụ, số lượng công việc vô hình mà chúng ta buộc người lao động phải làm."

Nghiên cứu xem AI có thể gây hại cho ai

Abeba Birhane, nghiên cứu sinh tiến sĩ tại Đại học College Dublin, đã đặt câu hỏi giả định rằng liệu AI có thể giải quyết mọi vấn đề mà không gây ảnh hưởng đến ai. Các hệ thống AI và thuật toán "mang lại những kết quả thực tế, hữu hình đối với con người, cho dù đó là trong chính sách hay trong hệ thống chăm sóc sức khỏe."

Một chủ đề lặp đi lặp lại trên các công cụ AI là "các cá nhân trong cộng đồng ở bên lề xã hội, những người dễ bị tổn thương nhất, luôn là những người phải trả giá cao nhất," Birhane nói.

Những thứ như hệ thống nhận dạng khuôn mặt, thuật toán chăm sóc sức khỏe và bảo vệ quyền riêng tư có xu hướng ảnh hưởng và gây bất lợi cho người da đen, người chuyển giới, người nhập cư và cộng đồng LGBTQ.

Bà nói: "Với câu hỏi AI mang lợi ích cho ai, chúng tôi thấy rằng những người đang tạo và triển khai các hệ thống này được hưởng lợi khi chi phí giảm xuống rất nhiều".

Những người tạo ra hệ thống trí tuệ nhân tạo có xu hướng xuất thân khá giả và thường không đủ hiểu biết về các vấn đề tiềm ẩn và đưa ra giải pháp.

Ngay cả các hội nghị như EmTech cũng hướng đến các Chủ tịch, CEO và giám đốc của công ty. Theo Birhane, những người đang phát triển AI nên cân nhắc nói chuyện với mọi người trong cộng đồng nơi công nghệ sẽ được áp dụng.

Về mặt đạo đức, AI nên mang lại lợi ích cho những người bị thiệt thòi nhất và bị ảnh hưởng nhiều nhất, đồng thời coi đạo đức và công bằng là những vấn đề cụ thể và cấp bách.

Các công ty cũng nên coi đạo đức là một phần không thể thiếu của quá trình, từ ý tưởng đến triển khai, thay vì một phần bổ sung.

Birhane nói: "Đó là một hệ sinh thái, một nền văn hóa, một thói quen, một môi trường an toàn và hỗ trợ, không thù địch với những lời chỉ trích, mà còn tích cực tìm kiếm những lời chỉ trích."

Theo Trường Quản lý MIT Sloan

Thanh Hà

Nguồn VietTimes: https://viettimes.vn/cong-viec-an-sau-cac-chuong-trinh-tri-tue-nhan-tao-post145435.html