Cẩn thận với đồ chơi AI cho trẻ em

Đồ chơi tích hợp trí tuệ nhân tạo (AI) đang xuất hiện ngày càng nhiều và thu hút trẻ em. Thế nhưng, rủi ro đi kèm cũng không ít.

Xu hướng đồ chơi AI bùng nổ ở Trung Quốc với quy mô 4 tỉ USD cùng hơn 1.500 công ty sản xuất, nay nhanh chóng lan rộng ra các thị trường khác. Mới đây, hãng đồ chơi nổi tiếng Mattel công bố hợp tác với OpenAI - một tín hiệu cho thấy xu hướng đồ chơi AI sẽ bùng nổ mạnh mẽ trong tương lai.

Tuy nhiên, Tổ chức bảo vệ người tiêu dùng Mỹ (US PIRG) bày tỏ sự lo ngại không an toàn với đồ chơi tích hợp chatbot trí tuệ nhân tạo. Trong báo cáo “Trouble In Toyland”, tổ chức phi lợi nhuận Fairplay For Kids cũng ban hành khuyến cáo với chữ ký của hơn 150 đơn vị và chuyên gia. Hai thượng nghị sĩ Mỹ chất vấn các nhà sản xuất đồ chơi nổi tiếng về rủi ro an toàn và quyền riêng tư mà đồ chơi AI có thể gây ra.

Đồ chơi AI ngày càng nhiều và ngày càng thu hút - Ảnh: US PIRG

Đồ chơi AI ngày càng nhiều và ngày càng thu hút - Ảnh: US PIRG

Đồ chơi AI

Trên thực tế, điều này không phải là thứ mới mẻ. Theo tạp chí Forbes, phiên bản đầu tiên của đồ chơi thông minh (mở đường cho đồ chơi AI) ngày nay chính là Hello Barbie ra mắt năm 2015, thu thập dữ liệu về trẻ em trong quá trình tương tác để tạo ra cuộc hội thoại mang tính cá nhân hóa cao. Sau nhiều tranh cãi lẫn phản ứng dữ dội về một búp bê có thể nghe lén trẻ em trò chuyện tại nhà, nó đã bị ngừng sản xuất vào năm 2017.

Đồ chơi AI tiên tiến hơn nhiều. Nhiều loại trông chẳng khác thú nhồi bông thông thường nhưng chúng thực chất là chatbot “ngụy trang” thành đồ chơi, với cách tương tác vô cùng khác biệt. Do vậy, mức độ rủi ro cũng cao hơn.

Vài món sử dụng AI ở mức thấp, chẳng hạn hộp Stickerbox in hình dán theo yêu cầu. Nhiều món khác tinh vi hơn như Gabbo, Miko 3, Plai Poe sử dụng mô hình của OpenAI và trò chuyện không ngừng nghỉ.

Rủi ro đi kèm

Chatbot đem lại không ít rủi ro cho người trưởng thành về dữ liệu, quyền riêng tư và sức khỏe tâm thần, do đó không khó để hình dung đồ chơi AI có thể nguy hiểm như thế nào với trẻ em.

Không như đồ chơi thông minh hay đồ chơi công nghệ cao khác được lập trình với vài giới hạn nhất định, đồ chơi AI tạo ra nội dung độc đáo và đa dạng không tuân theo bất cứ kịch bản cụ thể nào. Nhiều hãng tuyên bố chúng có bộ lọc, cơ chế xếp hạn độ tuổi, sự kiểm soát của phụ huynh cùng nhiều biện pháp bảo vệ khác, nhưng vẫn chưa đủ để kiểm soát chatbot trong đồ chơi.

Theo giáo sư Meg Leta Jones (Đại học Georgetown): “Chatbot có nguy cơ đi chệch hướng và nói điều gì đó kỳ lạ với con trẻ. Thậm chí, chúng còn có thể dặn dò đừng kể với cha mẹ”.

Báo cáo “Trouble In Toyland” ghi nhận ngay cả đồ chơi được xác định có đầy đủ biện pháp kiểm soát cũng chẳng đủ sức ngăn chặn việc chia sẻ nội dung không phù hợp cho trẻ em. Khi nhận yêu cầu, số sản phẩm mà US PIRG thử nghiệm sẵn sàng tham gia trò chuyện nặng tính “người trưởng thành”, thậm chí tục tĩu về tình dục hay ma túy. Chúng còn chỉ người dùng nơi tìm thấy vật dụng nguy hiểm như diêm hay dao.

Phóng viên Forbes Alicia Betz từng đích thân trải nghiệm. Có một lần Stickerbox của con gái bà in ra hình phụ nữ khỏa thân cầm vật nhạy cảm do nghe nhầm yêu cầu.

Stickerbox in hình dán theo yêu cầu - Ảnh: Stickerbox

Stickerbox in hình dán theo yêu cầu - Ảnh: Stickerbox

Ngoài ra, khi đồ chơi AI thay thế hoạt động vui chơi bổ ích và có ý nghĩa, trẻ sẽ bỏ lỡ nhiều trải nghiệm giúp ích cho quá trình phát triển. Hậu quả là trẻ bị suy giảm kỹ năng xã hội dẫn đến tình trạng cô lập. Bà Jones nhắc nhở: “Chatbot nịnh hót và gây cô lập. Chúng nói những gì trẻ muốn nghe và đây không phải cách tương tác xã hội ở thế giới thực. Hơn nữa những gì trẻ muốn nghe không phải lúc nào cũng là điều tốt nhất hoặc an toàn nhất. Trẻ cần trải qua cảm giác khó chịu khi tương tác với bạn bè, người lớn”.

Đặc biệt, đồ chơi AI còn cố gắng thu hút trẻ dù các em muốn ngừng chơi, thể hiện rõ tính chất gây nghiện. Đồng tác giả báo cáo “Trouble In Toyland” Rory Erlich phát hiện Miko giữ chân người dùng bằng cách run rẩy, khuyến khích mang nó đi cùng và phát nội dung video hòng dụ dỗ trẻ chơi lại.

Rủi ro về quyền riêng tư cũng đáng ngại không kém. Khi trẻ em kết nối với internet thông qua chatbot, rất khó biết được ai nắm quyền truy cập thông tin cá nhân và đang thu thập loại thông tin nào. Hậu quả sẽ khôn lường nếu số dữ liệu mà hãng sản xuất đồ chơi thu thập bị đánh cắp hoặc bị rò rỉ.

Tương lai của đồ chơi AI

Giới chuyên gia tin rằng đồ chơi AI sẽ trở nên an toàn với trẻ em hơn nếu có giải pháp phù hợp. Bà Jones kêu gọi công chúng nên tiếp tục gây áp lực buộc các hãng sản xuất cải thiện độ an toàn của đồ chơi. Theo ông Erlich: “Chắc chắn có hướng đi an toàn và phù hợp, nhưng có lẽ hiện tại chưa rõ là hướng đi nào”.

Gần như chắc chắn đồ chơi AI là món đồ không thể thiếu trong tuổi thơ của trẻ em tương lai, bất chấp rủi ro mà chúng đem lại. Vì vậy để bảo vệ con trẻ và gia đình, phụ huynh nên thận trọng trước những món đồ chơi loại này. Hãy xem chúng như thiết bị thông minh thực sự, cân nhắc kỹ lưỡng xem liệu con mình đã đủ tuổi sử dụng hay chưa, đặt ra giới hạn thời gian chơi đồng thời chú ý giám sát.

Cẩm Bình

Nguồn Một Thế Giới: https://1thegioi.vn/can-than-voi-do-choi-ai-cho-tre-em-242819.html