Tiết lộ gây sốc về AI siêu thông minh từ nhà đồng sáng lập OpenAI

Từ việc đánh bại kiện tướng cờ vây đến khả năng tạo ra những tác phẩm nghệ thuật, AI đang ngày càng thông minh hơn. Điều gì sẽ xảy ra khi AI siêu thông minh vượt qua khả năng của con người?

Trí tuệ nhân tạo (AI) đang dần khẳng định vị thế không thể thay thế trong đời sống hiện nay. Tuy nhiên, viễn cảnh về một AI vượt trội con người về nhiều mặt, hay còn gọi là "siêu thông minh" vẫn là một chủ đề gây tranh cãi và đầy bí ẩn.

Ilya Sutskever, nhà đồng sáng lập OpenAI, đã có những chia sẻ đáng chú ý về vấn đề này tại NeurIPS, hội nghị AI thường niên, vẽ nên một bức tranh vừa hấp dẫn vừa đáng lo ngại về tương lai của AI.

 Ilya Sutskever, nhà đồng sáng lập OpenAI lo ngại về AI siêu thông minh. Ảnh: ExamInformatica

Ilya Sutskever, nhà đồng sáng lập OpenAI lo ngại về AI siêu thông minh. Ảnh: ExamInformatica

Trước khi nhận giải thưởng cho những đóng góp to lớn cho lĩnh vực AI, Sutskever đã đưa ra những dự đoán táo bạo về AI siêu thông minh. Ông tin rằng sự xuất hiện của loại AI này chỉ là vấn đề thời gian.

Điều đáng nói, Sutskever nhấn mạnh rằng AI siêu thông minh sẽ "khác biệt về mặt chất lượng" so với những gì chúng ta đang thấy ngày nay. Sự khác biệt này không chỉ đơn thuần là sự tiến bộ về hiệu suất mà còn là một bước nhảy vọt về bản chất, đến mức khó có thể hình dung.

Một trong những điểm then chốt mà Sutskever đề cập là khả năng hành động thực sự của AI siêu thông minh. Khác với những hệ thống AI hiện tại, vốn được coi là ít có khả năng hành động, AI siêu thông minh sẽ trở thành những tác nhân thực thụ, có khả năng tự đưa ra quyết định và hành động.

Khả năng lý luận sẽ xuất hiện, đồng nghĩa với việc hành vi của chúng sẽ trở nên khó đoán hơn nhiều. Chúng sẽ có khả năng học hỏi và hiểu biết từ dữ liệu hạn chế, một khả năng mà con người vẫn luôn tự hào. Và điều đáng chú ý nhất, Sutskever tin rằng chúng sẽ đạt đến mức độ tự nhận thức.

Viễn cảnh AI tự nhận thức đặt ra những câu hỏi đầy thách thức về tương lai

Những lo ngại về sự an toàn của AI đã thôi thúc Sutskever rời OpenAI và thành lập Safe Superintelligence (SSI), một phòng thí nghiệm chuyên tâm nghiên cứu về an toàn AI.

Với số vốn huy động lên đến 1 tỉ đô la vào tháng 9, SSI thể hiện quyết tâm và tầm nhìn nghiêm túc về việc đảm bảo một tương lai an toàn với AI siêu thông minh.

Sự ra đời của SSI không chỉ là một động thái cá nhân mà còn là một tín hiệu mạnh mẽ cho thấy cộng đồng khoa học đang ngày càng nhận thức rõ hơn về những thách thức và rủi ro tiềm ẩn của AI, đặc biệt là khi chúng ta tiến gần hơn đến ngưỡng cửa của siêu thông minh.

Những dự đoán của Sutskever không chỉ là một viễn cảnh khoa học viễn tưởng mà là một lời cảnh tỉnh, thúc đẩy chúng ta suy nghĩ và hành động ngay từ bây giờ để đảm bảo rằng sự phát triển của AI sẽ mang lại lợi ích cho nhân loại chứ không phải là một mối đe dọa tiềm tàng.

Tiểu Minh

Nguồn PLO: https://plo.vn/tiet-lo-gay-soc-ve-ai-sieu-thong-minh-tu-nha-dong-sang-lap-openai-post825030.html