Hôm thứ hai 29/4/2024, các quan chức dân sự, quân sự và công nghệ từ hơn 100 quốc gia đã gặp nhau tại Vienna, Áo, để thảo luận về việc kiểm soát trí tuệ nhân tạo (AI) trong ngành công nghiệp quốc phòng bởi ngày càng xuất hiện nhiều loại vũ khí sử dụng AI trong cuộc chiến giữa Ukraine và Nga, giữa Israel với Hamas, Houthi, Hezbollah cùng các vụ khủng bố…
Nhiều vấn đề quan trọng đã được quan chức Trung Quốc đưa ra và thảo luận tại sự kiện lần này.
Các nhà khoa học trí tuệ nhân tạo (AI) hàng đầu của phương Tây và Trung Quốc đã đưa ra cảnh báo rõ ràng rằng việc giải quyết các rủi ro xung quanh công nghệ mạnh mẽ này đòi hỏi sự hợp tác toàn cầu, tương tự như nỗ lực tránh xung đột hạt nhân thời Chiến tranh Lạnh.
Trong bối cảnh trí tuệ nhân tạo (AI) phát triển nhanh chóng kéo theo cả những tác động tiêu cực, cộng đồng thế giới và các nước đang nỗ lực tìm kiếm giải pháp thực tiễn để ngăn mọi thứ đi quá xa.
Trong thời gian gần đây, những vũ khí được trang bị trí tuệ nhân tạo đang làm mưa làm gió trên chiến trường bởi khả năng tự động thực hiện các cuộc tấn công, với độ chính xác cao mà không cần đến sự điều khiển của con người.
Công nghệ trí tuệ nhân tạo (AI) đang ngày càng phát triển, ứng dụng rộng rãi, có hiệu quả trong nhiều lĩnh vực của đời sống. Tuy nhiên bên cạnh đó, AI cũng tiềm ẩn nhiều nguy cơ, rủi ro cho xã hội, trong đó có vấn đề bảo vệ an ninh quốc gia. Đây là thực tế đang diễn ra ở hầu hết các nước trên thế giới, trong đó có Việt Nam.
Elon Musk luôn bận rộn với việc điều hành SpaceX, Tesla và một số công ty công nghệ khác. Nhưng bằng cách nào đó, tỷ phú 52 tuổi vẫn tìm được thời gian để đọc rất nhiều sách.
Với sự phát triển của ChatGPT của OpenAI hay Bard của Google, AI (trí tuệ nhân tạo) thực sự đang gây ra nỗi lo ngại từ cộng đồng các nhà khoa học.
Các chuyên gia Mỹ đã đưa ra một số dự báo về khả năng của trí tuệ nhân tạo (AI) áp dụng vào chiến tranh trong tương lai.
Elon Musk luôn bận rộn với việc điều hành SpaceX, Tesla và một số công ty công nghệ khác. Nhưng bằng cách nào đó, tỷ phú 52 tuổi vẫn tìm được thời gian để đọc rất nhiều sách.
Tháng 3 năm nay, tỷ phú Elon Musk cùng hơn 1.000 chuyên gia công nghệ hàng đầu thế giới đã ký một bức thư ngỏ gửi Liên hợp quốc, nhằm cảnh báo về nguy cơ trí tuệ nhân tạo (AI) phát triển không kiểm soát. Thế nhưng, ngăn chặn một đoàn tàu đã chuyển bánh luôn là điều cực kỳ khó khăn.
AI đang từng ngày định hình lại xã hội. Tuy nhiên, giới chuyên gia cũng cảnh báo sự phát triển của công nghệ này nếu vượt quá tầm kiểm soát của con người sẽ là nguy cơ không nhỏ đối với thế giới.
Một trong những chuyên gia hàng đầu thế giới về AI đã dự đoán rằng những tiến bộ gần đây về trí tuệ nhân tạo có thể sẽ kết thúc khái niệm giáo dục mà chúng ta biết.
Alexei Semenov, Chủ tịch tập đoàn sản xuất UAV Geoscan của Nga vừa có đánh giá khả năng xảy ra 'cuộc nổi dậy' của máy bay không người lái mang AI.
Trong giới công nghệ, việc đánh giá ra sao về trí tuệ nhân tạo (AI) vẫn chưa thống nhất. Tuy nhiên, việc cảnh báo những tai họa mà nó có thể đem đến có thể coi là đã có mẫu số chung.
Alexei Semenov, Chủ tịch tập đoàn sản xuất UAV Geoscan của Nga vừa có đánh giá khả năng xảy ra 'cuộc nổi dậy' của máy bay không người lái mang AI.
Trong một bài viết trên Guardian, Jo Callaghan, tác giả sách 'In the Blink of an Eye' đặt vấn đề: Trí tuệ nhân tạo có thể cung cấp một giải pháp trị an hiệu quả hơn không?
Phát ngôn lực lượng Không quân Mỹ Ann Stefanek vừa có cam kết sử dụng trí tuệ nhân tạo (AI) có trách nhiệm sau thông tin chúng tấn công con người.
Việc ông Sam Altman - Giám đốc điều hành của hãng công nghệ OpenAI ra điều trần trước Ủy ban Tư pháp Thượng viện Mỹ về việc giám sát trí tuệ nhân tạo (AI) một lần nữa gây chấn động giới công nghệ. Trong khi việc tranh cãi về phát triển AI đang rất gay cấn trên phạm vi toàn cầu.
Khi 'bố già AI' Geoffrey Hinton phản đối việc Google hợp tác với quân đội Mỹ vào năm 2018, ông chỉ tiết lộ lý do với người đồng sáng lập Google là Sergey Brin. 'Sergey nói rằng ông cũng không tán thành điều đó, vì thế Google đã hủy vụ hợp tác', Hinton kể lại.
Geoffrey Hinton, người được biết đến với biệt danh 'bố già AI', cảnh báo nguy cơ mà trí tuệ nhân tạo mang lại cho loài người khẩn cấp hơn cả biến đổi khí hậu.
Ông Nguyễn Tử Quảng đã ký tên cùng những người nổi tiếng, trong đó có Elon Musk đề nghị ngừng phát triển các AI (trí tuệ nhân tạo) mạnh hơn ChatGPT trong 6 tháng
Tỷ phú Elon Musk và nhóm hơn 1.000 (nay đã đạt con số hơn 3.000) chuyên gia công nghệ hàng đầu đã khởi động quá trình ký một bức thư ngỏ gửi Liên hiệp quốc cảnh báo về nguy cơ trí tuệ nhân tạo (AI) phát triển không kiểm soát. Câu hỏi đặt ra là 'Vì sao AI nguy hiểm với con người'?Trên thực tế đây không phải lần đầu tiên các nhà khoa học lên tiếng cảnh báo về viễn cảnh trí tuệ nhân tạo trở nên nguy hiểm đối với con người. Năm 2014, nhà vật lý lý thuyết nổi tiếng người Anh Stephen Hawking cho rằng: 'Sự phát triển toàn diện của trí tuệ nhân tạo có thể sẽ hủy diệt loài người'. Ông cũng nhận định loài người sẽ bị trí tuệ nhân tạo hoàn toàn thay thế trong 500 năm nữa nếu không cẩn trọng trong quá trình nghiên cứu và phát triển công nghệ nguy hiểm này.
Trong một phiên họp tại Quốc hội Nhật Bản, Thủ tướng Fumio Kishida đã tiếp nhận các câu hỏi do một nghị sĩ đối lập soạn thảo với sự giúp đỡ của phần mềm ChatGPT.
Kiến nghị được đưa ra chỉ hai tuần sau khi startup Mỹ OpenAI công bố GPT-4, phiên bản mạnh mẽ hơn của công nghệ đằng sau công cụ chat tự động (chatbot) ChatGPT đang gây sốt trên toàn cầu...
Tỷ phú Elon Musk và một nhóm các chuyên gia về AI cũng như các giám đốc công ty đang kêu gọi dừng trong 6 tháng việc phát triển các hệ thống mạnh hơn thế hệ thứ tư của mô hình ngôn ngữ GPT-4.
Elon Musk và nhiều nhân vật máu mặt khác trong ngành công nghệ kêu gọi ngừng đào tạo các hệ thống AI mạnh hơn GPT-4, mô hình ngôn ngữ lớn mới nhất của OpenAI.
Elon Musk, cùng một nhóm các chuyên gia và CEO ngành trí tuệ nhân tạo (AI) đang kêu gọi tạm dừng 6 tháng trong việc phát triển các hệ thống mạnh hơn GPT-4 của OpenAI trong một bức thư ngỏ, với viện dẫn về những rủi ro tiềm ẩn cho xã hội. (CLO) Elon Musk, cùng một nhóm các chuyên gia và CEO ngành trí tuệ nhân tạo (AI) đang kêu gọi tạm dừng 6 tháng trong việc phát triển các hệ thống mạnh hơn GPT-4 của OpenAI trong một bức thư ngỏ, với viện dẫn về những rủi ro tiềm ẩn cho xã hội.
Các chủ doanh nghiệp, chuyên gia và nhà nghiên cứu hàng đầu trong lĩnh vực trí tuệ nhân tạo (AI) đã ký vào một bức thư ngỏ kêu gọi tạm dừng 6 tháng việc huấn luyện các mô hình AI mạnh hơn GPT-4 mà công ty OpenAI vừa cho ra mắt năm 2022.
Elon Musk và một nhóm các chuyên gia trí tuệ nhân tạo và giám đốc điều hành ngành đang kêu gọi tạm dừng việc phát triển các hệ thống mạnh hơn GPT-4 mới ra mắt của OpenAI, viện dẫn những rủi ro tiềm ẩn đối với xã hội và nhân loại.
Tỷ phú Elon Musk cùng một nhóm chuyên gia về trí tuệ nhân tạo và lãnh đạo ngành vừa gửi thư ngỏ kêu gọi tạm dừng các hệ thống huấn luyện trí tuệ nhân tạo (AI) mạnh hơn cả phiên bản GPT-4 của OpenAI, vì lo những nguy cơ tiềm tàng đối với xã hội và con người.
Không ai có thể phủ nhận tiềm năng to lớn phục vụ lợi ích con người của AI, nhưng công nghệ này cũng đang đặt ra những vấn đề đáng lo ngại, đặc biệt là khi được áp dụng vào lĩnh vực quân sự, phát triển vũ khí tấn công tự động và bị kẻ xấu lợi dụng.
Một đấu thủ cờ vây nghiệp dư đã thắng hệ thống AI trong trận đấu lịch sử, đánh dấu chiến thắng hiếm hoi của con người sau 7 năm từ khi AI vượt qua kỳ thủ trong môn này.
AI (trí tuệ nhân tạo) và các hệ thống tự động hóa đang thay đổi cách thức hoạt động tình báo, từ tiếp cận, thu thập cho đến bảo vệ và phân tích thông tin mật.
Giáo sư Stuart Russell nói rằng lĩnh vực trí tuệ nhân tạo(AI) cần phải phát triển nhanh chóng để đảm bảo con người luôn kiểm soát được công nghệ này.
Trí tuệ nhân tạo (AI) mang lại nhiều lợi ích cho cuộc sống của con người, nhưng cũng tiềm ẩn nhiều nguy cơ khó lường nếu phát triển theo hướng quân sự hóa.
Trí tuệ nhân tạo (AI) mang lại nhiều lợi ích cho cuộc sống của con người, nhưng cũng tiềm ẩn nhiều nguy cơ khó lường nếu phát triển theo hướng quân sự hóa.
Rất nhiều dự đoán được đưa ra về việc công nghệ sẽ thay thế con người trong mọi ngành nghề trong những năm gần đây.
Trong những năm gần đây, việc ứng dụng trí tuệ nhân tạo (AI) cho phép các hệ thống vũ khí tự động lựa chọn và tấn công mục tiêu đã gây nhiều tranh cãi về mặt đạo đức.
Trong những năm gần đây, việc ứng dụng trí tuệ nhân tạo (AI) cho phép các hệ thống vũ khí tự động lựa chọn và tấn công mục tiêu đã gây nhiều tranh cãi về mặt đạo đức.
Theo nghiên cứu mới nhất, Amazon, Microsoft và Intel nằm trong số các công ty công nghệ đang đẩy thế giới vào một cuộc chạy đua vũ trang nguy hiểm với việc phát triển các robot thông minh có khả năng hủy diệt.