Geoffrey Hinton, người được mệnh danh là "cha đỡ đầu của trí tuệ nhân tạo", tuần trước chia sẻ với CBS rằng "không thể tưởng tượng nổi" trí tuệ nhân tạo có thể phát triển đến mức có thể gây ra "mối đe dọa cho nhân loại".
Giáo sư Gary Marcus tại Đại học New York (Mỹ) cũng đăng tải báo cáo với tựa đề "Rủi ro trí tuệ nhân tạo - Rủi ro trí tuệ nhân tạo chung", nhận định siêu trí tuệ có thể sắp xảy ra hoặc không nhưng trong ngắn hạn, "rủi ro MAI (Trí tuệ nhân tạo tầm thường)" cần phải lo lắng.
Giám đốc điều hành Twitter Elon Musk cũng bày tỏ sự tán thành đối với Hinton và Marcus.
Ngày 29/3, Viện Tương lai của Cuộc sống (Future of Life Institute) đã công bố một bức thư ngỏ kêu gọi tất cả các phòng thí nghiệm AI ngay lập tức đình chỉ đào tạo các hệ thống AI mạnh hơn GPT-4 trong ít nhất 6 tháng. Hinton, Marcus và Musk đều đã ký vào bức thư ngỏ.
Bức thư ngỏ của Viện Tương lai của Cuộc sống có đoạn: "Nghiên cứu sâu rộng đã chỉ ra rằng các hệ thống AI có trí thông minh ngang ngửa con người có thể gây ra những rủi ro sâu sắc cho xã hội và nhân loại, một quan điểm được các phòng thí nghiệm AI hàng đầu thừa nhận.
Như những gì đã được nêu trong Nguyên tắc AI của Asilomar được công nhận rộng rãi (phiên bản mở rộng của Ba định luật về người máy của Asimov, được ký bởi gần một nghìn chuyên gia về AI và người máy vào năm 2017), AI tiên tiến có thể đại diện cho những thay đổi sâu sắc trong lịch sử sự sống trên Trái đất và cần được lên kế hoạch và quản lý với sự quan tâm và nguồn lực tương xứng.
Thật không may, mức độ lập kế hoạch và quản lý này không xảy ra, trong khi các phòng thí nghiệm AI đã bị mắc kẹt trong một cuộc đua chóng vánh trong những tháng gần đây để phát triển và triển khai những bộ óc kỹ thuật số mạnh mẽ hơn bao giờ hết. Không ai - kể cả người tạo ra chúng - có thể hiểu, dự đoán hoặc kiểm soát một cách đáng tin cậy".
Bức thư này xuất hiện khoảng 2 tuần sau khi OpenAI công bố về GPT-4 vào đầu tháng 3 này, quảng bá về mô hình AI tiên tiến hơn, có thể sáng tác nhạc, tóm tắt các tài liệu dài… và "có thể so sánh với con người" ở một số khía cạnh.
Bức thư kêu gọi tất cả các phòng thí nghiệm AI ngay lập tức đình chỉ đào tạo các hệ thống AI mạnh hơn GPT-4 trong ít nhất 6 tháng. Các phòng thí nghiệm AI và các chuyên gia độc lập nên sử dụng khoảng thời gian tạm dừng này để cùng phát triển và triển khai một bộ giao thức bảo mật chung cho thiết kế và phát triển AI nâng cao, chịu sự kiểm tra và giám sát nghiêm ngặt của các chuyên gia độc lập bên ngoài.
"Các giao thức này phải đảm bảo rằng các hệ thống tuân thủ chúng được an toàn và không còn nghi ngờ gì nữa. Điều này không có nghĩa là tạm dừng phát triển AI nói chung, mà chỉ là một sự rút lui khẩn cấp khỏi cuộc đua nguy hiểm hướng tới các mô hình hộp đen lớn, không thể đoán trước", bức thư nêu rõ, đồng thời nhấn mạnh các nhà phát triển AI phải hợp tác với các nhà hoạch định chính sách để đẩy nhanh đáng kể sự phát triển của các hệ thống quản trị AI mạnh mẽ.
Được thành lập vào năm 2014, Viện Tương lại của Cuộc sống là một tổ chức phi lợi nhuận được tài trợ bởi nhiều cá nhân và tổ chức với sứ mệnh thúc đẩy các công nghệ biến đổi tránh khỏi rủi ro cực đoan, quy mô lớn và hướng tới lợi ích của cuộc sống.
Hiện hơn 1.000 nhà lãnh đạo và chuyên gia công nghệ thế giới đã ký vào bức thư ngỏ. Ngoài Musk, Hinton và Marcus, còn có người chiến thắng giải thưởng Turing Yoshua Bengio, tác giả cuốn "Trí tuệ nhân tạo: Cách tiếp cận hiện đại" Stuart Russell, đồng sáng lập Apple Steve Wozniak, Giám đốc điều hành Stability AI Emad Mostaque và các nhà lãnh đạo công nghệ khác.
Tuy nhiên, CEO của Alphabet và Microsoft cùng giám đốc điều hành của OpenAI đều không nằm trong số này.
Hoa Vũ (Theo The Paper)