Ngày 29/3, tờ TIME dẫn bức thư do tổ chức phi lợi nhuận Future of Life Institute công bố chỉ hai tuần sau khi OpenAI ra mắt bản cập nhật GPT-4, một công nghệ trí tuệ nhân tạo (AI) tiên tiến nhất từ trước đến nay.
Sự phát triển của các công nghệ AI thế hệ mới đã khiến nhiều người lo ngại rằng một số công việc từng được đảm nhận bởi con người có thể sẽ bị AI thay thế trong tương lai.
Hơn nữa, Cục cảnh sát châu Âu (Europol) cũng cảnh báo những hệ thống AI tiên tiến như ChatGPT của OpenAI phát triển có thể trở thành công cụ cho tội phạm lợi dụng để lừa đảo, đưa ra thông tin sai lệch và thực hiện hành vi tội phạm trên không gian mạng.
Giới chuyên gia nhận định, các tiến bộ gần đây của trí tuệ nhân tạo đang gây ra những rủi ro sâu sắc đối với xã hội và nhân loại. Khi cuộc chạy đua AI ngày càng nóng lên, nhân loại sẽ rơi vào một thảm hoạ khó có thể lường trước được.
"Thật không may, mức độ lập kế hoạch và quản lý này không chặt chẽ, trong khi thời gian gần đây, các trung tâm nghiên cứu AI đang bị cuốn vào cuộc đua ngoài tầm kiểm soát để phát triển và triển khai những trí tuệ số mạnh mẽ hơn mà không ai, thậm chí cả những người tạo ra chúng có thể hiểu, dự đoán và kiểm soát", bức thư nêu rõ.
CEO Simeon Campos của SaferAI, một startup về an toàn trí tuệ nhân tạo cho biết lý do ông ký bức thư vì không thể quản lý được các rủi ro của các hệ thống khi ngay cả những người phát minh ra chúng cũng không biết chúng hoạt động như thế nào và đâu là giới hạn hành vi của chúng.
"Chúng ta đang mở rộng những hệ thống này lên mức độ có khả năng chưa từng có và cần chậm lại tiến trình phát triển của những hệ thống này để cho xã hội thích nghi và đẩy nhanh kiến trúc trí tuệ nhân tạo thay thế khác nhằm đảm bảo tính an toàn và xác thực ", CEO Simeon Campos nói thêm.
Hàng loạt câu hỏi được đặt ra ở đây là "Liệu chúng ta có nên để cho các công cụ thông minh này tràn ngập các kênh thông tin của chúng ta với những thông điệp sai lệch. Có nên phát triển những bộ óc phi nhân loại mà cuối cùng chúng có thể thông minh hơn, đông hơn và thay thế con người không?"
Do đó, bức thư kêu gọi tất cả các phòng thí nghiệm AI ngay lập tức tạm dừng phát triển các hệ thống AI thông minh hơn GPT-4 trong vòng ít nhất là 6 tháng để nghiên cứu an toàn. "Các phòng thí nghiệm AI và các chuyên gia nên sử dụng thời gian này để cùng nghiên cứu và triển khai một bộ giao thức an toàn chung cho thiết kế và phát triển AI tiên tiến được thẩm định bởi chuyên gia độc lập".
Nếu việc tạm dừng không được tiến hành một cách nhanh chóng, chính phủ các nước nên can thiệp và đưa ra lệnh cấm. Tuy nhiên, điều này không có nghĩa là tạm dừng phát triển trí tuệ nhân tạo nói chung.