Thật ra, rủi ro về AGI thì đã có rất nhiều bài viết chia sẻ về việc này, và những rủi ro này lại được nhóm nghiên cứu của DeepMind nhấn mạnh, bao gồm rủi ro AGI bị lạm dụng, sai lệch mục tiêu và các rủi ro không lường trước được.
Đầu tiên là rủi ro về việc lạm dụng. AGI có thể bị sử dụng cho các mục đích gây hại. Với sức mạnh vượt trội, hậu quả mà chúng để lại có thể nghiêm trọng hơn nhiều so với các công cụ trí tuệ nhân tạo hiện tại. Một ví dụ mà DeepMind đưa ra là các hacker có thể sử dụng AGI để khai thác các lỗ hổng bảo mật chưa từng được biết đến, hay tạo ra các vũ khí mới, đặc biệt là vũ khí sinh học. Rủi ro này được DeepMind gợi ý giảm thiểu bằng cách thiết lập quá trình thử nghiệm nghiêm ngặt, các giao thức an toàn sau khi huấn luyện và phát triển các phương pháp để loại bỏ những năng lực nguy hiểm — còn gọi là “unlearning”, dù tính khả thi của phương pháp này vẫn chưa rõ ràng.
Rủi ro thứ hai là rủi ro sai lệch mục tiêu khi AGI hành động ngược lại yêu cầu mà con người đưa ra. Điều này có thể đến từ lỗi thiết kế hoặc hệ thống tự vượt ra khỏi khuôn khổ được thiết lập. Điều này, theo DeepMind, có thể dẫn đến viễn cảnh giống như phim khoa học viễn tưởng: AI “nổi loạn” và hành động theo mục tiêu riêng. Ngoài ra, DeepMind cũng cho biết mức độ sai lệch mà họ quan tâm ở đây rộng hơn nhiều so với các hành vi lừa dối hay qua mặt đơn giản được ghi nhận trong các mô hình hiện tại. Họ cũng gợi ý các biện pháp phòng tránh bao gồm sử dụng kỹ thuật cho phép nhiều AI giám sát lẫn nhau, stress test các AI hoặc đưa AGI vào môi trường sandbox an toàn có giám sát trực tiếp từ con người, và quan trọng nhất là luôn đảm bảo có một nút
“tắt nguồn” để ngắt hoàn toàn hệ thống khi cần. Điều này làm mình nhớ tới 1 phân cảnh trong Captain America: Civil War, khi Iron Man ở đó và nói rằng ổng chỉ cần tắt hết tất cả các hệ thống trí tuệ nhân tạo, vũ khí là xong.
Bên cạnh đó, cũng tồn tại khả năng các AGI có sai sót và vô tình gây hại, hoặc xử lý thông tin sai lệch, điều vốn đã xảy ra với các công cụ AI hiện tại. Tuy nhiên, với AGI, hậu quả của những sai sót như vậy có thể nghiêm trọng hơn nhiều, đặc biệt nếu được triển khai trong lĩnh vực quân sự hoặc các hệ thống phức tạp. Nhóm nghiên cứu tại DeepMind thừa nhận chưa có giải pháp triệt để cho loại rủi ro này, nhưng khuyến nghị triển khai AGI một cách từ từ, hạn chế quyền hạn của nó, và lọc các lệnh thông qua một hệ thống “lá chắn” để đảm bảo an toàn trước khi thực thi.
Theo DeepMind, AGI có thể xuất hiện vào 2030 và loài người cần hành động có trách nhiệm với loại hình siêu trí tuệ này
Cuối cùng là rủi ro mang tính cấu trúc với các hậu quả không mong muốn nhưng có thực, xảy ra khi AGI vận hành đúng như thiết kế nhưng lại ảnh hưởng tiêu cực đến xã hội. Bài nghiên cứu đưa ra ví dụ rằng AGI có thể tạo ra tin giả cực kỳ thuyết phục, làm xói mòn lòng tin vào các nguồn tin chính thống. Hoặc các hệ thống AGI có thể dần kiểm soát các lĩnh vực kinh tế, chính trị, như thiết lập các chính sách thuế nặng nề vượt ngoài tầm ảnh hưởng của con người. Khi ấy, chúng ta có thể sẽ nhận ra rằng máy móc đang nắm quyền điều hành thay cho con người. DeepMind đánh giá đây là loại rủi ro khó kiểm soát nhất, vì nó phụ thuộc vào cách xã hội, hạ tầng và các thể chế vận hành trong tương lai.
Hiện tại, không ai biết chắc liệu AGI có thật sự chỉ cách chúng ta vài năm, nhưng nhiều lãnh đạo công nghệ đủ tự tin để nói như vậy. DeepMind với dự đoán rằng rằng AGI có thể xuất hiện vào năm 2030 đã gây ra nhiều quan điểm trái chiều. Tuy nhiên, tài liệu mà họ đưa ra nhấn mạnh phát triển chậm nhưng chắc, chứ không phải đột ngột, để đảm bảo loài người có đủ thời gian triển khai các biện pháp an toàn. Bên cạnh đó, nhóm nghiên cứu cũng nêu bật sự khác biệt trong cách tiếp cận với các phòng nghiên cứu khác như Anthropic hay OpenAI, vốn luôn lạc quan rằng học có có thể dùng AI để tự động hóa chính quá trình thiết kế biện pháp an toàn.