DeepMind dự báo trí tuệ nhân tạo tổng quát có thể xuất hiện vào năm 2030 với những rủi ro đi kèm

Doanh nghiệp gần bạn nhất

được xác nhận bởi itcctv

DeepMind dự báo trí tuệ nhân tạo tổng quát có thể xuất hiện vào năm 2030 với những rủi ro đi kèm
Hình ảnh rao vặt

DeepMind dự báo trí tuệ nhân tạo tổng quát có thể xuất hiện vào năm 2030 với những rủi ro đi kèm

Một bài báo vừa được công bố bởi Google DeepMind đã chia sẻ những dự báo về việc AGI sẽ trở thành hiện thực vào năm 2030 cùng với việc phát triển chúng một cách an toàn.

Khi làn sóng AI tràn ngập Internet, loài người đã nhanh chóng nghĩ tới việc phát triển trí tuệ nhân tạo tổng quát AGI với cách tiếp cận phù hợp để đảm bảo rằng những hệ thống này sẽ không đi ngược lại lợi ích của con người. Một tài liệu dài 108 trang, chưa kể phần tài liệu tham khảo, được thực hiện bởi các nhà nghiên cứu tại Google DeepMind, dự đoán rằng AGI có thể xuất hiện trong khoảng 5 năm tới. Tài liệu này cũng đồng thời tìm hiểu rõ những rủi ro của một trí tuệ nhân tạo giống hoặc vượt trội hơn con người, vốn được xác nhận là có thể gây ra những tác hại nghiêm trọng.
Về cơ bản, AGI được gọi là trí tuệ nhân tạo tổng quát (Artificial General Intelligence), là một dạng trí tuệ nhân tạo có khả năng thực hiện mọi nhiệm vụ trí tuệ mà loài người có thể làm được, bao gồm cả những nhiệm vụ mang tính đặc trưng của con người như học hỏi những kĩ năng mới. Trong khi các hệ thống AI hiện tại chỉ xuất sắc trong một số lĩnh vực cụ thể, AGI được kỳ vọng sẽ có năng lực rộng lớn hơn nhiều, thậm chí vượt trội hơn cả con người trong nhiều lĩnh vực. Tiềm năng rất lớn màn hững AGI này có thể có được buộc loài người cần tạo ra những quy chuẩn an toàn để đảm bảo rằng khi tồn tại, AGI sẽ phục vụ lợi ích của nhân loại thay vì gây nguy hiểm.



Một số rủi ro về AGI mà nhóm nghiên cứu tại DeepMind chia sẻ: lạm dụng (misuse) - sai lệch mục tiêu (misalignment) - sai sót (mistake) - rủi ro mang tính cấu trúc (structural risks)

Thật ra, rủi ro về AGI thì đã có rất nhiều bài viết chia sẻ về việc này, và những rủi ro này lại được nhóm nghiên cứu của DeepMind nhấn mạnh, bao gồm rủi ro AGI bị lạm dụng, sai lệch mục tiêu và các rủi ro không lường trước được.

Đầu tiên là rủi ro về việc lạm dụng. AGI có thể bị sử dụng cho các mục đích gây hại. Với sức mạnh vượt trội, hậu quả mà chúng để lại có thể nghiêm trọng hơn nhiều so với các công cụ trí tuệ nhân tạo hiện tại. Một ví dụ mà DeepMind đưa ra là các hacker có thể sử dụng AGI để khai thác các lỗ hổng bảo mật chưa từng được biết đến, hay tạo ra các vũ khí mới, đặc biệt là vũ khí sinh học. Rủi ro này được DeepMind gợi ý giảm thiểu bằng cách thiết lập quá trình thử nghiệm nghiêm ngặt, các giao thức an toàn sau khi huấn luyện và phát triển các phương pháp để loại bỏ những năng lực nguy hiểm — còn gọi là “unlearning”, dù tính khả thi của phương pháp này vẫn chưa rõ ràng.

Rủi ro thứ hai là rủi ro sai lệch mục tiêu khi AGI hành động ngược lại yêu cầu mà con người đưa ra. Điều này có thể đến từ lỗi thiết kế hoặc hệ thống tự vượt ra khỏi khuôn khổ được thiết lập. Điều này, theo DeepMind, có thể dẫn đến viễn cảnh giống như phim khoa học viễn tưởng: AI “nổi loạn” và hành động theo mục tiêu riêng. Ngoài ra, DeepMind cũng cho biết mức độ sai lệch mà họ quan tâm ở đây rộng hơn nhiều so với các hành vi lừa dối hay qua mặt đơn giản được ghi nhận trong các mô hình hiện tại. Họ cũng gợi ý các biện pháp phòng tránh bao gồm sử dụng kỹ thuật cho phép nhiều AI giám sát lẫn nhau, stress test các AI hoặc đưa AGI vào môi trường sandbox an toàn có giám sát trực tiếp từ con người, và quan trọng nhất là luôn đảm bảo có một nút “tắt nguồn” để ngắt hoàn toàn hệ thống khi cần. Điều này làm mình nhớ tới 1 phân cảnh trong Captain America: Civil War, khi Iron Man ở đó và nói rằng ổng chỉ cần tắt hết tất cả các hệ thống trí tuệ nhân tạo, vũ khí là xong.

Bên cạnh đó, cũng tồn tại khả năng các AGI có sai sót và vô tình gây hại, hoặc xử lý thông tin sai lệch, điều vốn đã xảy ra với các công cụ AI hiện tại. Tuy nhiên, với AGI, hậu quả của những sai sót như vậy có thể nghiêm trọng hơn nhiều, đặc biệt nếu được triển khai trong lĩnh vực quân sự hoặc các hệ thống phức tạp. Nhóm nghiên cứu tại DeepMind thừa nhận chưa có giải pháp triệt để cho loại rủi ro này, nhưng khuyến nghị triển khai AGI một cách từ từ, hạn chế quyền hạn của nó, và lọc các lệnh thông qua một hệ thống “lá chắn” để đảm bảo an toàn trước khi thực thi.


Theo DeepMind, AGI có thể xuất hiện vào 2030 và loài người cần hành động có trách nhiệm với loại hình siêu trí tuệ này

Cuối cùng là rủi ro mang tính cấu trúc với các hậu quả không mong muốn nhưng có thực, xảy ra khi AGI vận hành đúng như thiết kế nhưng lại ảnh hưởng tiêu cực đến xã hội. Bài nghiên cứu đưa ra ví dụ rằng AGI có thể tạo ra tin giả cực kỳ thuyết phục, làm xói mòn lòng tin vào các nguồn tin chính thống. Hoặc các hệ thống AGI có thể dần kiểm soát các lĩnh vực kinh tế, chính trị, như thiết lập các chính sách thuế nặng nề vượt ngoài tầm ảnh hưởng của con người. Khi ấy, chúng ta có thể sẽ nhận ra rằng máy móc đang nắm quyền điều hành thay cho con người. DeepMind đánh giá đây là loại rủi ro khó kiểm soát nhất, vì nó phụ thuộc vào cách xã hội, hạ tầng và các thể chế vận hành trong tương lai.

Hiện tại, không ai biết chắc liệu AGI có thật sự chỉ cách chúng ta vài năm, nhưng nhiều lãnh đạo công nghệ đủ tự tin để nói như vậy. DeepMind với dự đoán rằng rằng AGI có thể xuất hiện vào năm 2030 đã gây ra nhiều quan điểm trái chiều. Tuy nhiên, tài liệu mà họ đưa ra nhấn mạnh phát triển chậm nhưng chắc, chứ không phải đột ngột, để đảm bảo loài người có đủ thời gian triển khai các biện pháp an toàn. Bên cạnh đó, nhóm nghiên cứu cũng nêu bật sự khác biệt trong cách tiếp cận với các phòng nghiên cứu khác như Anthropic hay OpenAI, vốn luôn lạc quan rằng học có có thể dùng AI để tự động hóa chính quá trình thiết kế biện pháp an toàn.


Mặc dù đưa ra các biện pháp phòng ngừa, DeepMind cũng khẳng định rằng những biện pháp đó phần nhiều vẫn mang tính lý thuyết và cần thời gian nghiên cứu để đảm bảo tính khả thi. Tuy nhiên, nếu
AGI thực sự xuất hiện trong vòng 5 năm tới, thì các cuộc thảo luận và biện pháp quản lý an toàn cần được tiến hành ngay lập tức. Nếu không, hậu quả có thể sẽ vượt khỏi tầm kiểm soát — và nhiều người có thể sẽ phải nhìn lại và tự hỏi vì sao mình không chuẩn bị sớm hơn.

Nguồn: Ars Technica
Nguồn:tinhte.vn/thread/deepmind-du-bao-tri-tue-nhan-tao-tong-quat-co-the-xuat-hien-vao-nam-2030-voi-nhung-rui-ro-di-kem.3984568/
💬 bình luận

Bình luận

Trở thành viên của itcctv — Đăng ký
Thủ thuật tin học văn phòng Thủ thuật Word Thủ thuật Excel
Cuộn