Meta đã đề cập trong một tài liệu chính sách mới có tiêu đề ‘Frontier AI Framework, nó sẽ không phát hành mô hình AI có khả năng cao nếu nó mang quá nhiều rủi ro
Khi các công ty đua nhau phát triển các mô hình AI tiên tiến, hay còn gọi là trí tuệ nhân tạo tổng quát (AGI), luôn tồn tại rủi ro liên quan đến việc giới thiệu một công nghệ có thể thực hiện mọi nhiệm vụ mà con người có thể làm. Meta nhận thức được mối đe dọa từ việc phát triển không kiểm soát, vì vậy họ đã soạn thảo "Khung AI Frontier", một tài liệu chính sách nhấn mạnh nỗ lực của công ty trong việc tạo ra hệ thống AI tốt nhất đồng thời giám sát các tác động tiêu cực của nó.
Tài liệu chính sách đề cập rằng các hệ thống AI tiên tiến mang lại nhiều lợi ích, nhưng Meta cảnh báo rằng điều này có thể dẫn đến "hậu quả thảm khốc". Có nhiều tình huống mà Meta không bị buộc phải phát hành một mô hình AI mạnh mẽ, với một số điều kiện được nêu trong tài liệu chính sách mới. Khung AI Frontier đã xác định hai loại hệ thống được coi là quá rủi ro và được phân loại là "rủi ro cao" và "rủi ro nghiêm trọng".
Các mô hình AI này có khả năng hỗ trợ các biện pháp an ninh mạng và các cuộc tấn công hóa học, sinh học, có thể dẫn đến hậu quả thảm khốc. Mô hình đe dọa là cơ sở cho phương pháp tiếp cận dựa trên kết quả của chúng tôi. Chúng tôi thực hiện các bài tập mô hình đe dọa cả nội bộ và với các chuyên gia bên ngoài có chuyên môn phù hợp. Mục tiêu của các bài tập này là khám phá một cách có hệ thống cách mà các mô hình AI tiên tiến có thể được sử dụng để tạo ra những hậu quả thảm khốc.
Thông qua quá trình này, chúng tôi phát triển các kịch bản đe dọa mô tả cách các tác nhân khác nhau có thể sử dụng mô hình AI tiên tiến để đạt được kết quả thảm khốc. Chúng tôi thiết kế các đánh giá để mô phỏng xem liệu mô hình của chúng tôi có thể thúc đẩy những kịch bản này hay không, và xác định các khả năng cần thiết mà mô hình phải có. Bộ đánh giá đầu tiên của chúng tôi nhằm xác định xem tất cả các khả năng này có hiện diện hay không và mô hình có đủ hiệu suất trên chúng hay không.
Nếu vậy, điều này sẽ yêu cầu đánh giá thêm để hiểu liệu mô hình có thể tạo ra kịch bản đe dọa một cách độc nhất hay không. Meta cho biết nếu phát hiện hệ thống có rủi ro nghiêm trọng, công việc sẽ ngay lập tức dừng lại và không được phát hành. Tuy nhiên, vẫn có một khả năng nhỏ là hệ thống AI sẽ được phát hành. Mặc dù công ty sẽ thực hiện các biện pháp để ngăn chặn sự cố nghiêm trọng xảy ra, Meta thừa nhận rằng những biện pháp này có thể không đủ.
Người đọc tìm hiểu về Khung AI Frontier có thể lo lắng về hướng đi của AGI. Dù các công ty như Meta không có biện pháp nội bộ để hạn chế việc phát hành các mô hình AI tiềm ẩn nguy hiểm, pháp luật có thể can thiệp mạnh mẽ. Hiện tại, chỉ còn chờ xem sự phát triển này đi xa đến đâu.
Nguồn: wccftech.com/meta-frontier-ai-framework-mentions-the-development-of-highly-risky-ai-models/