Trong khoảng một năm, chúng ta có thể mất khả năng phát hiện nếu một số mô hình AI hàng đầu đang bí mật chống lại chúng ta
Đây không phải là lời khuyên đầu tư. Tác giả không nắm giữ cổ phiếu nào được đề cập. Wccftech.com có chính sách công bố và đạo đức. Các mô hình AI, đặc biệt là loại mô hình lý luận, dựa trên một khoa học vẫn còn mơ hồ, khiến các nhà nghiên cứu và kỹ sư phải dựa vào chuỗi tư duy - bao gồm các bước lý luận đơn giản mà các mô hình AI thực hiện để đưa ra câu trả lời - để hiểu rõ hơn về cách hoạt động bên trong của chúng.
Theo báo cáo của The Information, các mô hình AI hiện đang làm mờ quá trình quan trọng này bằng cách sử dụng những cách tiếp cận khó hiểu để đi đến kết luận. Chẳng hạn, khi mô hình DeepSeeks R1 được yêu cầu giải một bài toán hóa học, chuỗi suy nghĩ của nó chứa những thuật ngữ hóa học liên quan nhưng lại lẫn lộn với những từ ngữ vô nghĩa như "Dimethyloxo-lambda6-sulfa雰囲idinemethane donate a CH2rola group occurs in reaction, Practisingproduct transition vs adds this."
Mô hình AI như Qwen của Alibaba cho thấy chỉ khoảng 20% từ quan trọng trong quá trình suy nghĩ của nó thực hiện phần lớn công việc lý luận, trong khi 80% còn lại trở nên khó hiểu. Điều này giải thích tại sao các mô hình này có thể đưa ra câu trả lời đúng nhưng lại sử dụng ngôn ngữ không rõ ràng. Ví dụ, Frederick đã nói rằng sẽ có 10 hoặc 11 carbon, và câu trả lời cuối cùng là 11, điều này là chính xác.
📢 Liên hệ quảng cáo: 0919 852 204
Quảng cáo của bạn sẽ xuất hiện trên mọi trang!
Một nhà nghiên cứu của OpenAI cho biết chuỗi suy nghĩ của hầu hết các mô hình AI hàng đầu có thể trở thành một mớ hỗn độn không thể đọc được trong khoảng một năm tới. Điều này gây khó khăn cho các kỹ sư AI khi điều chỉnh độ chính xác của mô hình. Hơn nữa, các chuyên gia an ninh AI rất coi trọng các bước suy luận này để xác định liệu các mô hình có đang âm thầm chống lại người sáng tạo của chúng hay không.
Như đã đề cập trong một bài viết gần đây, hầu hết các mô hình AI không gặp khó khăn khi sử dụng các phương pháp phi đạo đức hoặc thậm chí bất hợp pháp để tìm ra giải pháp hiệu quả nhất, theo một nghiên cứu của Anthropic. Trong một trường hợp cực đoan, một mô hình đã sẵn sàng cắt nguồn cung oxy cho phòng máy chủ giả định để tránh bị tắt, dẫn đến cái chết của nhân viên. Ngay cả khi các mô hình này không đi vào một chuỗi suy nghĩ không rõ ràng, một số công ty AI có thể cố ý hy sinh tính rõ ràng để tăng hiệu suất trong ngắn hạn.
Nguồn: wccftech.com/in-about-an-year-we-might-lose-the-ability-to-detect-if-some-of-the-leading-ai-models-are-secretly-scheming-against-us/