Các đại lý AI có thể được thao túng để tặng tiền điện tử của bạn, theo các nhà nghiên cứu của Princeton
Các nhà nghiên cứu từ Đại học Princeton cảnh báo về các tác nhân AI có "rủi ro an ninh chưa được khám phá" trong một bài báo mới đây. Bài báo có tiêu đề "Real AI Agents with Fake Memories: Fatal Context Manipulation Attacks on Web3 Agents" nhấn mạnh việc sử dụng các tác nhân AI trong vai trò tài chính có thể rất nguy hiểm cho tài sản của bạn, do chúng vẫn dễ bị tấn công bằng các lệnh đơn giản, mặc dù đã có các biện pháp bảo vệ được cho là an toàn.
Trong khi nhiều người phải làm việc vất vả để kiếm sống, vào năm 2025, một số người thông thạo Web3 đang sử dụng AI để tạo ra tài sản. Họ cho phép các bot này truy cập vào ví tiền điện tử, hợp đồng thông minh và các công cụ tài chính trực tuyến khác. Những độc giả kỳ cựu của Tom's Hardware có lý do để lo lắng về hành vi này, vì các nhà nghiên cứu từ Princeton đã chứng minh cách khai thác AI để chuyển hướng các giao dịch tài sản tài chính.
Nhiều người đã nhận thức được về các cuộc tấn công bằng prompt đối với LLM, nhằm khiến AI hành động vượt qua các giới hạn đã đặt ra. Thời gian gần đây, có nhiều nỗ lực để tăng cường bảo vệ trước loại tấn công này. Mặc dù chi phí AI giảm đến 280 lần, nhưng các sự cố gây hại lại tăng 56% trong năm qua — báo cáo AI 2025 của Stanford nêu bật sự cạnh tranh giữa Trung Quốc và Mỹ. Một số người dùng ChatGPT bị nghiện và sẽ gặp triệu chứng cai nếu bị ngắt kết nối, theo các nhà nghiên cứu. Những người hâm mộ CS2 bị các kẻ lừa đảo Streamjackers nhắm đến — người xem bị lừa mất tiền mã hóa và tài sản trên Steam. Tuy nhiên, tài liệu nghiên cứu khẳng định rằng "các biện pháp phòng thủ dựa trên prompt là không đủ khi kẻ thù làm hỏng ngữ cảnh đã lưu, đạt tỷ lệ thành công tấn công cao mặc dù có những biện pháp phòng thủ này."
Các tác nhân độc hại có thể khiến AI "ảo tưởng" một cách có chủ đích bằng cách cài đặt ký ức sai lệch, từ đó tạo ra bối cảnh giả. Để minh họa cho những nguy cơ khi sử dụng AI để hành động thay vì tư vấn, nhóm nghiên cứu từ Princeton đã cung cấp ví dụ thực tế về các tác nhân AI trong khuôn khổ ElizaOS. Họ đã phân tích chi tiết "Cuộc tấn công thao túng bối cảnh" và xác thực cuộc tấn công này trên ElizaOS.
📢 Liên hệ quảng cáo: 0919 852 204
Quảng cáo của bạn sẽ xuất hiện trên mọi trang!
Hình ảnh từ Đại học Princeton và các nhà nghiên cứu Sentient cho thấy một cách trực quan về cuộc tấn công của tác nhân AI, diễn ra với nhiều sự kiện không mong muốn có thể khiến người dùng chịu "tổn thất nghiêm trọng". Một lo ngại khác là ngay cả các biện pháp phòng ngừa tiên tiến nhất cũng không thể chống lại các cuộc tấn công tiêm nhiễm bộ nhớ của Princeton, và những ký ức giả này có thể tồn tại qua nhiều tương tác và nền tảng.
Các nhà nghiên cứu giải thích rằng "Hệ quả của lỗ hổng này rất nghiêm trọng vì các tác nhân ElizaOS được thiết kế để tương tác với nhiều người dùng cùng lúc, dựa vào các thông tin ngữ cảnh chung từ tất cả người tham gia." Chúng ta có thể nói rằng chỉ cần một người xấu cũng có thể làm hỏng cả hệ thống. Vậy có thể làm gì? Hiện tại, người dùng nên tạm thời không giao cho các tác nhân AI quyền truy cập và dữ liệu nhạy cảm về tài chính.
Các nhà nghiên cứu kết luận rằng một chiến lược kết hợp gồm 1) cải tiến phương pháp đào tạo LLM để tăng cường khả năng chống chịu với các cuộc tấn công, và 2) thiết kế hệ thống quản lý bộ nhớ chặt chẽ nhằm đảm bảo cách ly và tính toàn vẹn sẽ là những bước đầu tiên cần thực hiện.
Nguồn: www.tomshardware.com/tech-industry/cryptocurrency/ai-agents-can-be-manipulated-into-giving-away-your-crypto-according-to-princeton-researchers