Tin tức BlockBeats, vào ngày 5 tháng 3, Công ty An ninh Web3 GoPlus đã đăng bài viết cho biết, công cụ phát triển trí tuệ nhân tạo OpenClaw đã gần đây bị tiết lộ một sự cố an ninh "tự tấn công". Trong quá trình thực thi nhiệm vụ tự động hóa, hệ thống trong quá trình gọi lệnh Shell để tạo GitHub Issue đã xây dựng một câu lệnh Bash không chính xác, không cố ý kích hoạt lệnh chèn, dẫn đến việc tiết lộ một lượng lớn các biến môi trường nhạy cảm.
Trong sự cố này, chuỗi được tạo ra bởi trí tuệ nhân tạo chứa từ khóa set được bọc trong dấu ngoặc ``, được Bash hiểu là thay thế lệnh và tự động thực thi. Do Bash khi thực thi set mà không có tham số sẽ đưa ra tất cả các biến môi trường hiện tại, cuối cùng dẫn đến hơn 100 dòng thông tin nhạy cảm (bao gồm cả khóa Telegram, mã thông báo xác thực, v.v.) bị viết trực tiếp vào GitHub Issue và công khai.
GoPlus đề xuất, trong kịch bản phát triển hoặc kiểm thử tự động hóa trí tuệ nhân tạo, nên ưu tiên sử dụng gọi API thay vì nối chuỗi trực tiếp các lệnh Shell, tuân thủ nguyên tắc tối thiểu quyền hạn cô lập biến môi trường, đồng thời vô hiệu hóa chế độ thực thi rủi ro cao, và giới thiệu cơ chế xác nhận bằng con người trong các hoạt động quan trọng.
