Trang chủ Công nghệCảnh báo loại mã độc mới ẩn trong mô hình AI, nguy cơ lây nhiễm qua ứng dụng hợp pháp

Cảnh báo loại mã độc mới ẩn trong mô hình AI, nguy cơ lây nhiễm qua ứng dụng hợp pháp

bởi Linh

Cảnh báo về mối đe dọa bảo mật mới từ trí tuệ nhân tạo (AI)

Một nhà nghiên cứu bảo mật vừa đưa ra lời cảnh báo rằng thế hệ phần mềm độc hại tiếp theo có thể đang lẩn trốn trong chính các mô hình trí tuệ nhân tạo (AI), đặc biệt là trong các ứng dụng được người dùng tin tưởng. Thay vì tập trung vào các cuộc tấn công tức thời bằng AI, chuyên gia bảo mật Hariharan Shanmugam cho rằng mã độc có thể lặng lẽ ẩn náu trong các mô hình AI như công cụ Core ML của Apple.

Trong một hội nghị bảo mật Black Hat USA 2025 diễn ra vào ngày 7 tháng 8, ông Shanmugam sẽ trình bày nghiên cứu về cách các mô hình AI có thể bị ‘vũ khí hóa’ mà không cần đến lỗ hổng phần mềm. vấn đề nằm ở chỗ phần lớn các công cụ bảo mật hiện nay không được thiết kế để quét sâu vào bên trong mô hình học máy hoặc thư viện AI, nơi mà mã độc có thể bị giấu kín trong hình ảnh hoặc tệp âm thanh.

Ông Shanmugam đã phát triển một framework tấn công có tên MLArc, sử dụng chính các thành phần học máy của Apple để thực hiện kiểm soát và ra lệnh (Command & Control – C2). Bằng cách tận dụng Core ML, Vision (xử lý ảnh) và AVFoundation (xử lý âm thanh), mã độc có thể ẩn mình dưới dạng dữ liệu hợp pháp, lọt qua mọi hệ thống kiểm tra và thậm chí được kích hoạt mà không để lại dấu vết nào rõ ràng.

Điều đáng lo ngại là những cuộc tấn công như vậy không cần bất kỳ lỗi nào trong hệ thống Apple hay ứng dụng AI. Thay vào đó, kẻ tấn công có thể phát hành một ứng dụng AI ‘trông có vẻ hợp pháp’, được lưu hành công khai trên các kho phần mềm, nhưng bên trong lại chứa mã độc giấu kín. Khi ứng dụng chạy, payload độc hại sẽ được thực thi hoàn toàn trong bộ nhớ, tránh xa mọi bộ quét truyền thống.

Ông Shanmugam cảnh báo rằng bất kỳ tổ chức nào cũng có thể trở thành nạn nhân nếu vô tình tích hợp một mô hình AI bị ‘nhiễm độc’. Đây là rủi ro nghiêm trọng trong chuỗi cung ứng phần mềm hiện đại, nơi AI ngày càng được dùng phổ biến trong ảnh, âm thanh, chatbot, và nhiều ứng dụng khác.

Ông gọi đây là một chiến thuật ‘nhóm đỏ’ nhằm giúp cộng đồng bảo mật nhận ra rằng mô hình AI không chỉ là dữ liệu thụ động, mà có thể trở thành kênh truyền tải dữ liệu nguy hiểm. Ông sẽ công bố các chỉ số xâm nhập (IoC) liên quan trong blog nghiên cứu của mình cùng thời điểm với buổi thuyết trình.

‘Thế hệ cấy ghép độc hại tiếp theo đang tìm nơi ẩn náu trong AI, và hiện tại chúng ta chưa đủ sẵn sàng để phát hiện,’ ông kết luận.

Có thể bạn quan tâm