Google từ chối vá lỗ hổng ASCII smuggling trong Gemini dù các chuyên gia cảnh báo nguy cơ tấn công lừa đảo qua AI nghiêm trọng

Nền tảng AI Gemini của Google đang phải đối mặt với một vấn đề bảo mật mới được cộng đồng an ninh mạng đánh giá là đáng lo ngại. Lỗ hổng này liên quan đến kỹ thuật ASCII smuggling– một phương thức cho phép tin tặc giấu mã độc hoặc thông điệp nguy hiểm trong các ký tự mà con người không thể nhìn thấy, nhưng trí tuệ nhân tạo thì có thể hiểu và thực thi theo cách không mong muốn.

ASCII smuggling là gì?

Về cơ bản, ASCII smuggling (hay Unicode character smuggling) lợi dụng các ký tự đặc biệt hoặc khoảng trắng “vô hình” trong bảng mã ASCII hoặc Unicode. Những ký tự này không hiển thị trên màn hình, nhưng vẫn tồn tại trong văn bản mà mô hình ngôn ngữ có thể “đọc hiểu”. Điều này cho phép tin tặc ẩn các đoạn mã, lệnh, hoặc hướng dẫn độc hại trong nội dung tưởng chừng vô hại – chẳng hạn trong một lời nhắc (prompt), email, hoặc bài đăng trực tuyến.


Khi một chatbot AI như Gemini xử lý nội dung đó, nó có thể vô tình thực thi mệnh lệnh bị ẩn hoặc tạo ra phản hồi theo hướng có lợi cho kẻ tấn công. Điều đáng sợ là người dùng hoàn toàn không nhìn thấy dấu hiệu nào khả nghi.

Google phủ nhận, chuyên gia cảnh báo

Theo báo cáo từ công ty an ninh mạng FireTail, nhóm nghiên cứu đã tiến hành thử nghiệm kỹ thuật ASCII smuggling trên nhiều mô hình AI, bao gồm Gemini, ChatGPT, Claude, DeepSeek và Grok.
Kết quả cho thấy:

Điều gây tranh cãi nằm ở phản hồi của Google.

Khi FireTail báo cáo lỗ hổng, Google cho biết “đây không phải là lỗi bảo mật thực sự”, cho rằng phương thức này chỉ có thể dẫn đến “các hành vi lừa đảo xã hội (social engineering)”, và việc khắc phục sẽ “không giúp người dùng ít bị ảnh hưởng hơn”.

Phản ứng này khiến nhiều chuyên gia an ninh mạng lo ngại. Họ cho rằng việc xem nhẹ ASCII smuggling có thể mở ra con đường mới cho tấn công lừa đảo qua AI, đặc biệt trong bối cảnh các chatbot đang được tích hợp ngày càng sâu vào công cụ làm việc, ứng dụng web và thiết bị thông minh.

Khi AI trở thành “cửa ngõ” của tấn công mạng

Đây không phải là lần đầu tiên AI bị khai thác thông qua các lỗ hổng kiểu này.
Trước đó, một nhóm nghiên cứu từng chứng minh rằng AI có thể bị lợi dụng chỉ bằng các lời mời Google Calendar chứa mã hoặc văn bản ẩn. Khi chatbot hoặc trợ lý ảo quét nội dung, chúng có thể bị đánh lừa để thực hiện hành động nguy hiểm, ví dụ như kích hoạt thiết bị trong nhà thông minh hoặc truy cập dữ liệu cá nhân.

ASCII smuggling có thể được coi là phiên bản “tàng hình” của các cuộc tấn công kiểu đó – không cần gửi mã độc, không cần khai thác lỗi phần mềm truyền thống, mà chỉ đánh lừa chính khả năng đọc hiểu của mô hình AI.

Tác động và bài học

Việc Google từ chối vá lỗ hổng cho thấy khoảng trống lớn trong quy trình đánh giá bảo mật AI hiện nay. Khi các mô hình AI trở nên phổ biến, việc định nghĩa thế nào là “lỗi bảo mật” cần được mở rộng, bao gồm cả các rủi ro đến từ hành vi ngôn ngữ và xử lý ký tự ẩn – những thứ mà trước đây chỉ giới bảo mật AI mới quan tâm.
Các chuyên gia khuyến nghị:
  • Người dùng nên cảnh giác khi tương tác với nội dung AI-generated từ nguồn không rõ ràng.
  • Nhà phát triển AI cần xem xét nghiêm túc các kỹ thuật lọc ký tự ẩn, không chỉ dựa vào công cụ phát hiện thông thường.
  • Các cơ quan tiêu chuẩn an ninh AI nên sớm đưa ASCII smuggling và các hình thức “prompt injection tàng hình” vào danh mục lỗ hổng cần giám sát.

Kết luận

Dù Google khẳng định Gemini vẫn an toàn, việc phớt lờ một kỹ thuật tấn công đã được chứng minh là khả thi đang khiến cộng đồng bảo mật lo ngại. Trong thế giới nơi AI ngày càng trở thành một phần trong mọi hoạt động số, việc xem nhẹ các lỗ hổng “phi truyền thống” như ASCII smuggling có thể là bước lùi trong nỗ lực bảo vệ người dùng khỏi những mối đe dọa mới nổi của kỷ nguyên trí tuệ nhân tạo.

Bình luận

0 Nhận xét