Các nhà nghiên cứu bảo mật vừa công bố phát hiện ba lỗ hổng nghiêm trọng trong Gemini AI – trợ lý trí tuệ nhân tạo của Google. Mặc dù những lỗ hổng này đã được khắc phục, nhưng “bộ ba nguy hiểm” (Trifecta) này đặt ra một câu hỏi quan trọng: liệu các công cụ AI có thực sự an toàn khi chúng ngày càng được tích hợp sâu vào những dịch vụ mà hàng triệu người dùng sử dụng mỗi ngày?
Các Lỗ Hổng Trong Gemini AI Có Thể Đã Làm Lộ Dữ Liệu Của Bạn
Các nhà nghiên cứu bảo mật vừa công bố phát hiện ba lỗ hổng nghiêm trọng trong Gemini AI – trợ lý trí tuệ nhân tạo của Google. Mặc dù những lỗ hổng này đã được khắc phục, nhưng “bộ ba nguy hiểm” (Trifecta) này đặt ra một câu hỏi quan trọng: liệu các công cụ AI có thực sự an toàn khi chúng ngày càng được tích hợp sâu vào những dịch vụ mà hàng triệu người dùng sử dụng mỗi ngày?
Ba lỗ hổng chính trong hệ sinh thái Gemini AI
1. Gemini Cloud Assist
-
Chức năng: Tóm tắt log cho các dịch vụ đám mây.
-
Lỗ hổng: Có thể bị chèn các prompt ẩn (hidden prompts) trong request web. Kẻ tấn công lợi dụng để đưa chỉ thị độc hại vào hệ thống, từ đó có khả năng giành quyền kiểm soát tài nguyên đám mây.
2. Gemini Search Personalization Model
-
Chức năng: Cá nhân hóa tìm kiếm dựa trên lịch sử duyệt web của người dùng Chrome.
-
Lỗ hổng: Tin tặc có thể lợi dụng bằng cách điều hướng người dùng tới một website được thiết kế đặc biệt. Khi đó, các prompt độc hại sẽ được ghi vào lịch sử duyệt web. Nếu sau đó người dùng tương tác với công cụ tìm kiếm được cá nhân hóa của Gemini, AI có thể bị ép lộ dữ liệu nhạy cảm như thông tin đã lưu hoặc vị trí địa lý.
3. Gemini Browsing Tool
-
Chức năng: Hỗ trợ tóm tắt nội dung trang web.
-
Lỗ hổng: Có thể bị lợi dụng để gửi thông tin lưu trữ của người dùng cùng dữ liệu vị trí tới máy chủ độc hại.
Cách Google khắc phục
Google đã nhanh chóng vá các lỗ hổng bằng cách:
-
Ngăn Gemini render các liên kết nguy hiểm.
-
Tăng cường cơ chế phòng thủ trước các cuộc tấn công Prompt Injection.
Tuy nhiên, Google cũng thừa nhận rằng nếu người dùng đã sử dụng các dịch vụ dựa trên Gemini trước khi bản vá được phát hành, vẫn có khả năng họ đã bị khai thác – đặc biệt nếu từng truy cập website độc hại hoặc sử dụng các tính năng AI liên quan đến cloud.
Góc nhìn chuyên gia bảo mật
Những lỗ hổng này cho thấy rõ AI không chỉ là mục tiêu bị tấn công mà còn có thể trở thành công cụ tấn công. Tin tặc ngày nay không còn chỉ cài mã độc trực tiếp mà có thể “gài bẫy” trong dữ liệu hoặc file tưởng như bình thường. Khi AI xử lý dữ liệu này, nó có thể vô tình thực thi các hành vi gây hại mà người dùng không hề hay biết.
Đây là minh chứng rõ ràng cho xu hướng tấn công thông qua Prompt Injection – một kỹ thuật ngày càng phổ biến, đặc biệt nguy hiểm vì nó đánh lừa chính cơ chế xử lý ngôn ngữ tự nhiên của AI.
So sánh với ransomware và các mối đe dọa khác
Trong khi ransomware thường trực tiếp mã hóa dữ liệu để đòi tiền chuộc, các lỗ hổng AI mở ra một mặt trận tấn công mới: đánh cắp thông tin, thao túng hành vi hệ thống, và tiềm ẩn nguy cơ trở thành “bước đệm” cho các cuộc tấn công ransomware thế hệ mới. Việc AI bị khai thác có thể giúp kẻ tấn công thu thập thông tin nhạy cảm, bản đồ hệ thống, từ đó tiến hành một cuộc tấn công ransomware có mục tiêu.
Người dùng cần làm gì để bảo vệ mình?
-
Tránh truy cập website lạ hoặc khả nghi, đặc biệt những trang yêu cầu tương tác với AI.
-
Cập nhật phần mềm, trình duyệt, ứng dụng thường xuyên để đảm bảo nhận được bản vá bảo mật kịp thời.
-
Thận trọng với dữ liệu chia sẻ cho AI, không nên nhập thông tin cá nhân nhạy cảm (như số thẻ, địa chỉ, dữ liệu công việc mật).
-
Sử dụng giải pháp chống mã độc thời gian thực, ưu tiên những công cụ có tính năng Web Protection để ngăn chặn kết nối đến máy chủ độc hại.
-
Doanh nghiệp nên triển khai chiến lược Zero Trust, giám sát chặt chẽ log hệ thống, đồng thời tiến hành Red Team / PenTest định kỳ để đánh giá mức độ an toàn khi tích hợp AI.
Gemini AI chỉ là một ví dụ cụ thể, nhưng nó phản ánh thực tế: AI vừa là cơ hội, vừa là rủi ro bảo mật. Khi AI ngày càng trở thành thành phần cốt lõi trong các dịch vụ số và hạ tầng doanh nghiệp, vấn đề an ninh mạng cần được đặt song song ngay từ giai đoạn thiết kế, thay vì “vá lỗi” khi sự cố xảy ra.
Trong bối cảnh mối đe dọa ransomware vẫn gia tăng, các lỗ hổng AI cho thấy bức tranh toàn cảnh rằng kẻ tấn công sẽ không bỏ qua bất kỳ công nghệ nào mới nổi – và AI đang nằm trong tầm ngắm.