Hàng Trăm Ngàn Cuộc Trò Chuyện Grok Hiển Thị Trong Tìm Kiếm Của Google

Hàng trăm nghìn đoạn hội thoại giữa người dùng và Grok – chatbot trí tuệ nhân tạo (AI) do Elon Musk phát triển – đã vô tình xuất hiện trên kết quả tìm kiếm, dường như mà không hề có sự nhận thức hay đồng ý từ phía người dùng.

Một tìm kiếm trên Google vào thứ Năm cho thấy gần 300.000 cuộc hội thoại Grok đã bị index. Forbes thậm chí báo cáo con số này lên tới 370.000 đoạn hội thoại có thể truy cập công khai qua Google.

Một chuyên gia bảo mật đã mô tả tình trạng này là một “thảm họa quyền riêng tư đang diễn ra”.

Đây giống như “cảm giác quen thuộc” trong thế giới AI: ngày nào cũng có một bài phanh phui mới về việc hội thoại chatbot bị rò rỉ, bị index công khai hoặc vô tình để lộ. Chúng ta từng viết về tính năng “chia sẻ” trong ChatGPT đã nhanh chóng bị loại bỏ vì người dùng không lường trước được hậu quả; về Meta AI – nơi các đoạn chat từng xuất hiện trên công cụ tìm kiếm rồi sau đó bị rò rỉ thêm do lỗi hệ thống; về một bot tuyển dụng của McDonalds để lộ dữ liệu ứng viên; và thậm chí là vụ việc nghiêm trọng liên quan đến “AI bạn gái”, khi một hacker chiếm đoạt toàn bộ cơ sở dữ liệu chứa tương tác riêng tư giữa người dùng và chatbot đóng vai “người yêu ảo”.

Trong nhiều trường hợp, nhà phát triển cho rằng việc bấm nút “Share” (chia sẻ) đồng nghĩa với người dùng đã ý thức rằng cuộc hội thoại của họ trở thành công khai. Nhưng thực tế, hầu hết người dùng đều bất ngờ như những ai vô tình phát hiện ra đoạn chat đó trên Internet.

Điều tương tự đã xảy ra với Grok, chatbot AI do xAI phát triển và được Elon Musk công bố vào tháng 11/2023. Theo báo cáo từ Forbes, khi người dùng Grok bấm nút chia sẻ bản ghi hội thoại, dữ liệu đó không chỉ tạo ra một liên kết URL để gửi cho người khác, mà còn đồng thời khiến toàn bộ nội dung có thể được lập chỉ mục và hiển thị trên các công cụ tìm kiếm như Google, Bing, hay DuckDuckGo – đôi khi hoàn toàn mà không có sự nhận thức hoặc đồng thuận từ người dùng.

Ví dụ, một người dùng Grok có thể chỉ đơn giản muốn gửi đoạn hội thoại cho bạn bè qua một đường link. Nhưng ẩn sau thao tác đó, toàn bộ nội dung lại được “phơi bày” công khai và bất kỳ ai cũng có thể tìm thấy.

Mặc dù các bản transcript được chia sẻ thường ẩn thông tin tài khoản, nhưng nội dung prompt (câu lệnh hoặc hướng dẫn mà người dùng nhập vào) vẫn có thể chứa dữ liệu nhạy cảm hoặc thông tin cá nhân.

Forbes đã báo cáo rằng họ có thể xem những đoạn hội thoại chứa câu hỏi riêng tư về y tế và tâm lý học. BBC thậm chí ghi nhận trường hợp chatbot cung cấp hướng dẫn chi tiết cách điều chế một loại ma túy hạng A trong phòng thí nghiệm.

Tôi đã từng nói, và có lẽ sẽ phải nhắc đi nhắc lại nhiều lần cho đến khi quyền riêng tư thực sự được tích hợp ngay trong “DNA” của các hệ thống AI, thay vì chỉ được “vá lỗi” sau này: Chúng ta phải cực kỳ cẩn trọng với những gì mình chia sẻ với chatbot.

Hướng dẫn an toàn khi sử dụng AI

Trong khi nhiều chuyên gia cho rằng tốc độ phát triển AI đang vượt quá khả năng kiểm soát về bảo mật và quyền riêng tư, thì dưới đây là một số nguyên tắc cơ bản để bảo vệ dữ liệu của bạn:

  1. Cẩn trọng với AI do các công ty mạng xã hội phát triển
    (Meta AI, Llama, Grok, Bard, Gemini, v.v.). Hãy chắc chắn rằng bạn không đăng nhập tài khoản mạng xã hội khi sử dụng. Nếu không, các cuộc hội thoại có thể bị liên kết với hồ sơ cá nhân vốn chứa nhiều dữ liệu nhạy cảm.

  2. Hiểu rõ cách giữ hội thoại ở chế độ riêng tư
    Nhiều công cụ AI có “Incognito Mode”. Đừng “chia sẻ” hội thoại trừ khi thật sự cần thiết. Nhưng hãy luôn nhớ rằng nguy cơ rò rỉ, lỗi hệ thống, hay tấn công dữ liệu vẫn có thể khiến thông tin bị lộ, ngay cả khi bạn nghĩ rằng nó đã được bảo mật.

  3. Tuyệt đối không nhập dữ liệu cá nhân nhạy cảm
    Đừng cung cấp cho AI thông tin nhận dạng cá nhân (PII – Personally Identifiable Information), mật khẩu, số tài khoản, hay dữ liệu bảo mật nội bộ.

  4. Đọc và nắm được chính sách quyền riêng tư
    Nếu tài liệu quá dài, bạn có thể dùng chính AI để tóm tắt các điều khoản quan trọng.

  5. Nguyên tắc vàng: Mọi dữ liệu từng được đưa vào chatbot đều có nguy cơ tồn tại vĩnh viễn trên môi trường số. Hãy đặt câu hỏi: Nếu nội dung này bị công khai, tôi có gặp rủi ro gì không? Nếu câu trả lời là “có”, tốt nhất đừng nhập vào ngay từ đầu.

Trước khi AI có thể bảo mật ở mức “thiết kế ngay từ đầu” (security & privacy by design), mỗi người dùng – đặc biệt trong môi trường doanh nghiệp – cần chủ động thực hành an toàn thông tin, coi mọi tương tác với chatbot đều tiềm ẩn nguy cơ rò rỉ dữ liệu.

Chúng tôi, các chuyên gia về cyber security luôn sẵn sàng đồng hành cùng doanh nghiệp bạn

Chúng tôi tập trung vào các giải pháp Chống mã độc, đặc biệt là dòng mã độc mã hóa dữ liệu tống tiền và giải pháp Chống thất thoát dữ liệu (DLP).

Liên hệ ngay