Trình duyệt AI ChatGPT Atlas của OpenAI vừa bị phát hiện một lỗ hổng bảo mật nghiêm trọng có thể khiến dữ liệu người dùng bị đánh cắp. Mã độc khai thác lỗi trong bộ nhớ “Memory” – nơi AI lưu thông tin cá nhân – và có khả năng tồn tại vĩnh viễn nếu không bị xóa thủ công.
- Hà Nội: Cháy nhà cấp 4 ở Tây Mỗ, ông lão 72 tuổi tử vong
- Mưa lũ lịch sử tại Huế phá kỷ lục
- Nữ giáo viên bị lũ cuốn trôi ở Lâm Đồng: Phát hiện thi thể sáng nay
Mã độc tấn công trực tiếp vào bộ nhớ liên tục của AI
Theo báo cáo của LayerX Security, tin tặc có thể khai thác lỗ hổng giả mạo yêu cầu chéo trang (CSRF) để chèn mã độc vào bộ nhớ của ChatGPT Atlas. Bộ nhớ này vốn được thiết kế nhằm cá nhân hóa trải nghiệm người dùng, nhưng khi bị nhiễm, các lệnh độc hại sẽ tồn tại ngay cả khi người dùng đổi thiết bị, đăng xuất hoặc chuyển trình duyệt.
“Điều khiến lỗ hổng này đặc biệt nguy hiểm là nó nhắm vào bộ nhớ liên tục của AI. Một khi mã độc được ghi vào đó, nó có thể nằm vùng vĩnh viễn và kích hoạt bất cứ khi nào người dùng ra lệnh mới,” bà Michelle Levy, Giám đốc nghiên cứu bảo mật tại LayerX, cảnh báo.
Atlas yếu trong khả năng chống lừa đảo
Kịch bản tấn công diễn ra khá đơn giản: người dùng đăng nhập vào ChatGPT Atlas, nhấp vào một liên kết độc hại, và trang web đó âm thầm gửi yêu cầu CSRF để cài mã vào bộ nhớ AI. Khi người dùng tiếp tục sử dụng, các “ký ức” nhiễm độc có thể kích hoạt, dẫn tới nguy cơ đánh cắp dữ liệu hoặc chiếm quyền điều khiển hệ thống.
Thử nghiệm của LayerX cho thấy ChatGPT Atlas chỉ ngăn chặn được 5,8% trang web độc hại, thấp hơn đáng kể so với Google Chrome (47%) hay Microsoft Edge (53%). Phát hiện này tiếp nối các cảnh báo trước đó, cho thấy các trình duyệt AI đang trở thành mặt trận tấn công mới của giới tin tặc.
Theo: Dân trí
