Kaspersky cảnh báo tội phạm mạng dùng Dark AI tấn công

Ngày 15-8, hãng bảo mật Kaspersky đã phát ra thông tin cảnh báo cuộc tấn công mạng ngày càng tinh vi và khó phát hiện hơn bởi sự trỗi dậy của Dark AI (sử dụng AI cho các mục đích độc hại, vi phạm pháp luật…) tại khu vực Châu Á - Thái Bình Dương (APAC).

Đại diện hãng bảo mật Kaspersky cung cấp thông tin về tội phạm mạng dùng Dark AI tấn công
Đại diện hãng bảo mật Kaspersky cung cấp thông tin về tội phạm mạng dùng Dark AI tấn công

Dark AI hoạt động bên ngoài các quy chuẩn về an toàn, thường cho phép thực hiện các hành vi như lừa đảo, thao túng, tấn công mạng hoặc khai thác dữ liệu mà không có sự giám sát chặt chẽ.

“Các đối tượng xấu cũng đang lợi dụng AI để nâng cao năng lực tấn công của họ. Phổ biến nhất của việc lạm dụng AI hiện nay là sự xuất hiện của các mô hình Black Hat GPT. Đây là những mô hình AI được phát triển hoặc điều chỉnh đặc biệt để phục vụ các mục tiêu bất hợp pháp như tạo mã độc, soạn thảo email lừa đảo, tạo giọng nói và các video deepfake…”, ông Sergey Lozhkin, Trưởng nhóm Nghiên cứu và Phân tích toàn cầu (GReAT) phụ trách khu vực Trung Đông, Thổ Nhĩ Kỳ, Châu Phi và Châu Á - Thái Bình Dương của Kaspersky chia sẻ.

Các Black Hat GPT có thể tồn tại dưới dạng mô hình AI riêng tư hoàn toàn hoặc bán riêng tư. Một số ví dụ điển hình được ghi nhận như WormGPT, DarkBard, FraudGPT và Xanthorox… đều được thiết kế nhằm phục vụ cho hoạt động tội phạm mạng, lừa đảo và tự động hóa độc hại.

Ông Lozhkin tiết lộ rằng, các chuyên gia của Kaspersky hiện đang ghi nhận một xu hướng còn đáng lo ngại hơn, các nhóm tấn công mạng do quốc gia hoặc chính phủ hậu thuẫn bắt đầu tận dụng mô hình ngôn ngữ lớn (LLMs) trong các chiến dịch tấn công của mình.

“OpenAI gần đây đã công bố rằng họ đã ngăn chặn hơn 20 chiến dịch ảnh hưởng ngầm và tấn công mạng có hành vi lợi dụng công cụ AI của họ. Chúng ta sẽ phải đối mặt với các đối tượng tấn công ngày càng tinh vi hơn trong việc vũ khí hóa AI, trở thành mối đe dọa trong các hệ sinh thái công cộng lẫn riêng tư. Đây là một xu hướng đáng lo ngại mà tất cả tổ chức cần chuẩn bị đối mặt”, ông Lozhkin chia sẻ.

Theo báo cáo của OpenAI, các tác nhân độc hại đã bắt đầu lợi dụng khả năng của mô hình học máy lớn (LLMs) để đánh lừa nạn nhân và vượt qua các lớp bảo mật thông thường. Chúng có thể tạo những tin nhắn giả mạo đầy thuyết phục, gửi tin nhắn hàng loạt cho các nạn nhân, sản xuất nội dung bằng nhiều ngôn ngữ khác nhau.

Để tăng cường khả năng phòng thủ trước các mối đe dọa từ Dark AI, các chuyên gia Kaspersky khuyến nghị: Sử dụng các giải pháp bảo mật thế hệ mới như Kaspersky Next để phát hiện mã độc do AI tạo ra và kiểm soát rủi ro trong chuỗi cung ứng. Ứng dụng công cụ thông tin mối đe dọa theo thời gian thực nhằm giám sát các hành vi khai thác lỗ hổng do AI điều khiển. Tăng cường kiểm soát truy cập và đào tạo nhân viên, nhằm hạn chế hiện tượng AI trong vùng tối (Shadow AI) và nguy cơ rò rỉ dữ liệu. Thiết lập Trung tâm điều hành an ninh mạng (SOC) để theo dõi mối đe dọa và ứng phó nhanh chóng trước các sự cố.

Tin cùng chuyên mục