Vietnam.vn - Nền tảng quảng bá Việt Nam

Bảo mật dữ liệu thời AI

Deepfake, tấn công lừa đảo, chiếm đoạt thông tin và danh tính số... xuất hiện tinh vi hơn và có thể tấn công bất kỳ lúc nào, với bất kỳ ai thiếu kỹ năng phòng vệ số.

Báo Sài Gòn Giải phóngBáo Sài Gòn Giải phóng18/11/2025

Tấn công từ mọi ngóc ngách

Google đã ra mắt sản phẩm trí tuệ nhân tạo (AI) mới với cái tên “Gemini Nano Banana”, đây không phải là một AI ngôn ngữ lớn (LLM) với khả năng viết, suy luận mà là một AI chuyên chỉnh sửa ảnh... Nhiều người dùng thích thú với công cụ này, nhưng bản thân nó cũng mang đến không ít tác hại.

S4c.jpg
Trường Tiểu học Trần Hưng Đạo, phường Cầu Ông Lãnh, TPHCM ứng dụng hệ thống nhận diện khuôn mặt để điểm danh học sinh và gửi thông báo qua app đến phụ huynh. Ảnh: HOÀNG HÙNG

“Nó giống như một cuộc “cải lùi” của công nghệ và giới hạn đạo đức AI”, ông Nguyễn Hồng Phúc, Giám đốc Khoa học, Công ty Conductify AI, bày tỏ quan điểm cá nhân. “Gemini Nano Banana có năng lực chỉnh sửa ảnh hiệu quả. Nhưng việc Google thực hiện việc uncensored đối với Gemini Nano Banana, tức nới lỏng các rào cản và cơ chế giới hạn, khiến AI này có thể tạo hình ảnh siêu giống với người nổi tiếng, hình gợi cảm, hình nhạy cảm... ”, ông Phúc nói.

Theo ông Nguyễn Hồng Phúc, năng lực này khiến Gemini Nano Banana trở thành công cụ tạo hình ảnh giả mạo như thật, đến mức các chuyên gia AI cũng không thể phân biệt, dẫn tới rủi ro lừa đảo, rủi ro bảo mật an ninh mạng mới, như tạo ảnh chụp với chính khách, chính trị gia nổi tiếng nhằm lan truyền thông tin giả mạo, thậm chí có những cá nhân bị ghép ảnh bằng AI và bôi nhọ trên mạng xã hội...

Ngoài ra, với hàng chục công cụ AI chỉnh sửa ảnh khác đang “làm mưa làm gió” trên mạng, nạn lừa đảo deepfake chưa có điểm dừng. Thống kê của các tổ chức bảo mật cho thấy, công nghệ deepfake tạo ra các chiến dịch lừa đảo nhắm vào cá nhân giá trị cao, đặc biệt là lãnh đạo doanh nghiệp. Năm 2024, có 140.000-150.000 vụ trên toàn cầu, trong đó 75% nhắm vào CEO và lãnh đạo cấp cao... Deepfake có thể khiến tổn thất kinh tế toàn cầu tăng 32%, khoảng 40 tỷ USD/năm vào 2027.

Mới đây, Công ty AI Anthropic đã phát hiện và ngăn chặn chiến dịch tấn công mạng do tin tặc nước ngoài thực hiện, trong đó lần đầu tiên ghi nhận việc sử dụng AI để điều phối hoạt động tấn công tự động. Cụ thể, tin tặc đã sử dụng hệ thống AI để lập kế hoạch, chỉ đạo và triển khai các hoạt động xâm nhập - diễn biến “đáng lo ngại”, có nguy cơ mở rộng quy mô và tốc độ của các chiến dịch tấn công mạng…

Ông Ngô Minh Hiếu, Giám đốc Tổ chức Chống lừa đảo của Hiệp hội An ninh mạng Quốc gia, chia sẻ, công cụ tích hợp AI có tốc độ lừa đảo tăng khoảng 20 lần so với sử dụng người thật. Các đối tượng đưa kịch bản lừa đảo cho AI phân tích, ngay lập tức hệ thống này sẽ tự động trò chuyện (chat) với các nạn nhân. Từ dữ liệu ban đầu, AI có thể biết nạn nhân đang muốn gì và trò chuyện với nạn nhân theo thời gian thực. Thủ đoạn tinh vi nhất là tấn công “Man-in-the-Middle” (người đứng giữa), tức là khi người dùng thực hiện xác thực video như quay mặt, đọc lệnh, hacker sẽ đứng giữa để can thiệp dữ liệu truyền đi. Khi đó, tội phạm mạng chèn các video deepfake đã chuẩn bị sẵn, thay thế luồng dữ liệu thật của người dùng để vượt qua phần xác thực... Với cách làm trên, hệ thống bảo mật của ngân hàng, các tổ chức tài chính cũng có nguy cơ bị lừa.

Quản lý dữ liệu tốt hơn

Khi AI ngày càng phổ biến, rủi ro về bảo mật và quyền riêng tư cũng gia tăng đáng kể. Dữ liệu khi được lưu trữ và xử lý trên các máy chủ từ xa sẽ trở thành mục tiêu hấp dẫn của các hacker, tổ chức tội phạm mạng. Theo số liệu từ Hiệp hội An ninh mạng Quốc gia, chỉ trong quý 2-2025, số vụ tấn công mạng có sử dụng AI tăng tới 62%, gây thiệt hại toàn cầu lên tới 18 tỷ USD...

Các chuyên gia cho rằng bảo vệ dữ liệu là yếu tố sống còn. Tuy vậy, tình trạng thu thập và rao bán dữ liệu vẫn diễn ra công khai trên nhiều nền tảng “chợ đen”, chỉ với khoảng 20 USD/tháng. Tội phạm mạng có thể sử dụng những công cụ hoạt động tương tự các mô hình ngôn ngữ nhưng được tùy biến cho mục đích phạm tội. Các công cụ này có khả năng tạo mã độc, và thậm chí vượt qua những phần mềm diệt virus.

Tại Việt Nam, Nghị định số 13/2023/NĐ-CP (hiệu lực từ ngày 17-4-2023) quy định về bảo vệ dữ liệu cá nhân. Ngoài ra, Luật Bảo vệ dữ liệu cá nhân dự kiến có hiệu lực từ ngày 1-1-2026, mở ra cơ chế pháp lý mạnh mẽ hơn để ứng phó với nguy cơ rò rỉ và lạm dụng dữ liệu cá nhân. Dù vậy, theo Hiệp hội An ninh mạng Quốc gia, hiệu quả thực thi vẫn cần được củng cố trên cả ba trụ cột: nâng cao nhận thức của người dân, tăng trách nhiệm của doanh nghiệp, cải thiện năng lực xử lý của cơ quan quản lý. Ngoài các biện pháp kỹ thuật, mỗi người cần xây dựng khả năng nhận diện dấu hiệu bất thường, nghi vấn và chủ động tự bảo vệ trước các tương tác số nguy hiểm…

Hãng bảo mật Kaspersky đã cảnh báo về việc lợi dụng Dark AI (thuật ngữ chỉ việc triển khai mô hình ngôn ngữ lớn (LLM) hoạt động ngoài cơ chế kiểm soát tiêu chuẩn về an toàn, thường cho phép thực hiện những hành vi như lừa đảo, thao túng, tấn công mạng hoặc lạm dụng dữ liệu). Các tổ chức lẫn cá nhân cần chuẩn bị đối mặt với các cuộc tấn công mạng ngày càng tinh vi và khó phát hiện hơn bởi sự trỗi dậy của Dark AI tại khu vực Châu Á - Thái Bình Dương.

Ông Sergey Lozhkin, Trưởng nhóm Nghiên cứu và Phân tích toàn cầu (GReAT) phụ trách khu vực Trung Đông, Thổ Nhĩ Kỳ, châu Phi và châu Á - Thái Bình Dương của Kaspersky, chia sẻ, một trong những biểu hiện của việc lạm dụng AI hiện nay là sự xuất hiện của các mô hình Black Hat GPT. Đây là những mô hình AI được phát triển hoặc điều chỉnh đặc biệt để phục vụ các mục đích phi đạo đức, bất hợp pháp như tạo mã độc, soạn thảo email lừa đảo trôi chảy và có sức thuyết phục cao nhằm phục vụ các cuộc tấn công quy mô lớn, tạo giọng nói và các video deepfake, thậm chí hỗ trợ hoạt động tấn công mô phỏng...

Chuyên gia Kaspersky khuyến nghị các cá nhân, doanh nghiệp cần sử dụng các giải pháp bảo mật thế hệ mới để phát hiện mã độc do AI tạo ra, đồng thời xác định bảo quản dữ liệu là mục tiêu quan trọng. Với doanh nghiệp, cần ứng dụng công cụ theo dõi thời gian thực nhằm giám sát các hành vi khai thác lỗ hổng do AI điều khiển; tăng cường kiểm soát truy cập và đào tạo nhân viên nhằm hạn chế hiện tượng AI trong vùng tối cũng như nguy cơ rò rỉ dữ liệu; thiết lập trung tâm điều hành an ninh mạng để theo dõi mối đe dọa và ứng phó nhanh chóng trước các sự cố...

Nguồn: https://www.sggp.org.vn/bao-mat-du-lieu-thoi-ai-post824210.html


Bình luận (0)

No data
No data

Cùng chủ đề

Cùng chuyên mục

Điều đặc biệt ở hòn đảo sát đường biên giới trên biển với Trung Quốc
Hà Nội xao xuyến mùa hoa 'gọi đông' về phố
Ngỡ ngàng cảnh sắc đẹp như tranh thủy mặc ở Bến En
Ngắm trang phục dân tộc của 80 người đẹp thi Hoa hậu Quốc tế 2025 tại Nhật Bản

Cùng tác giả

Di sản

Nhân vật

Doanh nghiệp

75 năm hữu nghị Việt – Trung: Nhà ở cũ của ông Từ Vĩ Tam tại đường Ba Mông, Tĩnh Tây, Quảng Tây

Thời sự

Hệ thống Chính trị

Địa phương

Sản phẩm