Mối lo ngại gia tăng khi deepfake ngày càng tinh vi và khó phát hiện
Khi những hình ảnh, âm thanh và video deepfake được tạo ra ngày càng tinh vi và khó phát hiện, nhiều chuyên gia đã xếp hạng deepfake là một trong những mối đe dọa tội phạm trí tuệ nhân tạo (AI) nghiêm trọng nhất.
Deepfake là một kỹ thuật kết hợp giữa các thuật toán học sâu (deep learning) và học máy (machine learning) với mục đích tạo ra những video, hình ảnh hoặc âm thanh giả mạo một cách chân thực, nhằm gây hiểu nhầm cho người xem.
Ban đầu, deepfake được sử dụng để tạo ra các video giải trí như đổi mặt các diễn viên nổi tiếng vào vai diễn khác nhau, hoặc thay đổi giọng nói để tạo ra những video mang tính giải trí. Tuy nhiên, với sự phát triển ngày càng nhanh chóng của công nghệ AI, thì những ứng dụng deepfake lại càng giúp cho người dùng dễ dàng tiếp cận hơn.
Chính vì điều này, việc công nghệ deepfake ngày càng được sử dụng phổ biến cũng đem đến những hậu quả đáng lo ngại. Đặc biệt, nếu công nghệ AI bị lợi dụng bất chính, deepfake có thể trở thành một vũ khí nguy hiểm trong tay những kẻ xấu.
Gần đây, một bức ảnh do AI tạo ra dường như cho thấy một vụ nổ bên cạnh một tòa nhà trong khu phức hợp Lầu Năm Góc đã lan truyền trên mạng xã hội. Sự cố này một lần nữa làm nổi bật những lo ngại về thông tin sai lệch do AI tạo ra.
Cụ thể, theo Bloomberg, ngày 22/5, một người dùng Facebook đã loan tin một vụ nổ xảy ra gần Lầu Năm Góc với một bức ảnh chụp đám khói lớn bốc lên. Bức ảnh này sau đó được liên tiếp đăng lại và chia sẻ nhanh chóng trên các tài khoản Twitter, đã dẫn đến sự sụt giảm của thị trường chứng khoán Mỹ trong một thời gian ngắn. Đây có lẽ là ví dụ đầu tiên về bức ảnh do AI tạo ra đã tác động đến thị trường.
Hình ảnh deepfake Lầu Năm Góc chỉ là một trong nhiều ví dụ mà công nghệ này đang thao túng người dùng. Mối lo ngại ngày càng lớn khi việc phát hiện deepfake ngày càng khó khăn và khả năng gian lận và lừa đảo mà chúng có thể tạo ra cũng ngày càng tinh vi.
Chẳng hạn, tội phạm mạng có thể dùng công nghệ deepfake tạo ra những tệp (file) âm thanh, bức ảnh và video giả mạo một cách tinh vi để đánh lừa các cá nhân thực hiện chuyển tiền hoặc tiết lộ thông tin nhạy cảm.
Bên cạnh đó, là những lo ngại về cách deepfake vi phạm quyền riêng tư bằng cách sử dụng hình ảnh và video của các cá nhân mà không có sự đồng ý của họ. Khi nhiều người chia sẻ hình ảnh và video cá nhân trên mạng xã hội, hồ sơ của họ có thể được sử dụng để tạo nội dung nhạy cảm hoặc những nội dung có thể gây tổn hại đến danh tiếng, uy tín, các mối quan hệ hoặc cuộc sống cá nhân.
Rõ ràng, khi công nghệ AI ngày càng phát triển, việc phân biệt giữa nội dung deepfake và nội dung xác thực ngày càng trở nên khó khăn, điều này có thể làm suy yếu niềm tin của công chúng vào tính xác thực của thông tin.
Theo Nghiên cứu định danh trực tuyến năm 2023 của Jumio, một cuộc khảo sát được thực hiện trên 8.055 người tiêu dùng trưởng thành ở các quốc gia Anh, Mỹ, Singapore và Mexico cho thấy nhận thức về AI tạo sinh và deepfake của người tiêu dùng rất cao với 52% số người được hỏi tin rằng họ có thể phát hiện ra một video deepfake.
“Có vẻ như nhiều người nghĩ rằng họ có thể phát hiện ra một sản phẩm deepfake dễ dàng. Mặc dù có một số dấu hiệu nhận biết nhất định, nhưng kỹ thuật deepfake đang ngày càng hoàn thiện và tinh vi hơn theo cấp số nhân và ngày càng trở nên khó phát hiện nếu không có sự trợ giúp của AI", Stuart Wells, Giám đốc công nghệ của Jumio cho biết.
Tâm lý này phản ánh sự tự tin thái quá của một bộ phận người tiêu dùng, với thực tế là deepfake đã đạt đến mức độ tinh vi khiến mắt thường khó có thể phát hiện được.
Hơn 67% người được hỏi cho biết họ biết về các công cụ AI tạo sinh - chẳng hạn như ChatGPT, DALL-E và Lensa AI - có thể tạo ra nội dung bịa đặt, bao gồm video, hình ảnh và âm thanh. Người tiêu dùng ở Singapore có nhận thức cao nhất với 87% và thấp nhất là ở Anh với 56%.
Mặc dù công nghệ AI đang được nhiều doanh nghiệp (DN) sử dụng để phát hiện và bảo vệ hệ thống mạng cũng như khách hàng của họ khỏi các vụ tấn công deepfake, nhưng Giám đốc công nghệ của Jumio cho rằng, người dùng cũng có thể tự bảo vệ mình bằng cách luôn thận trọng xem xét những hình ảnh, video và âm thanh mang tính chất khiêu khích với thái độ hoài nghi.
Deepfake đang thúc đẩy hành vi trộm cắp danh tính
Trộm cắp danh tính có thể dẫn đến các vấn đề lớn hơn cho các tổ chức. Các công ty không chỉ có thể mất tiền mà tội phạm mạng còn có thể sử dụng deepfake trên các danh tính bị đánh cắp để khởi động các chiến dịch bôi nhọ hoặc đưa ra các tuyên bố hủy hoại danh tiếng của công ty hay một người nổi tiếng nào đó.
Trên thực tế, cuộc khảo sát của Jumio chỉ ra rằng khi người tiêu dùng nhận thức rõ hơn về deepfake, thì họ cũng hiểu rõ hơn về cách chúng có thể được sử dụng để thúc đẩy hành vi trộm cắp danh tính. Chẳng hạn như, 73% người tiêu dùng ở Singapore tin rằng hành vi trộm cắp danh tính sẽ là một vấn đề lớn so với chỉ 42% người tiêu dùng ở Anh.
Bất chấp những lo ngại về hành vi trộm cắp danh tính và deepfake, cuộc khảo sát cũng cho thấy 68% người tiêu dùng sẵn sàng sử dụng danh tính kỹ thuật số để xác minh trực tuyến. Các lĩnh vực hàng đầu mà họ muốn nhận dạng kỹ thuật số hơn ID vật lý (như bằng lái xe hoặc hộ chiếu) là dịch vụ tài chính (43%), chính phủ (38%) và chăm sóc sức khỏe (35%).
Theo Philipp Pointner, Giám đốc định danh kỹ thuật số của Jumio, các tổ chức có nhiệm vụ nâng cao nhận thức cho khách hàng của mình về các tác động cũng như sự đa dạng của ứng dụng công nghệ AI tạo sinh để giúp họ có suy nghĩ thực tế hơn về khả năng phát hiện deepfake.
“Ngay cả nền giáo dục tốt nhất cũng sẽ không bao giờ có thể ngăn chặn hoàn toàn việc kẻ lừa đảo sử dụng các công nghệ đang phát triển. Các tổ chức trực tuyến phải tìm cách triển khai các hệ thống xác minh đa phương thức, dựa trên sinh trắc học có thể phát hiện các hoạt động deepfake và ngăn chặn việc sử dụng thông tin cá nhân bị đánh cắp. Thật đáng mừng, nghiên cứu của chúng tôi cũng chỉ ra rằng người tiêu dùng rất muốn sử dụng hình thức xác minh danh tính này, do đó các DN nên hành động nhanh chóng”, Pointner nói thêm.
Với việc các công ty công nghệ đang đầu tư phát triển nhiều hơn cho những công cụ AI tạo sinh, deepfake sẽ tiếp tục trở nên nguy hiểm và khó phát hiện hơn. Các tổ chức sẽ cần thực hiện một cách tiếp cận đa diện, bao gồm các tiến bộ công nghệ, chính sách và khung pháp lý, hiểu biết về phương tiện truyền thông và nhận thức cộng đồng để giải quyết vấn đề.
Mặc dù các công cụ phát hiện và chống lại deepfake đang phát triển, nhưng có thể sẽ mất một thời gian trước khi vấn đề này được giải quyết. Cho đến lúc đó, người tiêu dùng và DN sẽ cần phải cảnh giác, đặc biệt là trong việc xác minh tính xác thực của nội dung truyền thông mà họ gặp phải./.