Việc phát triển công nghệ thông tin, đặc biệt là trí tuệ nhân tạo AI đã mang lại nhiều tiện ích cho cuộc sống con người. Tuy nhiên, đồng thời cũng tạo ra những rủi ro mới. Một trong những rủi ro này là cuộc gọi lừa đả, được tạo ra bởi công nghệ trí tuệ nhân tạo AI. Nó ngày càng phổ biến và đe dọa sự an toàn và riêng tư của mọi người.
Một ví dụ về cuộc gọi lừa đảo Deepfake đã xảy ra với anh V. ở tỉnh Đắk Nông. Một người đàn ông mặc sắc phục công an đã yêu cầu anh ta nhìn thẳng vào camera, sau đó nhìn sang trái thông qua cuộc gọi video call của…
Việc tăng trưởng công nghệ thông tin, đặc biệt là trí tuệ nhân tạo AI đã mang lại nhiều tiện ích cho cuộc sống con người. Tuy nhiên, đồng thời cũng tạo ra những rủi ro mới. Một trong những rủi ro này là cuộc gọi lừa đả, được tạo ra bởi công nghệ trí tuệ nhân tạo AI. Nó càng ngày phổ biến và đe dọa sự an toàn và riêng tư của mọi người.
Một ví dụ về cuộc gọi lừa đảo Deepfake đã xảy ra với anh V. ở tỉnh Đắk Nông. Một người đàn ông mặc sắc phục công an đã yêu cầu anh ta nhìn thẳng vào camera, sau đó nhìn sang trái thông qua cuộc gọi video call của ứng dụng mạng xã hội Zalo. Khi anh V. hỏi: “Ủa, làm như vậy để làm gì?”, người đàn ông bên kia dây giải thích rằng: “Tôi xin lấy một số hình ảnh của anh để tôi chiết xuất camera ở bên phía trung tâm truyền thông.”
Rủi ro của Deepfake là có khi tạo ra những video giả mạo hoặc âm thanh, trong đó người ta sử dụng công nghệ để tạo ra hình ảnh và âm thanh giống như người khác. Điều này có khi dẫn đến các hậu quả nguy hiểm, bao gồm lừa đảo, xâm phạm quyền riêng tư, hoặc thậm chí gây ra hành vi phạm tội. Do đó, cần thận trọng khi nhận cuộc gọi không rõ nguồn gốc hoặc yêu cầu kỳ lạ từ những người không quen biết.Trong một video clip được chia sẻ trên kênh Tiktok cá nhân vào ngày 5/10 vừa qua, anh V. đã trích xuất nội dung sau đó lôi cuốn hơn 4,3 triệu lượt xem. Anh cho biết rằng đây là một công an giả mạo và đang thực hiện hành vi lừa đảo bằng cách sử dụng phương pháp Deepfake để mô phỏng giọng nói của mình. Bằng cách quay lại đoạn clip, anh đã chia sẻ trên mạng xã hội để cảnh báo mọi người.
Điều này cho thấy tình trạng lừa đảo bằng phương pháp Deepfake đang diễn ra rất phổ biến ở Việt Nam. Thủ đoạn này nhằm mục đích lấy thông tin khuôn mặt của nạn nhân để lừa đảo và đánh cắp dữ liệu tài khoản nhà băng hoặc ví điện tử online. Sau khi tài khoản được kích hoạt, các đối tượng sẽ tiếp tục sử dụng để lừa đảo và có khi gây ra tổn thất nghiêm trọng cho người bị hại.
Ngoài việc mạo danh công an để lừa đảo, các đối tượng còn sử dụng phương pháp Deepfake để mạo danh các người nổi danh như MC, ca sĩ, diễn viên và lan truyền các tin tức giả trên mạng. Nhiều trường hợp khác cũng đã xảy ra, khi các kẻ lừa đảo sử dụng phương pháp này để mạo danh người thân, bạn bè hoặc đồng nghiệp và yêu cầu chuyển tiền.
Deepfake là một phương pháp tạo ra các video giả mạo bằng cách sử dụng trí tuệ nhân tạo, giúp cho người mua hàng có khi tạo ra các đoạn video “chân thật” với những hình ảnh được chỉnh sửa và âm thanh được cải thiện. Tuy nhiên, phương pháp này đang được sử dụng để gây ra nhiều rủi ro và đe dọa cho cuộc sống hàng ngày của mọi người.Vào năm 2017, công nghệ Deepfake đã xuất hiện và trở nên một trong những mối đe dọa lớn nhất đối với an ninh mạng và cuộc sống cá nhân của con người. Thuật ngữ “Deepfake” là sự phối hợp giữa hai từ “deep learning” (học sâu) và “fake” (giả). Học sâu là một phương pháp máy học cho phép máy tính học thông qua việc phân tích và suy luận từ các tập dữ liệu lớn, còn “fake” có nghĩa là giả mạo hoặc làm giả. Mục đích của Deepfake là để tạo ra những video, hình ảnh hoặc âm thanh giả mạo bằng cách ghép đầu, ghép khuôn mặt, giọng nói của người này lên người khác một cách rất chân thực và khó phát hiện.
Ban đầu, Deepfake được sinh ra để phục vụ mục đích tiêu khiển. Tuy nhiên, trong thời gian gần đây, các tội phạm đã lợi dụng công nghệ này để tạo ra các video giả mạo người khác, giúp họ thực hiện các vụ lừa đảo hoặc lan truyền tin giả, tin thất thiệt trên mạng.
Tác động xấu của cuộc gọi lừa đảo Deepfake là rất nghiêm trọng. Nó không chỉ thúc đẩy đến sự trung thực và tin cậy của video và hình ảnh, mà còn có khi được sử dụng để tấn công chính trị, tạo ra những tin tức giả mạo hoặc phá hoại danh tiếng của người khác. Việc sử dụng công nghệ này để tạo ra các video giả mạo có khi gây ra những tổn hại về mặt tài chính, danh dự và an ninh cho những người bị nhắm đến. Do đó, việc kiểm soát và ngăn chặn sự lợi dụng của Deepfake là rất quan trọng để bảo vệ thông tin cá nhân và sự an toàn của các cá nhân trên mạng.Deepfake là một công nghệ giả mạo video và hình ảnh càng ngày trở nên phổ biến và đang gây ra nhiều vấn đề trong xã hội. Nó có khi được sử dụng để tạo ra các video khiêu dâm hoặc giả mạo người nổi danh, gây tổn hại đến danh dự và cuộc sống cá nhân của họ. Điều này cũng có khi thúc đẩy tiêu cực đến an ninh và trật tự xã hội. Những kẻ xấu có khi sử dụng Deepfake để lừa đảo và gây rối loạn cho môi trường truyền thông bằng cách lan truyền thông tin giả mạo.
Để nhận biết các video Deepfake, cần phải có kiến thức chuyên môn trong lĩnh vực công nghệ và kinh nghiệm sử dụng mạng xã hội. Tuy nhiên, đối với những người có ít kinh nghiệm về công nghệ và mạng xã hội, đây có khi là vấn đề khó khăn. Trong quá trình xác minh thông tin, cần phải đánh giá và kiểm tra nguồn tin để phân biệt thông tin thật và giả mạo và đảm bảo tính chính xác của thông tin.
Chúng ta cần có những biện pháp an ninh mạng và pháp luật chặt chẽ để ngăn chặn sự lạm dụng công nghệ Deepfake. Đồng thời, việc tăng cường giáo dục và tăng cao nhận thức của công chúng về vấn đề này cũng rất quan trọng, giúp mọi người có khi phát hiện và ngăn chặn được các cuộc tấn công thông tin bất hợp pháp.Theo thông tin từ Bộ Thông tin và Truyền thông, để nhận diện được cuộc gọi lừa đảo Deepfake, người ta có khi phát hiện một số dấu hiệu như: Thời lượng của cuộc gọi thường rất ngắn, chỉ trong vài giây. Những khuôn mặt của người gọi thường thiếu xúc cảm và khá trơ khi nói hoặc tư thế của họ trông lúng túng, không organic. Hơn nữa, hình ảnh và vị trí của cơ thể của họ trong video cũng không nhất quán với nhau. Ngoài ra, màu da của các nhân vật trong video cũng có khi bất thường, ánh sáng kỳ lạ và bóng đổ không đúng vị trí. Tất cả những điều này sẽ làm cho video trông giả tạo và không organic hơn; âm thanh cũng sẽ không đồng nhất với hình ảnh, có khi bị nhiễu bởi những tiếng ồn hoặc clip không có âm thanh.
Ngoài ra, khi yêu cầu nạn nhân chuyển tiền, số tài khoản thường không phải là tên của người bị giả mạo. Điều này thường xảy ra trong các vụ lừa đảo chuyển tiền bây giờ. Vì vậy, người dân cần nhớ rằng khi các cơ quan chức năng, đặc biệt là Công an, làm việc, xác minh hoặc điều tra với các cá nhân, tổ chức hoặc doanh nghiệp thì sẽ có cán bộ đến làm việc trực tiếp hoặc gửi tài liệu chính thức qua địa chỉ xí nghiệp, thân nhân gia đình và người mà cơ quan công an muốn làm việc. Chú ý rằng không thể làm việc thông qua điện thoại hoặc mạng xã hội.
Để đối phó với cuộc gọi lừa đảo Deepfake, người ta có khi áp dụng một số biện pháp như: Tăng cường kiểm soát và quản lý các video trên internet; đào tạo nhân viên về cách phát hiện các video giả mạo hoặc cuộc gọi lừa đảo; và sử dụng công nghệ để phát hiện những định dạng video giả mạo. Điều này sẽ giúp hạn chế nguy cơ bị lừa đảo và bảo vệ được an toàn cho người dân.Trong trường hợp sử dụng Deepfake nhằm lừa đảo chiếm đoạt tài sản, theo quy định của pháp luật hiện hành, mức độ và tác động của hành vi sẽ được xét đến để xử lý. Người vi phạm có khi bị xử phạt hành chính hoặc truy cứu trách nhiệm hình sự với tội danh lừa đảo chiếm đoạt tài sản theo Điều 174 của Bộ luật Hình sự bây giờ, với khung hình phạt cao nhất là tù chung thân. Tuy nhiên, đối với các hành vi lừa đảo chiếm đoạt tài sản qua không gian mạng phối hợp với Deepfake, rất cần thiết để ban hành các quy định mới với các hình phạt nghiêm minh và chi tiết dành riêng cho loại tội phạm này.
Khoa học công nghệ càng ngày tăng trưởng và chuyển biến liên tục. Để đối phó với tội phạm lừa đảo trực tuyến, đòi hỏi một cuộc chiến kéo dài, đầy gian nan và khó khăn. Cuộc chiến này yêu cầu sự đóng góp của tất cả các quốc gia, bao gồm cả Việt Nam, và sự hợp tác chặt chẽ giữa toàn thể người dân và doanh nghiệp, đặc biệt là những doanh nghiệp liên quan đến công nghệ.