Việc phát triển công nghệ thông tin, đặc biệt là trí tuệ nhân tạo AI đã mang lại nhiều tiện ích cho cuộc sống con người. Tuy nhiên, đồng thời cũng tạo ra những rủi ro mới. Một trong những rủi ro này là cuộc gọi lừa đả, được tạo ra bởi công nghệ trí tuệ nhân tạo AI. Nó ngày càng phổ biến và đe dọa sự an toàn và riêng tư của mọi người.
Một ví dụ về cuộc gọi lừa đảo Deepfake đã xảy ra với anh V. ở tỉnh Đắk Nông. Một người đàn ông mặc sắc phục công an đã yêu cầu anh ta nhìn thẳng vào camera, sau đó nhìn sang trái thông qua cuộc gọi video call của ứng dụng mạng xã hội Zalo. Khi anh V. hỏi: “Ủa, làm như vậy để làm gì?”, người đàn ông bên kia dây giải thích rằng: “Tôi xin lấy một số hình ảnh của anh để tôi chiết xuất camera ở bên phía trung tâm truyền thông.”
Rủi ro của Deepfake là có thể tạo ra những video giả mạo hoặc âm thanh, trong đó người ta sử dụng công nghệ để tạo ra hình ảnh và âm thanh giống như người khác. Điều này có thể dẫn đến các hậu quả nguy hiểm, bao gồm lừa đảo, xâm phạm quyền riêng tư, hoặc thậm chí gây ra hành vi phạm tội. Do đó, cần thận trọng khi nhận cuộc gọi không rõ nguồn gốc hoặc yêu cầu kỳ lạ từ những người không quen biết.Trong một video clip được chia sẻ trên kênh Tiktok cá nhân vào ngày 5/10 vừa qua, anh V. đã trích xuất nội dung sau đó thu hút hơn 4,3 triệu lượt xem. Anh cho biết rằng đây là một công an giả mạo và đang thực hiện hành vi lừa đảo bằng cách sử dụng phương pháp Deepfake để mô phỏng giọng nói của mình. Bằng cách quay lại đoạn clip, anh đã chia sẻ trên mạng xã hội để cảnh báo mọi người.
Điều này cho thấy tình trạng lừa đảo bằng phương pháp Deepfake đang diễn ra rất phổ biến ở Việt Nam. Thủ đoạn này nhằm mục đích lấy thông tin khuôn mặt của nạn nhân để lừa đảo và đánh cắp dữ liệu tài khoản ngân hàng hoặc ví điện tử online. Sau khi tài khoản được kích hoạt, các đối tượng sẽ tiếp tục sử dụng để lừa đảo và có thể gây ra thiệt hại nghiêm trọng cho người bị hại.
Ngoài việc mạo danh công an để lừa đảo, các đối tượng còn sử dụng phương pháp Deepfake để mạo danh các người nổi tiếng như MC, ca sĩ, diễn viên và lan truyền các tin tức giả trên mạng. Nhiều trường hợp khác cũng đã xảy ra, khi các kẻ lừa đảo sử dụng phương pháp này để mạo danh người thân, bạn bè hoặc đồng nghiệp và yêu cầu chuyển tiền.
Deepfake là một phương pháp tạo ra các video giả mạo bằng cách sử dụng trí tuệ nhân tạo, giúp cho người dùng có thể tạo ra các đoạn video “chân thật” với những hình ảnh được chỉnh sửa và âm thanh được cải thiện. Tuy nhiên, phương pháp này đang được sử dụng để gây ra nhiều rủi ro và đe dọa cho cuộc sống hàng ngày của mọi người.Vào năm 2017, công nghệ Deepfake đã xuất hiện và trở thành một trong những mối đe dọa lớn nhất đối với an ninh mạng và cuộc sống cá nhân của con người. Thuật ngữ “Deepfake” là sự kết hợp giữa hai từ “deep learning” (học sâu) và “fake” (giả). Học sâu là một phương pháp máy học cho phép máy tính học thông qua việc phân tích và suy luận từ các tập dữ liệu lớn, còn “fake” có nghĩa là giả mạo hoặc làm giả. Mục đích của Deepfake là để tạo ra những video, hình ảnh hoặc âm thanh giả mạo bằng cách ghép đầu, ghép khuôn mặt, giọng nói của người này lên người khác một cách rất chân thực và khó phát hiện.
Ban đầu, Deepfake được sinh ra để phục vụ mục đích giải trí. Tuy nhiên, trong thời gian gần đây, các tội phạm đã lợi dụng công nghệ này để tạo ra các video giả mạo người khác, giúp họ thực hiện các vụ lừa đảo hoặc lan truyền tin giả, tin thất thiệt trên mạng.
Tác động xấu của cuộc gọi lừa đảo Deepfake là rất nghiêm trọng. Nó không chỉ ảnh hưởng đến sự trung thực và tin cậy của video và hình ảnh, mà còn có thể được sử dụng để tấn công chính trị, tạo ra những tin tức giả mạo hoặc phá hoại danh tiếng của người khác. Việc sử dụng công nghệ này để tạo ra các video giả mạo có thể gây ra những tổn hại về mặt tài chính, danh dự và an ninh cho những người bị nhắm đến. Do đó, việc kiểm soát và ngăn chặn sự lợi dụng của Deepfake là rất quan trọng để bảo vệ thông tin cá nhân và sự an toàn của các cá nhân trên mạng.Deepfake là một công nghệ giả mạo video và hình ảnh ngày càng trở nên phổ biến và đang gây ra nhiều vấn đề trong xã hội. Nó có thể được sử dụng để tạo ra các video khiêu dâm hoặc giả mạo người nổi tiếng, gây tổn hại đến danh dự và cuộc sống cá nhân của họ. Điều này cũng có thể ảnh hưởng tiêu cực đến an ninh và trật tự xã hội. Những kẻ xấu có thể sử dụng Deepfake để lừa đảo và gây rối loạn cho môi trường truyền thông bằng cách lan truyền thông tin giả mạo.
Để nhận biết các video Deepfake, cần phải có kiến thức chuyên môn trong lĩnh vực công nghệ và kinh nghiệm sử dụng mạng xã hội. Tuy nhiên, đối với những người có ít kinh nghiệm về công nghệ và mạng xã hội, đây có thể là vấn đề khó khăn. Trong quá trình xác minh thông tin, cần phải đánh giá và kiểm tra nguồn tin để phân biệt thông tin thật và giả mạo và đảm bảo tính chính xác của thông tin.
Chúng ta cần có những biện pháp an ninh mạng và pháp luật chặt chẽ để ngăn chặn sự lạm dụng công nghệ Deepfake. Đồng thời, việc tăng cường giáo dục và nâng cao nhận thức của công chúng về vấn đề này cũng rất quan trọng, giúp mọi người có thể phát hiện và ngăn chặn được các cuộc tấn công thông tin bất hợp pháp.Theo thông tin từ Bộ Thông tin và Truyền thông, để nhận diện được cuộc gọi lừa đảo Deepfake, người ta có thể phát hiện một số dấu hiệu như: Thời lượng của cuộc gọi thường rất ngắn, chỉ trong vài giây. Những khuôn mặt của người gọi thường thiếu cảm xúc và khá trơ khi nói hoặc tư thế của họ trông lúng túng, không tự nhiên. Hơn nữa, hình ảnh và vị trí của cơ thể của họ trong video cũng không nhất quán với nhau. Ngoài ra, màu da của các nhân vật trong video cũng có thể bất thường, ánh sáng kỳ lạ và bóng đổ không đúng vị trí. Tất cả những điều này sẽ làm cho video trông giả tạo và không tự nhiên hơn; âm thanh cũng sẽ không đồng nhất với hình ảnh, có thể bị nhiễu bởi những tiếng ồn hoặc clip không có âm thanh.
Ngoài ra, khi yêu cầu nạn nhân chuyển tiền, số tài khoản thường không phải là tên của người bị giả mạo. Điều này thường xảy ra trong các vụ lừa đảo chuyển tiền hiện nay. Vì vậy, người dân cần nhớ rằng khi các cơ quan chức năng, đặc biệt là Công an, làm việc, xác minh hoặc điều tra với các cá nhân, tổ chức hoặc doanh nghiệp thì sẽ có cán bộ đến làm việc trực tiếp hoặc gửi tài liệu chính thức qua địa chỉ công ty, thân nhân gia đình và người mà cơ quan công an muốn làm việc. Chú ý rằng không thể làm việc thông qua điện thoại hoặc mạng xã hội.
Để đối phó với cuộc gọi lừa đảo Deepfake, người ta có thể áp dụng một số giải pháp như: Tăng cường kiểm soát và quản lý các video trên internet; đào tạo nhân viên về cách phát hiện các video giả mạo hoặc cuộc gọi lừa đảo; và sử dụng công nghệ để phát hiện những định dạng video giả mạo. Điều này sẽ giúp giảm thiểu nguy cơ bị lừa đảo và bảo vệ được an toàn cho người dân.Trong trường hợp sử dụng Deepfake nhằm lừa đảo chiếm đoạt tài sản, theo quy định của pháp luật hiện hành, mức độ và tác động của hành vi sẽ được xét đến để xử lý. Người vi phạm có thể bị xử phạt hành chính hoặc truy cứu trách nhiệm hình sự với tội danh lừa đảo chiếm đoạt tài sản theo Điều 174 của Bộ luật Hình sự hiện nay, với khung hình phạt cao nhất là tù chung thân. Tuy nhiên, đối với các hành vi lừa đảo chiếm đoạt tài sản qua không gian mạng kết hợp với Deepfake, rất cần thiết để ban hành các quy định mới với các hình phạt nghiêm minh và cụ thể dành riêng cho loại tội phạm này.
Khoa học công nghệ ngày càng phát triển và chuyển biến liên tục. Để đối phó với tội phạm lừa đảo trực tuyến, đòi hỏi một cuộc chiến kéo dài, đầy gian nan và khó khăn. Cuộc chiến này yêu cầu sự đóng góp của tất cả các quốc gia, bao gồm cả Việt Nam, và sự hợp tác chặt chẽ giữa toàn thể người dân và doanh nghiệp, đặc biệt là những doanh nghiệp liên quan đến công nghệ.
Thông tin đăng tải trên trang chủ được chia sẻ từ đối tác SEO, dịch vụ Guest Post và được tham khảo thêm thông tin chung tìm kiếm thông qua https://google.com.vn cùng https://vi.wikipedia.org
Tuyên bố miễn trừ trách nhiệm: Thông tin được cung cấp chỉ mang tính chất thông tin chung, https://daohanvisa24h.com không đưa ra bất kỳ tuyên bố hoặc bảo đảm nào liên quan đến thông tin, bao gồm nhưng không giới hạn bất kỳ sự tuyên bố hoặc bảo đảm về tính thích hợp cho bất kỳ mục đích cụ thể nào của thông tin theo phạm vi cho phép tối đa của pháp luật. Mặc dù đã nỗ lực để đảm bảo rằng thông tin được cung cấp trong bài viết này là chính xác, đáng tin cậy và hoàn chỉnh vào thời điểm đăng tải, nhưng thông tin được cung cấp trong bài viết này không nên được dựa vào để đưa ra bất kỳ quyết định tài chính, đầu tư, bất động sản, giao dịch hoặc pháp lý nào. Thêm vào đó, thông tin không thể thay thế lời khuyên từ một chuyên gia được đào tạo, người mà có thể xem xét, đánh giá các sự kiện và hoàn cảnh cá nhân của bạn, và chúng tôi không chịu bất kỳ trách nhiệm nào nếu bạn sử dụng những thông tin này để đưa ra quyết định. Xin cảm ơn!