wordpro.blog

Deepfake Scams Are Spreading Across Southeast Asia

May 24, 2025

Deepfake Scams Are Spreading Across Southeast Asia
As technology advances at lightning speed, it brings undeniable convenience but also a dark side that is becoming increasingly difficult to ignore. One of the most alarming dangers today is the rise of deepfake scams, where artificial intelligence creates fake but convincing faces and voices to trick people. These scams, often carried out via video or voice calls, are spreading rapidly across Southeast Asia and have become a growing threat in the region.
Deepfake technology uses AI to mimic human features with uncanny accuracy. With just a short video or audio sample, AI can replicate a person’s voice, facial expressions, and gestures. The result is a near-perfect impersonation that can easily fool anyone into believing they’re interacting with someone they know. Scammers are exploiting this technology to impersonate family members, business partners, or even company executives during calls, convincing victims to send money or reveal sensitive information. Many have fallen victim, believing they were helping someone they trusted. In some cases, companies have been tricked into transferring hundreds of thousands of dollars based on a fake video call that appeared to come from a senior manager.
In Singapore, a tech company reported a shocking incident in March 2024, where an accountant received a video call from someone who looked and sounded exactly like the company’s CEO. The caller asked for an urgent transfer of nearly half a million dollars for a supposed international project. It was only later discovered that the entire call had been a deepfake, with every detail — from voice to facial expressions — generated by AI. In Thailand, similar scams have emerged where deepfake videos of police officers or government officials are used to intimidate victims. Many of the targets are elderly or people unfamiliar with technology, making them more susceptible to panic and manipulation. Vietnam, too, has witnessed a growing number of deepfake-related scams. The Ministry of Public Security has issued warnings, highlighting how scammers are using AI to pose as relatives or leaders to swindle victims out of their money.
Southeast Asia has become a prime target for these crimes. The region is home to a young and highly connected population that relies heavily on smartphones, social media, and messaging apps. Video and voice calls are a daily part of life, creating a perfect environment for deepfake scams to thrive. However, public awareness about the risks remains limited. Many people are still unfamiliar with deepfake technology and are easily convinced when they see or hear something that appears genuine. Legal protections and cybersecurity frameworks are still catching up. Many countries in the region are only beginning to develop the tools needed to combat cross-border cybercrimes, and it remains difficult to trace or prosecute scammers who often operate from outside national borders using technology to conceal their identities.
Governments are now stepping up efforts to fight this wave of fraud. Singapore has set up dedicated teams to investigate and monitor high-tech scams. In Thailand and Malaysia, media campaigns are being launched to educate the public and raise awareness. Vietnam’s authorities regularly issue warnings and urge people not to share personal information over the phone or transfer money unless the request has been properly verified. The Ministry of Information and Communications is exploring the use of AI tools to detect and filter out deepfake content before it spreads.
Ultimately, the best defense is caution. People need to be more vigilant, especially when receiving unexpected requests involving money. When in doubt, the safest response is to double-check with the person directly through a trusted contact or ask a question only the real person could answer. Being aware of these scams and understanding how deepfakes work can go a long way in preventing financial loss and emotional damage.
Deepfake scams don’t just empty bank accounts. They erode trust in digital communication, something that has become essential in modern life. In a region where digital transformation is moving fast but security systems still lag behind, personal awareness is often the last and most important line of defense. Technology, no matter how advanced, is only safe when used responsibly. As the line between real and fake continues to blur, staying informed and cautious is no longer optional — it’s a necessity.

f10adf57 1e09 414a af35 2d76d7311411
A new scam is sweeping Southeast Asia, where cybercriminals are using deepfake technology to impersonate company executives and trick employees into transferring large sums of money.

Lừa đảo bằng deepfake qua cuộc gọi

Đang lan rộng Đông Nam Á

Thế giới công nghệ đang phát triển với tốc độ chóng mặt, mang lại nhiều tiện ích cho cuộc sống. Tuy nhiên, mặt trái của nó cũng ngày càng nguy hiểm, đặc biệt là khi công nghệ deepfake (giả giọng, giả mặt người qua AI) đang bị các đối tượng lừa đảo lợi dụng một cách tinh vi để thực hiện những vụ chiếm đoạt tài sản qua các cuộc gọi video hoặc thoại.
Tại Đông Nam Á, hình thức lừa đảo này đang bùng phát mạnh mẽ, trở thành nỗi lo chung của nhiều quốc gia.
Deepfake – “vũ khí” lừa đảo
Deepfake là công nghệ sử dụng trí tuệ nhân tạo (AI) để tạo ra hình ảnh hoặc âm thanh giả mạo nhưng giống thật đến mức khó phân biệt. Với một đoạn video ngắn hoặc mẫu giọng nói ghi âm sẵn, AI có thể tạo ra một bản sao gần như hoàn hảo của một người – từ giọng nói, biểu cảm khuôn mặt đến cử chỉ tay. Những nội dung này sau đó được sử dụng để lừa đảo qua các cuộc gọi video hoặc tin nhắn thoại.
Tại Đông Nam Á, một số nạn nhân đã bị lừa chuyển tiền chỉ vì tin rằng họ đang nói chuyện với người thân, cấp trên hoặc đối tác làm ăn. Không ít trường hợp doanh nghiệp đã mất hàng trăm nghìn USD vì nhận được cuộc gọi “giả giọng sếp” yêu cầu chuyển tiền gấp.

Những vụ việc rúng động
Tháng 3/2024, một công ty công nghệ tại Singapore bị thiệt hại gần 500.000 USD sau khi nhân viên kế toán nhận được cuộc gọi video từ một “giám đốc điều hành” yêu cầu chuyển tiền cho một dự án hợp tác với đối tác nước ngoài. Sau này, điều tra cho thấy toàn bộ cuộc gọi đó là sản phẩm của công nghệ deepfake – từ hình ảnh đến giọng nói đều không phải người thật.
Tại Thái Lan, một số vụ việc liên quan đến deepfake cũng đã được cảnh báo. Đặc biệt, nhiều đối tượng còn sử dụng hình ảnh của cảnh sát hoặc quan chức chính phủ để hù dọa nạn nhân, khiến họ hoảng loạn và làm theo yêu cầu chuyển tiền. Nạn nhân thường là người cao tuổi hoặc người không rành công nghệ.
Việt Nam cũng không nằm ngoài làn sóng này. Bộ Công an đã từng cảnh báo về các hình thức lừa đảo qua mạng với thủ đoạn tinh vi, trong đó có việc sử dụng công nghệ AI để giả danh người thân hoặc lãnh đạo, từ đó chiếm đoạt tiền.
Vì sao Đông Nam Á ?
Có nhiều nguyên nhân khiến Đông Nam Á trở thành mục tiêu ưa thích của các nhóm lừa đảo deepfake. Trước hết, đây là khu vực có dân số trẻ, tỷ lệ sử dụng mạng xã hội và thiết bị di động cao. Người dân thường xuyên kết nối qua video, thoại, tin nhắn – tạo điều kiện thuận lợi để các hình thức deepfake phát huy hiệu quả.
Thứ hai, nhận thức về an toàn công nghệ ở nhiều nước Đông Nam Á còn hạn chế. Nhiều người chưa biết cách phân biệt deepfake với cuộc gọi thật, dễ dàng tin tưởng vào hình ảnh và giọng nói quen thuộc mà họ thấy trên màn hình.
Thứ ba, pháp luật và hệ thống bảo vệ người dùng ở nhiều quốc gia trong khu vực vẫn đang trong quá trình hoàn thiện. Việc xử lý các vụ lừa đảo xuyên biên giới cũng gặp nhiều khó khăn, nhất là khi thủ phạm sử dụng công nghệ để che giấu danh tính và vị trí.
Làm sao bảo vệ người dân?
Trước mối nguy hiểm ngày càng lan rộng, các quốc gia Đông Nam Á đang từng bước siết chặt quản lý và nâng cao nhận thức cộng đồng. Singapore đã thành lập các đơn vị chuyên trách để theo dõi và điều tra các vụ lừa đảo công nghệ cao. Chính phủ Thái Lan và Malaysia đẩy mạnh tuyên truyền trên truyền hình, mạng xã hội để cảnh báo người dân.
Tại Việt Nam, các cơ quan chức năng liên tục đưa ra cảnh báo và khuyến cáo người dân không cung cấp thông tin cá nhân qua điện thoại, không vội vã chuyển tiền khi chưa xác minh rõ ràng. Đồng thời, Bộ Thông tin và Truyền thông đang nghiên cứu ứng dụng AI để phát hiện nội dung deepfake giả mạo.
Người dân cũng cần chủ động nâng cao kiến thức về công nghệ. Khi nhận được cuộc gọi yêu cầu chuyển tiền, đặc biệt từ người thân hoặc lãnh đạo, hãy xác minh lại bằng cách gọi lại qua số quen thuộc, hoặc hỏi những thông tin riêng tư mà chỉ người thật mới biết.
Tương lai đầy thách thức
Deepfake là minh chứng rõ ràng cho việc công nghệ có thể bị lợi dụng nếu không có kiểm soát. Tại Đông Nam Á, nơi công nghệ phát triển nhanh nhưng hệ thống an toàn còn nhiều lỗ hổng, sự cảnh giác của người dân là tuyến phòng thủ quan trọng nhất.
Lừa đảo deepfake không chỉ là mất tiền – nó còn làm xói mòn niềm tin vào những kết nối số vốn đang trở thành một phần thiết yếu trong đời sống hiện đại. Chỉ khi công nghệ được sử dụng một cách có trách nhiệm, và con người được trang bị đầy đủ kỹ năng phòng vệ số, thì chúng ta mới có thể an toàn hơn trong thế giới ảo ngày càng thật.

Other Articles

A woman holding fan of U.S. dollars banknote
 When Patriotism Becomes a Playground for Scammers
 When Patriotism Becomes a Playground for Scammers How Southeast Asia’s national pride weekends turn...
Read More
Bad Girl
She’s gone too bad!
Read More
Close-up of two young girls' eyes
Online Scam With KOL
Online Scam With KOL In today’s digital world, platforms like Facebook, Instagram, Douyin, and Weibo...
Read More