Sử dụng AI giả giọng người thân để gọi điện lừa đảo
Lượt xem: 474

Hiện nay, lĩnh vực trí tuệ nhân tạo (AI) ngày càng phát triển mạnh mẽ. Với bước đột phá lớn gần đây nhất là ChatGPT đã đưa AI đến tầm cao mới, mở ra một cuộc chạy đua trong lĩnh vực công nghệ. AI xuất hiện đã đem lại những tính năng, tiện ích mà trước đây chúng ta chỉ nhìn thấy qua phim ảnh. Giống như những công cụ khác mà con người tạo ra, AI sinh ra nhằm mục đích giúp đỡ con người. Nhưng vấn đề nào cũng có hai mặt, nhiều trường hợp đã lợi dụng AI để giả giọng những người trong gia đình và lừa đảo hàng ngàn USD.

 

“Nó đang cảm thấy sợ hãi, chúng ta cần phải giúp ngay lập tức”. Đây là câu nói của bà Ruth Card, 73 tuổi ở Regina (Canada) khi nhận được cuộc gọi từ người lạ. Người này nói cháu bà, anh Brandon, bị tạm giam, không có điện thoại để liên lạc và cần một số tiền để được tại ngoại.

Sau đó, bà cùng chồng đã ngay lập tức đến ngân hàng và rút 2.207 USD (mức rút tối đa mỗi ngày). Họ đến chi nhánh tiếp theo để rút tiếp nhưng may mắn Giám đốc ngân hàng này đã cảnh báo họ rằng đã có một trường hợp tương tự xảy ra khi một vị khách hàng khác nhận được một cuộc gọi từ những người giả mạo. Sau khi trấn tĩnh lại, Card đã nhận ra giọng nói đó không giống lắm so với cháu trai của họ, họ đã bị cảm xúc đánh lừa.

Các vụ lừa đảo mạo danh ở Hoa Kỳ ngày càng gia tăng, dấy lên mối lo ngại về công nghệ phát triển đã giúp những kẻ lừa đảo giả giọng nói một cách dễ dàng. Chúng thường thuyết phục những người lớn tuổi rằng người thân họ đang gặp nguy hiểm và cần một số tiền gấp.

Năm 2022, Uỷ ban thương mại Mỹ ghi nhận 36.000 báo cáo về những kẻ mạo danh bạn bè và gia đình để lừa đảo. Trong đó có hơn 5.100 trường hợp xảy ra qua điện thoại và gây thiệt hại hơn 11 triệu USD.

Các cơ quan pháp luật chưa có cơ sở pháp lý đầy đủ để có thể ngăn chặn các cuộc lừa đảo mạo danh đang tăng lên từng ngày và cũng không thể phạt các công ty đã tạo ra các công cụ giả mạo giọng nói này.

Mặc dù, có nhiều hình thức lừa đảo, nhưng về cơ bản chúng vẫn hoạt động theo cùng một cách. Những kẻ lừa đảo mạo danh một người đáng tin cậy như trẻ em, người thân hoặc bạn bè sau đó thuyết phục nạn nhân gửi tiền cho họ vì họ đang gặp khó khăn. Chúng lợi dụng cảm xúc của nạn nhân khi nghe người thân yêu của mình gặp nguy hiểm.

Đó là tác động tiêu cực từ sự phát triển đột phá của AI gần đây. Những kẻ lừa đảo thu thập mẫu âm thanh của nạn nhân và sử dụng AI để phân tích, từ đó tạo ra một bản sao giọng nói của người đó và nói bất cứ những gì chúng muốn, những mẫu này thường được lấy từ những nơi như Youtube, Facebook, video Tiktok, hoặc Instagram. Chỉ cần một đoạn âm thanh khoảng 30 giây là AI có thể sao chép giọng nói.

ElevenLabs là một công ty tổng hợp giọng nói bằng AI được thành lập năm 2022, công cụ được xây dựng cho phép chuyển đổi một mẫu giọng nói ngắn thành giọng nói được tạo ra tổng hợp.

Sau những lùm xùm mà công cụ này tạo ra như giả giọng người nổi tiếng, nói những thứ mà họ chưa từng nói thì bên phía ElevenLabs cho biết họ đang kết hợp các biện pháp bảo vệ để ngăn chặn việc lạm dụng và tạo ra một công cụ khác cho phép nhận biết âm thanh do AI tạo ra. Tuy nhiên, vẫn chưa có biện pháp nào ngăn được những cuộc lừa đảo đang diễn ra thường xuyên.

Một trường hợp khác, bố mẹ của Benjamin Perkin đã mất hàng ngàn USD vì một cuộc gọi lừa đảo tự xưng là luật sư cáo buộc rằng con trai họ đã gây tai nạn cho một nhà ngoại giao Hoa Kỳ, hiện tại đang cần tiền để cho các chi phí pháp lý và yêu cầu họ chuyển hơn 15.000 USD ngay trong ngày. Sau đó họ đã vội vã đến ngân hàng và gửi tiền. Đến tối, khi Perkin gọi điện cho bố mẹ, họ biết rằng mình đã bị lừa. Sau đó Perkin đã báo cảnh sát nhưng số tiền đã không lấy lại được nữa.

Trợ lý giám đốc bộ phận thực hành tiếp thị của Uỷ ban thương mại Will Maxson cho biết việc theo dõi những kẻ lừa đảo bằng giọng nói rất khó khăn vì chúng có thể sử dụng điện thoại ở bất kỳ đâu trên thế giới, không thể xác định cơ quan nào có thẩm quyền đối với những vụ lừa đảo này.

Maxson kêu gọi mọi người cần liên tục cảnh giác đối với những cuộc gọi từ người thân, đặc biệt là khi họ yêu cầu chuyển tiền. Cần xác mình thật kỹ trước khi đưa ra quyết định./.

Nguồn: https://antoanthongtin.vn/

Thanh tra tỉnh

Thống kê truy cập
  • Đang truy cập: 1
  • Hôm nay: 1
  • Trong tuần: 1
  • Tháng hiện tại: 1
  • Tổng lượt truy cập: 1
Đăng nhập

ipv6 ready Chung nhan Tin Nhiem Mang