Tình trạng lừa đảo trực tuyến ngày càng gia tăng và phức tạp hơn khi kẻ xấu lợi dụng công cụ AI để bắt chước giọng nói của người thân.
- Hôn vùng kín có mùi gì? Mùi như thế nào là bình thường và bất thường?
- Bida libre là gì? Cách chơi và luật chơi dành cho người mới
- Google và Meta “nắm tay” nhau nhận án phạt tại Hàn Quốc
- Bộ phận sinh dục nữ và 4 điều có thể bạn chưa biết về nó
- Tôn Băng Pháp là ai? Tất tần tật về TikToker Tôn Bằng Pháp
Ngày càng có nhiều vụ lừa đảo sử dụng AI để làm giả giọng nói
Trong giai đoạn hiện nay, sự cạnh tranh trong công nghệ AI ngày càng khốc liệt, nhiều công cụ AI liên tục được tung ra như nấm trên thị trường để đáp ứng nhu cầu của người dùng. Theo đó, hậu quả tiêu cực của công nghệ này cũng dần nhiều hơn trước, chẳng hạn như các vụ gian lận gây thiệt hại về vật chất và tinh thần.
Bạn đang xem: Cảnh giác với chiêu trò lừa đảo dùng AI giả giọng người thân
Xem thêm : Chi tiết “in tư áo crop-top” của Tiến Linh mặc trong trận bán kết với Malaysia
Gần đây nhất, những kẻ xấu đã sử dụng AI để mạo danh một người Canada tên là Benjamin Perkin và liên lạc với cha mẹ anh ta. “Perkin” tuyên bố anh ta đã gây ra một vụ tai nạn xe hơi khiến một nhà ngoại giao Mỹ tử vong, và hiện đang bị giam giữ và cần 15.000 đô la để trang trải chi phí pháp lý.
Sau đó, một “luật sư” giả dạng AI đã gọi điện và thúc giục cha mẹ anh chuyển tiền. Hai người đến ngân hàng và rút và gửi 15.449 đô la thông qua một hệ thống chuyển đổi sang Bitcoin. Cuối cùng, Perkin đã gọi điện vào tối hôm đó.
Không chỉ có những vụ lừa đảo liên quan đến AI gần đây, mà còn có những vụ việc trước đây về việc AI giả giọng nói để lừa đảo tài sản. Năm 2019, giám đốc điều hành của một công ty năng lượng Anh được cho là đã chuyển hơn 240.000 đô la vào một tài khoản ở Hungary sau khi nhận được cuộc gọi từ ông chủ của mình có giọng nói bị AI giả giọng.
Khi deepfake và các phương tiện truyền thông tổng hợp dựa trên AI khác như AI xác thực giọng nói trở nên dễ tạo hơn và phổ biến hơn, chúng ngày càng được sử dụng để gian lận, đại diện FTC Juliana Gruenwald cho biết. Các công cụ AI tạo video, ảnh, âm thanh và văn bản giả mạo bắt chước người thật đang trở thành “mồi ngon” cho những kẻ lừa đảo.
Theo Ủy ban Thương mại Liên bang, hơn 5.000 nạn nhân đã bị lừa đảo 11 triệu đô la qua điện thoại trong số 36.000 báo cáo trong năm nay.
Hãy truy cập Sex Shop Online.com mỗi ngày để đọc thêm nhiều thông tin mới nhé!
Nguồn: https://www.sex-shoponline.net
Danh mục: Blog