• Bài viết mới

  • Thư viện

  • Chuyên mục

  • Tag

  • Join 906 other subscribers
  • Bài viết mới

  • Blog – theo dõi

  • Enter your email address to follow this blog and receive notifications of new posts by email.

    Join 906 other subscribers

Trí tuệ nhân tạo và vấn nạn lừa đảo bằng mô phỏng giọng nói

Theo điều tra của CBS, rất dễ dàng dùng AI để mô phỏng giọng nói của một người, dù công nghệ này mang lại nhiều tiện ích và ứng dụng, nhưng nó cũng dễ bị bọn tội phạm lợi dụng để thực hiện hành vi lừa đảo. Theo Ủy ban Thương mại Liên bang Mỹ, số vụ lừa đảo liên quan đến mạo danh danh tính đã gia tăng trong 4 năm qua, chỉ riêng trong năm ngoái đã gây thiệt hại kinh tế hơn 752 triệu USD.

r shutterstock 21131507301Sử dụng công nghệ nhân bản giọng nói AI để thực hiện hành vi lừa đảo là thủ đoạn mới của kẻ lừa đảo. (Nguồn: Tex vector/ Shutterstock)

Dễ dàng làm giả giọng nói của bất cứ ai
Ngày nay mọi người có thể dễ dàng tìm được dịch vụ AI mô phỏng giọng nói, chỉ cần trả vài USD và cung cấp mẫu âm thanh ngắn 30 giây trong vòng 2 – 4 phút mô phỏng xong giọng nói của một người.

Những kẻ lừa đảo có thể ghi lại giọng nói của người khác thông qua video hoặc thư thoại trên mạng xã hội, hoặc thậm chí ghi âm trực tiếp cuộc gọi điện thoại, qua đó để dùng giọng nói của người đó nhằm lừa đảo. Giọng nói được AI mô phỏng này chân thực đến mức những người thân của người bị giả giọng cũng khó phát hiện được.

Luật sư suýt bị lừa bởi trò lừa đảo AI
Luật sư Gary Schildhorn suýt trở thành nạn nhân của trò lừa đảo AI nhân bản giọng nói kể lại trải nghiệm của ông rằng, một hôm ông nhận được cuộc gọi từ một người tự xưng là con trai ông, giọng nói giống hệt giọng con ông đó đã kể trường hợp khó khăn khẩn cấp nhờ ông giúp.

“Nó nói: ‘Bố ơi, con bị tai nạn, con nghĩ là con bị gãy mũi. Con tông vào một phụ nữ đang mang thai và bị bắt giam. Bố phải giúp con’. Tôi không còn nghi ngờ gì đó là giọng con trai tôi”, ông Schildhorn kể.

Và ông hành động ngay lập tức. Ông lái xe đến ngân hàng rút 9000 USD tiền mặt và thông báo cho vợ về tình hình. May mắn là con ông vừa lúc dùng FaceTime gọi cho ông, giúp ông kịp thời thoát vụ lừa.

Ông đã liên hệ với cơ quan thực thi pháp luật nhưng được thông báo rằng không thể truy tìm ra kẻ lừa đảo, vì chúng dùng loại điện thoại dùng một lần nên không thể truy được vết.

Làm thế nào để ngăn chặn?

Trước tình trạng gian lận AI ngày càng tràn lan, thành viên Yvette D. Clarke của Nhóm công tác AI – Hạ viện Mỹ đã đề xuất luật yêu cầu đóng dấu kỹ thuật số đối với nội dung do AI tạo ra.

Nếu dự luật được thông qua, người liên quan khi nghe giọng do AI mô phỏng sẽ được thông báo rõ ràng, trong trường hợp bị tổn hại nào đó thì có thể kiện.

Để đề phòng loại lừa đảo này, cơ quan thực thi pháp luật khuyên công chúng nên thiết lập mật mã xác minh khẩn cấp và chia sẻ mật mã đó với các thành viên trong gia đình.

Chặn các cuộc gọi spam là cách hiệu quả để ngăn chặn việc nhận các cuộc gọi có khả năng lừa đảo, có thể tìm dùng những dịch vụ liên quan để sử dụng.

Tuy nhiên nhiều khi dịch vụ cũng không kiểm soát được hết, do đó hạn chế trả lời cuộc gọi từ các số chưa xác định, vì 2 lý do: thứ nhất, việc trả lời những cuộc gọi này có thể làm tăng nguy cơ bị lừa đảo; thứ hai, kẻ lừa đảo có thể sử dụng bản ghi âm cuộc trò chuyện với bạn để sau đó sử dụng công nghệ AI bắt chước giọng nói của bạn khi thực hiện hành vi lừa đảo.

Ngoài ra hãy đợi người gọi nói trước trong trường hợp nhận được cuộc gọi từ một số chưa xác định, nếu bên kia im lặng thì hãy cúp máy ngay, còn nếu bên kia đã lên tiếng thì hãy xác minh thông tin của đối phương. Ví dụ nếu người gọi tự xưng là người thân nào đó đang gặp trường hợp khẩn cấp, vậy thì nên dùng cách nào đó xác minh tình huống đó với những thành viên khác trong gia đình.

Các tình huống lừa đảo điển hình

Sau đây có thể là một số tình huống lừa đảo điển hình mà bọn lừa đảo thường tận dụng bằng mô phỏng giọng nói AI:

Lừa đảo ông bà: Loại lừa đảo này thường nhắm vào người cao tuổi, kẻ lừa đảo đóng giả là cháu của nạn nhân và giả vờ đang trong trường hợp khẩn cấp để lấy tiền. Người cao tuổi dễ bị lừa vì chưa quen với công nghệ nhân bản giọng nói AI.

Lừa đảo bắt cóc: Kẻ lừa đảo sử dụng công nghệ AI để bắt chước giọng nói của một người thân của người chúng đang lừa, giả vờ rằng người thân đó đã bị bắt cóc. Kiểu lừa này thường nhắm vào các bậc cha mẹ, vì khả năng cao họ phản ứng nhanh chuyển tiền sau khi biết tin con họ bị bắt cóc.

Trường hợp khẩn cấp bịa đặt: Trò lừa đảo này sử dụng công nghệ nhân bản AI mô phỏng giọng nói của người thân nạn nhân, để nạn nhân tin người thân kia đã gặp phải trường hợp khẩn cấp đó (như tai nạn hoặc bị bắt giữ…), từ đó lừa nạn nhân gửi tiền hoặc cung cấp thông tin nhạy cảm.

Cao Vân –  Vision Times

 

Bình luận về bài viết này

Trang web này sử dụng Akismet để lọc thư rác. Tìm hiểu cách xử lý bình luận của bạn.

Banmaihong's Blog

Nơi Đây Nắng Ban Mai Hồng Reo Vui

Blog Chuyên Anh

Nurturing Language Talents