Người dân cần nâng cao cảnh giác với các cuộc gọi video lừa đảo
Sự nguy hiểm của việc khai thác những tiến bộ công nghệ của bọn tội phạm đang gia tăng mỗi ngày. Nhiều tổ chức tín dụng, ngân hàng đã đưa ra cảnh báo tới khách hàng, nhắc nhở họ cảnh giác với thủ đoạn lừa đảo tinh vi này. Một số thủ đoạn nạn nhân thường sử dụng, theo khuyến cáo: Đối tượng lừa đảo sử dụng tài khoản mạng xã hội (Zalo, Facebook,..) hoặc tạo tài khoản mạng xã hội, giả làm người thân của nạn nhân. Sau đó, các đối tượng này thu thập thông tin cá nhân, hình ảnh, video có sử dụng được giọng nói và sử dụng kỹ thuật deepfake để tạo video giả mạo. Sử dụng tài khoản mạng xã hội giả mạo hoặc bị xâm nhập để nhắn tin vay/đòi tiền hoặc thông báo cho người thân của nạn nhân gặp rủi ro để yêu cầu chuyển tiền gấp…; Ngoài ra, thực hiện cuộc gọi video giả mạo, phát video giả mạo để xác thực thông tin, tăng độ tin cậy để lừa nạn nhân chuyển tiền.
Các đối tượng thường sử dụng các cuộc gọi video giả để thực hiện tội phạm, trong các cuộc gọi video thường có hình ảnh của người thân của nạn nhân nhưng âm thanh và hình ảnh không rõ ràng, tín hiệu không ổn định, thời lượng ngắn; cuộc gọi video bị dừng trong một thời gian. lý do. Một dấu hiệu khác để nhận biết cuộc gọi giả này là nội dung không trả lời trực tiếp câu hỏi của nạn nhân hoặc không phù hợp với ngữ cảnh giao tiếp.
hình minh họa.
|
Dữ liệu hình ảnh được xử lý thêm thông qua “GAN” (Mạng đối thủ lớn) để tạo video “Deepfake”. Đây là một hệ thống máy học chuyên dụng. Hai mạng thần kinh này có thể được sử dụng để cạnh tranh với nhau trong việc học các tính năng đã có trong kho dữ liệu thông tin cho mục đích đào tạo AI, chẳng hạn như chụp ảnh khuôn mặt và sau đó tạo dữ liệu mới với các tính năng tương tự.
Các nhà công nghệ đã đưa ra một số gợi ý để giúp người dùng nhanh chóng phát hiện các cuộc gọi video giả mạo — “deepfakes”, tức là: hình ảnh bị giật trong khi gọi video, chẳng hạn như video giả mạo. Ánh sáng thay đổi liên tục từ khung hình này sang khung hình khác; Tông màu da thay đổi liên tục; Video có hiện tượng nhấp nháy bất thường; Cử động miệng không đồng bộ với lời nói; Vật thể kỹ thuật số xuất hiện trong hình ảnh; Âm thanh và video chất lượng thấp; Nhân vật nói liên tục không chớp mắt…
Được cảnh báo về các thủ đoạn lừa đảo sử dụng công nghệ deepfake của Ngân hàng MSB.
|
Đứng trước nguy cơ hình ảnh, âm thanh có thể bị làm giả, dù người dân có tin cũng cần phải kiểm chứng. Chẳng hạn, nếu bạn nhận được tin nhắn thoại mượn tiền hoặc tài sản cá nhân, mặc dù giọng nói nghe có vẻ quen thuộc và xác thực, bạn nên gọi lại cho người thực hiện giao dịch để xác nhận. Họ đang giao tiếp.
Để kịp thời phát hiện hành vi lừa đảo, bảo vệ tài sản, người dân cần lưu ý những điểm sau: hạn chế chia sẻ hình ảnh, video có giọng nói thật, thông tin cá nhân lên mạng xã hội; cảnh giác qua các tin nhắn, cuộc gọi hỏi vay, chuyển tiền yêu cầu – nếu có dấu hiệu nghi ngờ, kể cả video xác nhận; kiểm tra kỹ thông tin tài khoản nhận tiền trước khi chuyển tiền và gọi điện trực tiếp cho người liên hệ (không gọi qua APP miễn phí) để xác minh thông tin.
Khi nghi ngờ mình bị lừa đảo, bạn cần liên hệ ngay với các cơ quan tín dụng, ngân hàng để được hỗ trợ kịp thời. đồng thời thông báo cho cơ quan công an nơi gần nhất để được hướng dẫn, bố trí.
Thẻ:các, cản, Cảnh, cao, chat gpt, cuộc, đàn, đảo, gần đây, giác, Gói, Gọi video lừa đảo trực tuyến đang bùng nổ ở Việt Nam.Tội phạm sử dụng deepfakes - kỹ thuật sử dụng trí tuệ nhân tạo để gian lận, khóa học online, kiếm tiền online, kiếm tiền online tại nhà, lựa, năng, người, trí tuệ nhân tạo, video, với