hiểm họa và mặt trái của trí tuệ nhân tạo
Cuộc gọi là thật nhưng tính cách là giả
Nếu nhận được cuộc gọi hình ảnh (video call) từ người thân, bạn bè, đừng vội tin yêu cầu của đối phương, bởi bạn có thể là nạn nhân của một trò lừa đảo nhằm mục đích biển thủ tài sản. Tất cả ảnh và video của người thân và bạn bè của bạn đều là giả mạo và được tạo ra bởi công nghệ trí tuệ nhân tạo. Deepfake là một trong những tác giả của những sản phẩm này.
Deepfake thực chất là phần mềm sử dụng trí tuệ nhân tạo để mô phỏng hình dạng, giọng nói và cử chỉ của một người; hình ảnh, đặc biệt là video, giống ai đó có thể được tạo ra, từ cử chỉ đến lời nói. Mục đích ban đầu của ứng dụng này là giải trí, tuy nhiên, bọn tội phạm sử dụng Deepfake như một vũ khí lợi hại để thực hiện các hành vi lừa đảo, chiếm đoạt tài sản, bôi nhọ thanh danh… đã gây bức xúc dư luận…
Các chiến dịch lừa đảo qua các ứng dụng OTT (Zalo, Facebook, Skype, Telegram…) đã trở nên phổ biến trong thời gian qua. Ban đầu, bọn tội phạm sẽ đánh cắp tài khoản cá nhân để thực hiện hành vi lừa đảo như nhắn tin vay tiền với nhiều lý do, hoàn cảnh khác nhau. Sau một thời gian, bọn tội phạm công nghệ cao nhận thấy hoạt động này không hiệu quả do người dân chưa chủ động cảnh giác nên nâng tầm thủ đoạn mới tinh vi và xảo quyệt hơn, kết hợp giữa chiếm đoạt tài khoản cá nhân và sử dụng deepfake. bạn bè nói chuyện với họ, nhiều người sẽ không tin rằng đây chỉ là ảo giác do công nghệ gây ra, và việc bị lừa dối là điều khó tránh khỏi.
Ngoài ra, công nghệ deepfake đang làm dấy lên mối lo ngại toàn cầu về sự an toàn và an ninh của xã hội. Tội phạm công nghệ cao sẽ sử dụng hình ảnh, video giả mạo và các phương tiện khác để bôi nhọ uy tín của cá nhân, tổ chức nhằm đạt mục đích tống tiền, bôi xấu; đặc biệt, chúng lợi dụng hình ảnh giả mạo của người có ảnh hưởng xã hội để tạo hiệu ứng đám đông, hướng dẫn dư luận, và gây mất an ninh trật tự xã hội.
Khả năng nhận biết dấu hiệu gian lận
Tuy nhiên, deepfakes vẫn chưa hoàn hảo. Theo các chuyên gia, vẫn còn một số dấu hiệu của các cuộc gọi deepfake cần nhận biết như: thời gian thực hiện cuộc gọi thường rất ngắn, chỉ vài giây. Khuôn mặt của những người trong video thiếu biểu cảm, họ nói khá cứng nhắc hoặc tư thế của họ có vẻ gượng gạo và không tự nhiên, đồng thời hướng đầu và cơ thể trong video không nhất quán. Ngoài ra, tông màu da của những người trong video cũng có thể nhận thấy sự bất thường, ánh sáng lạ và bóng đổ không đúng chỗ. Điều này có thể làm cho video trông rất giả và không tự nhiên. Âm thanh có thể không khớp với hình ảnh, nhiều tiếng ồn bị mất trong clip hoặc clip không có âm thanh. Do thời gian thực hiện cuộc gọi deepfake thường rất ngắn nên kẻ lừa đảo sẽ tiếp tục gửi tin nhắn yêu cầu nạn nhân làm theo yêu cầu (chủ yếu để lừa chuyển tiền vào tài khoản ngân hàng) với lý do tín hiệu kém. .
Theo ông Chen Guangxing, Phó Cục trưởng Cục An toàn thông tin (Bộ Thông tin và Truyền thông), lừa đảo trực tuyến chủ yếu là lừa đảo tài chính, để có được nguồn tài chính phù hợp thì phải có tài khoản ngân hàng để chuyển tiền. Vẫn có những tài khoản ngân hàng không chính thức có thể dễ dàng mua và bán trên Internet. Nghị định 13/2023/NĐ-CP ngày 17/04/2023 của Chính phủ về bảo vệ dữ liệu cá nhân là cơ sở để xử lý triệt để các tài khoản ngân hàng trái phép, giúp hạn chế tối đa lừa đảo trực tuyến.
Trần Quang Hùng cho biết, chống lừa đảo trực tuyến là một cuộc chiến trường kỳ đòi hỏi sự hợp tác chặt chẽ của Bộ Thông tin và Truyền thông, Bộ Công an, Ngân hàng Nhà nước Việt Nam và các cơ quan liên quan. Xử lý nghiêm các cơ quan truyền thông, hợp tác tuyên truyền, nâng cao nhận thức, ngăn chặn lừa đảo qua Internet là những giải pháp căn cơ. Vì không thể thực hiện triệt để các biện pháp chỉ trong công nghệ, bởi sự thay đổi và phát triển của công nghệ là rất nhanh. Ngoài ra, cần tiếp tục đồng bộ hóa thông tin người dùng với Cơ sở dữ liệu quốc gia về dân cư.
Các chuyên gia công nghệ cho biết mọi người có thể tiếp tục cảnh giác bằng cách dựa vào các chữ ký chính thức. Khi nhận được cuộc gọi video có dấu hiệu Deepfake, bạn cần bình tĩnh, đừng vội chuyển tiền hay cung cấp thông tin theo yêu cầu mà hãy gọi lại để xác minh, cố gắng kéo dài thời gian cuộc gọi (1-2 phút) hoặc hỏi một số vấn đề cá nhân. câu hỏi, trí tuệ nhân tạo trên Deepfake không Perfect nên không thể xử lý tình huống như người thật.
Sự ra đời của trí tuệ nhân tạo là một bước phát triển vượt bậc của khoa học công nghệ, tuy nhiên nó cũng giống như con dao hai lưỡi, nếu được sử dụng đúng cách, trí tuệ nhân tạo sẽ có những đóng góp to lớn cho mọi tầng lớp xã hội. Tuy nhiên, nếu nó bị tội phạm sử dụng thì sẽ rất nguy hiểm. Người dân nên hạn chế chia sẻ hình ảnh, video và thông tin cá nhân trên các nền tảng mạng xã hội, bởi đây sẽ là kho lưu trữ dữ liệu khổng lồ để tội phạm công nghệ cao khai thác, sử dụng để đào tạo trí tuệ nhân tạo, tạo và thực hiện các hành vi sao chép.
Bài và ảnh: HOÀNG CHUNG