รู้ทันมิจจี้..ใช้ AI วีดีโอคอลปลอมหน้าเหมือน ล้วงข้อมูลหลอกโอนเงิน
อัปเดตวันที่ 23 เม.ย. 2568
ในยุคที่เทคโนโลยีปัญญาประดิษฐ์ (AI) พัฒนาไปอย่างรวดเร็ว "Deepfake" ได้กลายเป็นภัยคุกคามรูปแบบใหม่ที่น่ากังวล Deepfake คือ การใช้ AI สร้างสื่อสังเคราะห์ (วิดีโอ, เสียง, รูปภาพ) ที่ปลอมแปลงใบหน้า ท่าทาง และน้ำเสียงของบุคคลจริงได้อย่างแนบเนียนจนแยกแทบไม่ออก มิจฉาชีพได้นำเทคโนโลยีนี้มาใช้หลอกลวงประชาชนมากขึ้นเรื่อยๆ ทั้งเพื่อหลอกเอาเงิน สร้างข่าวปลอม หรือทำลายชื่อเสียง
รวมกลโกง Deepfake ที่พบบ่อย
- แก๊งคอลเซ็นเตอร์ปลอมเสียง (Voice Cloning): มิจฉาชีพใช้ AI เลียนแบบเสียงของคนรู้จัก (เช่น คนในครอบครัว เพื่อน) หรือปลอมเป็นเจ้าหน้าที่ (เช่น ตำรวจ เจ้าหน้าที่ธนาคาร) โทรมาหลอกลวง โดยสร้างสถานการณ์เร่งด่วน เช่น มีเรื่องเดือดร้อน ต้องการเงินด่วน หรือบัญชีมีปัญหา ต้องรีบให้ข้อมูลส่วนตัวหรือโอนเงิน
- วิดีโอคอลหลอกลวง (Fake Video Calls): ใช้ AI สร้างวิดีโอปลอมเป็นบุคคลอื่นขณะวิดีโอคอล อาจแอบอ้างเป็นเจ้าหน้าที่รัฐหลอกว่าต้องคดีหรือใช้ในกลโกงหลอกลวงด้านความสัมพันธ์
- โฆษณาปลอมใช้คนดัง/ผู้เชี่ยวชาญ (Fake Ads): สร้างวิดีโอ Deepfake โดยใช้ใบหน้าคนดัง นักลงทุน หรือผู้เชี่ยวชาญ มาพูดชักชวนให้ลงทุนในรูปแบบต่างๆ หรือซื้อสินค้าที่ไม่มีอยู่จริง มักแพร่ระบาดในโซเชียลมีเดีย
- สร้างข่าวปลอม/ทำลายชื่อเสียง (Fake News/Defamation): ใช้ Deepfake ตัดต่อภาพหรือวิดีโอเพื่อสร้างเรื่องราวเท็จ ใส่ร้ายป้ายสีบุคคล หรือสร้างความเข้าใจผิดในสังคม
วิธีสังเกต Deepfake เบื้องต้น
แม้ Deepfake จะสมจริงขึ้นเรื่อยๆ แต่ก็อาจมีจุดสังเกตได้ ดังนี้:
-
ความผิดปกติในวิดีโอ:
- การกะพริบตา: กะพริบตาน้อย/มากผิดปกติ หรือไม่กะพริบตาเลย
- การเคลื่อนไหว: ริมฝีปากขยับไม่ตรงกับเสียงพูด หรือดูแข็งทื่อ การแสดงสีหน้าท่าทางดูไม่เป็นธรรมชาติ
- ผิวหนัง/เส้นผม: ดูเรียบเนียนหรือเบลอผิดปกติ ตำหนิบนใบหน้าอาจดูไม่สม่ำเสมอ
- แสงและเงา: แสงเงาบนใบหน้าอาจไม่สอดคล้องกับสภาพแวดล้อม หรือเงาสะท้อนในดวงตาผิดเพี้ยน
-
ความผิดปกติในเสียง:
- น้ำเสียง: อาจฟังดูราบเรียบ ไร้อารมณ์ เหมือนหุ่นยนต์
- จังหวะการพูด: มีการเว้นวรรคแปลกๆ หรือพูดเร็ว/ช้าผิดปกติ
- เสียงรบกวน: อาจไม่มีเสียงรบกวนรอบข้างเลย หรือมีเสียงที่ผิดธรรมชาติ
-
สิ่งที่สำคัญที่สุด: บริบทและพฤติกรรม:
- ความเร่งด่วนผิดปกติ: กดดันให้ตัดสินใจ ให้ข้อมูลหรือโอนเงินทันที
- การขอข้อมูลที่ละเอียดอ่อน: ขอรหัสผ่านมือถือ ,รหัส PIN เข้าแอปฯธนาคาร, เลขบัตรประชาชน/บัตรเครดิต, รหัส OTP (ธนาคารไม่มีนโยบายการขอข้อมูลส่วนตัวทางโทรศัทพ์)
- เรื่องราวหรือคำขอที่น่าสงสัย: ข้อเสนอดีเกินจริง หรือสถานการณ์ที่ฟังดูไม่สมเหตุสมผล
- พยายามกีดกันการตรวจสอบ: บ่ายเบี่ยงเมื่อคุณพยายามขอเวลาตรวจสอบ หรือขอติดต่อกลับในช่องทางอื่น
วิธีป้องกันตัวเอง ไม่ให้ตกเป็นเหยื่อ:
- ตั้งสติ! หากได้รับการติดต่อที่น่าสงสัยไม่ว่าจะเป็นเสียงหรือวิดีโอ อย่าเพิ่งเชื่อหรือทำตามทันที ให้สงสัยไว้ก่อน
-
ตรวจสอบเสมอ!
- วางสายแล้วโทรกลับ: หากเป็นคนรู้จัก ให้วางสายแล้วโทรกลับเบอร์ที่บันทึกไว้ในเครื่อง หรือเบอร์ที่เคยติดต่อกันเป็นประจำ (ห้ามใช้เบอร์ที่เพิ่งโทรเข้ามา) หากเป็นหน่วยงาน/ธนาคาร ให้หาเบอร์จากเว็บไซต์ทางการเท่านั้น
- ใช้ช่องทางอื่นยืนยัน: ลองติดต่อผ่านช่องทางอื่น เช่น ส่งข้อความ LINE, Facebook Messenger หรืออีเมล เพื่อยืนยันว่าเป็นบุคคลนั้นจริง
- ตั้งคำถามเฉพาะ: ลองถามคำถามที่รู้กันเป็นการส่วนตัว ที่มิจฉาชีพไม่น่าจะรู้
- ไม่ให้ข้อมูลส่วนตัวสำคัญ: ห้ามให้รหัสผ่าน, รหัส PIN เข้าแอปฯธนาคาร, เลขบัตรประชาชน/บัตรเครดิต, รหัส OTP กับใครผ่านทางโทรศัพท์หรือวิดีโอคอลเด็ดขาด
- คิด วิเคราะห์ แยกแยะ: พิจารณาความสมเหตุสมผลของเรื่องที่ได้ยินหรือเห็น หากเป็นข้อเสนอการลงทุนที่ดูดีเกินจริง ผลตอบแทนสูงเกินจริงให้ตรวจสอบข้อมูลจากแหล่งที่น่าเชื่อถือเสมอ
- ระมัดระวังการคลิกลิงก์/ดาวน์โหลด: ไม่คลิกลิงก์ หรือดาวน์โหลดแอปฯที่ไม่น่าไว้วางใจ ซึ่งอาจเป็นช่องทางในการเข้าถึงข้อมูลส่วนตัวหรือควบคุมอุปกรณ์จากระยะไกล และดาวน์โหลดแอปฯผ่าน Official Store เท่านั้น
- ตั้งค่าความปลอดภัย: เปิดใช้งานการยืนยันตัวตนหลายปัจจัย (Multi-Factor Authentication - MFA) ในบัญชีออนไลน์ต่างๆ เช่น แอปฯธนาคาร อีเมล โซเชียลมีเดีย
ลูกค้าธนาคารที่พบเหตุการณ์น่าสงสัย ที่ได้รับความเสี่ยงหรือความเสียหายสามารถแจ้งศูนย์ AOC 1441 สายด่วนภัยออนไลน์หรือติดต่อ Krungthai Call Center: 02-111-1111 กด 108 ได้ตลอด 24 ชั่วโมง
ผลิตภัณฑ์ที่เกี่ยวข้อง