ข่าวและประกาศ

รู้ทันมิจจี้..ใช้ AI วีดีโอคอลปลอมหน้าเหมือน ล้วงข้อมูลหลอกโอนเงิน

อัปเดตวันที่ 23 เม.ย. 2568


ในยุคที่เทคโนโลยีปัญญาประดิษฐ์ (AI) พัฒนาไปอย่างรวดเร็ว "Deepfake" ได้กลายเป็นภัยคุกคามรูปแบบใหม่ที่น่ากังวล Deepfake คือ การใช้ AI สร้างสื่อสังเคราะห์ (วิดีโอ, เสียง, รูปภาพ) ที่ปลอมแปลงใบหน้า ท่าทาง และน้ำเสียงของบุคคลจริงได้อย่างแนบเนียนจนแยกแทบไม่ออก มิจฉาชีพได้นำเทคโนโลยีนี้มาใช้หลอกลวงประชาชนมากขึ้นเรื่อยๆ ทั้งเพื่อหลอกเอาเงิน สร้างข่าวปลอม หรือทำลายชื่อเสียง


รวมกลโกง Deepfake ที่พบบ่อย

  1. แก๊งคอลเซ็นเตอร์ปลอมเสียง (Voice Cloning): มิจฉาชีพใช้ AI เลียนแบบเสียงของคนรู้จัก (เช่น คนในครอบครัว เพื่อน) หรือปลอมเป็นเจ้าหน้าที่ (เช่น ตำรวจ เจ้าหน้าที่ธนาคาร) โทรมาหลอกลวง โดยสร้างสถานการณ์เร่งด่วน เช่น มีเรื่องเดือดร้อน ต้องการเงินด่วน หรือบัญชีมีปัญหา ต้องรีบให้ข้อมูลส่วนตัวหรือโอนเงิน
  2. วิดีโอคอลหลอกลวง (Fake Video Calls): ใช้ AI สร้างวิดีโอปลอมเป็นบุคคลอื่นขณะวิดีโอคอล อาจแอบอ้างเป็นเจ้าหน้าที่รัฐหลอกว่าต้องคดีหรือใช้ในกลโกงหลอกลวงด้านความสัมพันธ์
  3. โฆษณาปลอมใช้คนดัง/ผู้เชี่ยวชาญ (Fake Ads): สร้างวิดีโอ Deepfake โดยใช้ใบหน้าคนดัง นักลงทุน หรือผู้เชี่ยวชาญ มาพูดชักชวนให้ลงทุนในรูปแบบต่างๆ หรือซื้อสินค้าที่ไม่มีอยู่จริง มักแพร่ระบาดในโซเชียลมีเดีย
  4. สร้างข่าวปลอม/ทำลายชื่อเสียง (Fake News/Defamation): ใช้ Deepfake ตัดต่อภาพหรือวิดีโอเพื่อสร้างเรื่องราวเท็จ ใส่ร้ายป้ายสีบุคคล หรือสร้างความเข้าใจผิดในสังคม

วิธีสังเกต Deepfake เบื้องต้น
แม้ Deepfake จะสมจริงขึ้นเรื่อยๆ แต่ก็อาจมีจุดสังเกตได้ ดังนี้:

  • ความผิดปกติในวิดีโอ:
    • การกะพริบตา: กะพริบตาน้อย/มากผิดปกติ หรือไม่กะพริบตาเลย
    • การเคลื่อนไหว: ริมฝีปากขยับไม่ตรงกับเสียงพูด หรือดูแข็งทื่อ การแสดงสีหน้าท่าทางดูไม่เป็นธรรมชาติ
    • ผิวหนัง/เส้นผม: ดูเรียบเนียนหรือเบลอผิดปกติ ตำหนิบนใบหน้าอาจดูไม่สม่ำเสมอ
    • แสงและเงา: แสงเงาบนใบหน้าอาจไม่สอดคล้องกับสภาพแวดล้อม หรือเงาสะท้อนในดวงตาผิดเพี้ยน
  • ความผิดปกติในเสียง:
    • น้ำเสียง: อาจฟังดูราบเรียบ ไร้อารมณ์ เหมือนหุ่นยนต์
    • จังหวะการพูด: มีการเว้นวรรคแปลกๆ หรือพูดเร็ว/ช้าผิดปกติ
    • เสียงรบกวน: อาจไม่มีเสียงรบกวนรอบข้างเลย หรือมีเสียงที่ผิดธรรมชาติ
  • สิ่งที่สำคัญที่สุด: บริบทและพฤติกรรม:
    • ความเร่งด่วนผิดปกติ: กดดันให้ตัดสินใจ ให้ข้อมูลหรือโอนเงินทันที
    • การขอข้อมูลที่ละเอียดอ่อน: ขอรหัสผ่านมือถือ ,รหัส PIN เข้าแอปฯธนาคาร, เลขบัตรประชาชน/บัตรเครดิต, รหัส OTP (ธนาคารไม่มีนโยบายการขอข้อมูลส่วนตัวทางโทรศัทพ์)
    • เรื่องราวหรือคำขอที่น่าสงสัย: ข้อเสนอดีเกินจริง หรือสถานการณ์ที่ฟังดูไม่สมเหตุสมผล
    • พยายามกีดกันการตรวจสอบ: บ่ายเบี่ยงเมื่อคุณพยายามขอเวลาตรวจสอบ หรือขอติดต่อกลับในช่องทางอื่น

วิธีป้องกันตัวเอง ไม่ให้ตกเป็นเหยื่อ:

  1. ตั้งสติ! หากได้รับการติดต่อที่น่าสงสัยไม่ว่าจะเป็นเสียงหรือวิดีโอ อย่าเพิ่งเชื่อหรือทำตามทันที ให้สงสัยไว้ก่อน
  2. ตรวจสอบเสมอ!
    • วางสายแล้วโทรกลับ: หากเป็นคนรู้จัก ให้วางสายแล้วโทรกลับเบอร์ที่บันทึกไว้ในเครื่อง หรือเบอร์ที่เคยติดต่อกันเป็นประจำ (ห้ามใช้เบอร์ที่เพิ่งโทรเข้ามา) หากเป็นหน่วยงาน/ธนาคาร ให้หาเบอร์จากเว็บไซต์ทางการเท่านั้น
    • ใช้ช่องทางอื่นยืนยัน: ลองติดต่อผ่านช่องทางอื่น เช่น ส่งข้อความ LINE, Facebook Messenger หรืออีเมล เพื่อยืนยันว่าเป็นบุคคลนั้นจริง
    • ตั้งคำถามเฉพาะ: ลองถามคำถามที่รู้กันเป็นการส่วนตัว ที่มิจฉาชีพไม่น่าจะรู้
  3. ไม่ให้ข้อมูลส่วนตัวสำคัญ: ห้ามให้รหัสผ่าน, รหัส PIN เข้าแอปฯธนาคาร, เลขบัตรประชาชน/บัตรเครดิต, รหัส OTP กับใครผ่านทางโทรศัพท์หรือวิดีโอคอลเด็ดขาด
  4. คิด วิเคราะห์ แยกแยะ: พิจารณาความสมเหตุสมผลของเรื่องที่ได้ยินหรือเห็น หากเป็นข้อเสนอการลงทุนที่ดูดีเกินจริง ผลตอบแทนสูงเกินจริงให้ตรวจสอบข้อมูลจากแหล่งที่น่าเชื่อถือเสมอ
  5. ระมัดระวังการคลิกลิงก์/ดาวน์โหลด: ไม่คลิกลิงก์ หรือดาวน์โหลดแอปฯที่ไม่น่าไว้วางใจ ซึ่งอาจเป็นช่องทางในการเข้าถึงข้อมูลส่วนตัวหรือควบคุมอุปกรณ์จากระยะไกล และดาวน์โหลดแอปฯผ่าน Official Store เท่านั้น
  6. ตั้งค่าความปลอดภัย: เปิดใช้งานการยืนยันตัวตนหลายปัจจัย (Multi-Factor Authentication - MFA) ในบัญชีออนไลน์ต่างๆ เช่น แอปฯธนาคาร อีเมล โซเชียลมีเดีย

ลูกค้าธนาคารที่พบเหตุการณ์น่าสงสัย ที่ได้รับความเสี่ยงหรือความเสียหายสามารถแจ้งศูนย์ AOC 1441 สายด่วนภัยออนไลน์หรือติดต่อ Krungthai Call Center: 02-111-1111 กด 108 ได้ตลอด 24 ชั่วโมง

ผลิตภัณฑ์ที่เกี่ยวข้อง