ช่องโหว่ร้ายแรงใน ChatGPT ที่ชื่อว่า ‘ShadowLeak’ และ ‘ZombieAgent’ เปิดโอกาสให้ผู้โจมตีสามารถขโมยข้อมูลสำคัญจากบริการที่เชื่อมต่อ เช่น Gmail, Outlook, และ GitHub ได้โดยไม่ต้องมีการโต้ตอบจากผู้ใช้ ช่องโหว่เหล่านี้อาศัยการทำงานของฟีเจอร์ Connectors และ Memory ของ AI เพื่อทำการโจมตีแบบ Zero-Click, สร้างการคงอยู่บนระบบ และแพร่กระจายการโจมตีได้ OpenAI ได้ออกแพตช์แก้ไขช่องโหว่เหล่านี้ในเดือนธันวาคม 2025

     

Severity: วิกฤต

      
     

System Impact:

     

  • ChatGPT
  • Gmail (กล่องจดหมาย)
  • Outlook
  • GitHub (พื้นที่เก็บข้อมูลที่เชื่อมต่อ)
  • Jira
  • Teams
  • Google Drive (ไดรฟ์ที่เชื่อมต่อ)
  • ข้อมูลส่วนบุคคล (PII)

      
     

Technical Attack Steps:

     

  1. การฝังคำสั่ง: ผู้โจมตีส่งอีเมลหรือแชร์ไฟล์ที่มีคำสั่งที่เป็นอันตรายที่มองไม่เห็น (เช่น ข้อความสีขาว, ตัวอักษรขนาดเล็ก, หรือในส่วนท้าย)
  2. Zero-Click Server-Side Exfiltration: ChatGPT สแกนกล่องจดหมายระหว่างการทำงานปกติ (เช่น สรุปอีเมล) และรัน Payload ที่ซ่อนอยู่ จากนั้นข้อมูลจะถูกส่งออกผ่านเซิร์ฟเวอร์ของ OpenAI โดยที่ผู้ใช้ไม่ทันสังเกต
  3. One-Click Server-Side Exfiltration: ผู้ใช้เปิดไฟล์ที่ปนเปื้อน ทำให้เกิดการโจมตีแบบลูกโซ่บนพื้นที่เก็บข้อมูลหรือไดรฟ์ที่เชื่อมต่อ
  4. การหลีกเลี่ยงการบล็อก URL แบบไดนามิก: นักวิจัยสามารถเลี่ยงการบล็อกการแก้ไข URL แบบไดนามิกของ OpenAI โดยใช้ URL แบบ Static ที่สร้างไว้ล่วงหน้าสำหรับตัวอักษรแต่ละตัว (a-z, 0-9, $ สำหรับช่องว่าง)
  5. การแปลงข้อมูลและการส่งออก: ChatGPT ทำการแปลง String ที่ละเอียดอ่อน (เช่น ‘Zvika Doe’ เป็น ‘zvikadoe’) และเปิดลิงก์ Static ตามลำดับ (เช่น compliance.hr-service.net/get-public-joke/z) เพื่อส่งออกข้อมูลโดยไม่จำเป็นต้องสร้าง URL แบบไดนามิก
  6. การคงอยู่ของ ZombieAgent: ผู้โจมตีฉีดกฎที่แก้ไขหน่วยความจำของ AI ผ่านไฟล์ ทำให้ ChatGPT ถูกสั่งให้อ่านอีเมลของเป้าหมายและส่งออกข้อมูลก่อนทุกครั้งที่มีการสนทนาใหม่
  7. การแพร่กระจาย: ระบบจะสแกนกล่องจดหมายเพื่อรวบรวมที่อยู่อีเมล และเซิร์ฟเวอร์ของผู้โจมตีจะส่ง Payload ไปยังรายชื่อติดต่อเหล่านั้นโดยอัตโนมัติ เพื่อแพร่กระจายการโจมตีภายในองค์กร

      
     

Recommendations:

     

Short Term:

     

  • เฝ้าระวังพฤติกรรมของ AI Agent และการเชื่อมต่อกับบริการภายนอกอย่างใกล้ชิด
  • ตรวจสอบและทำความสะอาด (Sanitize) ข้อมูลนำเข้าทั้งหมดอย่างเข้มงวด ก่อนที่จะถูกประมวลผลโดย AI

     

Long Term:

     

  • ประเมินและปรับปรุงนโยบายการจัดการสิทธิ์การเข้าถึงข้อมูลสำหรับ AI Connectors เพื่อจำกัดการเข้าถึงข้อมูลที่ไม่จำเป็น
  • จัดให้มีการตรวจสอบความปลอดภัย (Security Audit) อย่างสม่ำเสมอสำหรับระบบ AI ที่มีการเชื่อมต่อกับบริการภายนอก
  • นำมาตรการป้องกันข้อมูลรั่วไหล (DLP) มาใช้และเสริมสร้างให้มีประสิทธิภาพมากขึ้นสำหรับข้อมูลที่ประมวลผลโดย AI

      
     

Source: https://cybersecuritynews.com/chatgpt-vulnerabilities-expose-sensitive-data/

   

Share this content:

Leave a Reply

Your email address will not be published. Required fields are marked *