นักวิจัยด้านความปลอดภัยทางไซเบอร์ได้เปิดเผยรายละเอียดของช่องโหว่การโจมตีแบบ Prompt Injection ทางอ้อมที่พุ่งเป้าไปที่ Google Gemini ซึ่งสามารถหลีกเลี่ยงการควบคุมความเป็นส่วนตัวของ Google Calendar ได้ โดยใช้ Calendar invite ที่มีการฝังโค้ดอันตรายแบบซ่อนไว้ การโจมตีนี้ทำให้สามารถเข้าถึงข้อมูลการประชุมส่วนตัวและการสร้างกิจกรรมในปฏิทินที่หลอกลวงได้โดยไม่ต้องมีการโต้ตอบโดยตรงจากผู้ใช้ ช่องโหว่นี้ได้รับการแก้ไขแล้ว แต่ตอกย้ำถึงความจำเป็นในการประเมินความปลอดภัยของโมเดลภาษาขนาดใหญ่ (LLMs) และระบบ AI อย่างต่อเนื่อง รวมถึงการตรวจสอบช่องโหว่ในระบบ AI อื่นๆ เช่น Google Cloud Vertex AI, Microsoft Copilot และเครื่องมือพัฒนา AI

     

Severity: สูง

      
     

System Impact:

     

  • Google Gemini (AI chatbot)
  • Google Calendar (ถูกบายพาสการควบคุมความเป็นส่วนตัว)
  • Google Cloud Vertex AI’s Agent Engine (ช่องโหว่การยกระดับสิทธิ์)
  • Ray (ช่องโหว่การยกระดับสิทธิ์ภายใน Google Cloud Vertex AI)
  • Microsoft Copilot (เสี่ยงต่อการโจมตี Reprompt เพื่อขโมยข้อมูล)
  • TheLibrarian.io (AI-powered personal assistant tool – CVE-2026-0612, CVE-2026-0613, CVE-2026-0615, and CVE-2026-0616)
  • LLM assistants ที่เน้นการทำงานตามเจตนา (เสี่ยงต่อการดึง System Prompt)
  • Anthropic Claude Code (เสี่ยงต่อปลั๊กอินที่เป็นอันตรายที่สามารถขโมยไฟล์)
  • Cursor (Agentic IDE – CVE-2026-22708 สำหรับการประมวลผลโค้ดระยะไกล)
  • Vibe coding IDEs (เช่น Cursor, Claude Code, OpenAI Codex, Replit, Devin – มีจุดอ่อนในการจัดการ SSRF, Business Logic และการบังคับใช้การอนุญาตเมื่อเข้าถึง API รวมถึงขาดการป้องกัน CSRF, Security Headers และ Login Rate Limiting)

      
     

Technical Attack Steps:

     

  1. ผู้โจมตีสร้างกิจกรรมใน Google Calendar ใหม่
  2. คำอธิบายของ invite นั้นจะมีการฝัง Prompt ภาษาธรรมชาติที่เป็นอันตราย (payload)
  3. invite ที่เป็นอันตรายถูกส่งไปยังผู้ใช้เป้าหมาย
  4. ผู้ใช้สอบถาม Google Gemini ด้วยคำถามที่ดูไม่มีพิษภัยเกี่ยวกับตารางเวลาของตน (เช่น ‘ฉันมีการประชุมในวันอังคารหรือไม่?’)
  5. Gemini จะประมวลผล Prompt ที่เป็นอันตรายจากคำอธิบายกิจกรรมในปฏิทิน
  6. Gemini ถูกหลอกให้สรุปข้อมูลการประชุมส่วนตัวของผู้ใช้และสร้างกิจกรรมใหม่ใน Google Calendar พร้อมกับสรุปข้อมูลนี้
  7. หากการกำหนดค่าปฏิทินขององค์กรอนุญาต กิจกรรมใหม่ (ที่มีข้อมูลส่วนตัวที่ถูกขโมย) จะปรากฏให้ผู้โจมตีเห็น

      
     

Recommendations:

     

Short Term:

     

  • ระมัดระวัง Calendar invite ที่น่าสงสัย แม้จะดูเหมือนปกติก็ตาม
  • หลีกเลี่ยงการคลิกลิงก์หรือโต้ตอบกับเนื้อหาที่ไม่คาดคิดในคำอธิบายกิจกรรมในปฏิทิน
  • ตรวจสอบและปรับการตั้งค่าความเป็นส่วนตัวของ Google Calendar เพื่อจำกัดการมองเห็นกิจกรรมใหม่ๆ แก่บุคคลภายนอก
  • ใช้ความระมัดระวังเมื่อใช้ AI chatbots เช่น Gemini สำหรับงานที่เกี่ยวข้องกับข้อมูลส่วนบุคคลหรือข้อมูลองค์กรที่ละเอียดอ่อน โดยเฉพาะอย่างยิ่งเมื่อมีการรวมเข้ากับแอปพลิเคชันอื่นๆ

     

Long Term:

     

  • องค์กรต้องประเมิน Large Language Models (LLMs) อย่างต่อเนื่องในด้านความปลอดภัยหลัก (เช่น การหลอน, ความถูกต้องของข้อเท็จจริง, อคติ, อันตราย, การต้านทานการ Jailbreak)
  • รักษาความปลอดภัยระบบ AI จากช่องโหว่แบบดั้งเดิม
  • ตรวจสอบบัญชีบริการหรือข้อมูลประจำตัวทั้งหมดที่เชื่อมโยงกับ AI workloads (เช่น Google Cloud Vertex AI’s Agent Engine, Ray)
  • ใช้การควบคุมความปลอดภัยที่แข็งแกร่งเพื่อป้องกันการแทรกโค้ดที่ไม่ได้รับอนุญาตในสภาพแวดล้อมที่ขับเคลื่อนด้วย AI
  • ดูแลให้การกำกับดูแลโดยมนุษย์ยังคงเป็นส่วนสำคัญของการพัฒนาและการใช้งานแอปพลิเคชัน AI โดยเฉพาะอย่างยิ่งสำหรับ Business Logic, กฎการอนุญาต และการตัดสินใจด้านความปลอดภัยที่ซับซ้อน
  • นักพัฒนาที่ใช้ AI coding agents ไม่ควรเชื่อมั่นในตัว AI อย่างสิ้นเชิงในการออกแบบแอปพลิเคชันที่ปลอดภัย ควรมีการให้คำแนะนำด้านความปลอดภัยที่ชัดเจนและการทดสอบอย่างละเอียดถี่ถ้วน
  • ใช้และตรวจสอบ Security Headers, การป้องกัน CSRF และการจำกัดอัตราการล็อกอินในแอปพลิเคชัน แม้แต่แอปพลิเคชันที่พัฒนาโดยใช้ AI ก็ตาม

      
     

Source: https://thehackernews.com/2026/01/google-gemini-prompt-injection-flaw.html

   

Share this content:

Leave a Reply

Your email address will not be published. Required fields are marked *