ช่องโหว่สำคัญในระบบนิเวศของ Google เปิดโอกาสให้ผู้โจมตีสามารถเลี่ยงการควบคุมความเป็นส่วนตัวของ Google Calendar โดยใช้คำเชิญในปฏิทินมาตรฐาน การค้นพบนี้เน้นย้ำถึงภัยคุกคามที่เพิ่มขึ้นในรูปแบบ ‘Indirect Prompt Injection’ ซึ่งคำสั่งที่เป็นอันตรายถูกซ่อนอยู่ในแหล่งข้อมูลที่ถูกต้องตามกฎหมายที่ประมวลผลโดยโมเดลปัญญาประดิษฐ์ (AI) การโจมตีนี้ทำให้สามารถเข้าถึงข้อมูลการประชุมส่วนตัวได้โดยไม่จำเป็นต้องมีการโต้ตอบโดยตรงจากเหยื่อ นอกเหนือจากการรับคำเชิญเท่านั้น
Severity: สูง
System Impact:
- Google ecosystem
- Google Calendar
- Google Gemini (AI model)
Technical Attack Steps:
- 1. **การสร้าง Payload:** ผู้โจมตีสร้างกิจกรรมในปฏิทินและส่งคำเชิญไปยังเป้าหมาย โดยคำอธิบายของกิจกรรมนี้มีคำสั่งภาษาธรรมชาติที่เป็นอันตรายซ่อนอยู่ เช่น สั่งให้ Gemini สรุปตารางเวลาของผู้ใช้สำหรับวันใดวันหนึ่งและบันทึกข้อมูลนั้นลงในกิจกรรมปฏิทินใหม่ชื่อ ‘free’
- 2. **กลไกการกระตุ้น:** Payload ที่เป็นอันตรายจะยังคงอยู่เฉยๆ ในปฏิทินจนกว่าผู้ใช้จะโต้ตอบกับ Gemini ตามปกติ เช่น ถามถึงความพร้อมว่างของตนเอง ในระหว่างกระบวนการนี้ โมเดล AI จะดูดซับคำอธิบายที่เป็นอันตราย และตีความคำสั่งที่ซ่อนอยู่ว่าเป็นคำสั่งที่ถูกต้อง
- 3. **การดึงข้อมูลลับ:** Gemini จะดำเนินการตามคำสั่งที่ถูกฉีดเข้ามาในเบื้องหลัง โดยสร้างกิจกรรมใหม่ที่มีการสรุปตารางเวลาส่วนตัว เนื่องจากผู้สร้างคำเชิญมักจะสามารถดูรายละเอียดกิจกรรมได้ ผู้โจมตีจึงสามารถดูเหตุการณ์ใหม่นี้ได้สำเร็จ และดึงข้อมูลส่วนตัวออกมาโดยที่ผู้ใช้ไม่รู้ตัว
Recommendations:
Short Term:
- ตรวจสอบให้แน่ใจว่าบริการ Google ทั้งหมด โดยเฉพาะ Google Calendar และ Gemini ได้รับการอัปเดตเป็นเวอร์ชันล่าสุดเพื่อรับการแก้ไขช่องโหว่ที่ถูกนำมาใช้
- ระมัดระวังคำเชิญในปฏิทินจากผู้ส่งที่ไม่รู้จักหรือน่าสงสัย แม้ว่าจะดูไม่เป็นอันตรายก็ตาม
- ตระหนักถึงการอนุญาตที่มอบให้กับโมเดล AI ที่เข้าถึงข้อมูลส่วนบุคคล
Long Term:
- องค์กรและผู้ใช้ควรตระหนักถึงลักษณะที่เปลี่ยนแปลงไปของภัยคุกคามด้านความปลอดภัยที่ขับเคลื่อนด้วย AI โดยเฉพาะอย่างยิ่ง ‘Indirect Prompt Injection’
- พัฒนาและใช้กลยุทธ์ความปลอดภัยขั้นสูงที่เน้นการวิเคราะห์เชิงความหมาย (Semantic Analysis) สำหรับโมเดล AI โดยก้าวข้ามการตรวจจับภัยคุกคามเชิงไวยากรณ์ (Syntactic Threat Detection) แบบเดิม
- ติดตามและวิจัยช่องโหว่ใน Large Language Models (LLMs) และระบบ AI แบบบูรณาการอย่างต่อเนื่อง
Source: https://cybersecuritynews.com/gemini-privacy-controls-bypassed/
Share this content: