พบช่องโหว่ระบบ AI ถูกดักฟัง เสี่ยงถูกยึดบัญชี 

ไม่เกิน 80% ของการทำงานในปัจจุบัน มีการนำเครื่องมือ Generative AI เข้ามาเป็นผู้ช่วยหรือเป็นเครื่องมือหลักในการทำงานแต่รู้หรือไม่? การใส่ชุดคำสั่งเสมือนการพูดคุยไปมาระหว่างกันนี้ อาจเพิ่มความเสี่ยงที่ข้อมูลของเราจะ หลุดรั่วออกมาได้เช่นกัน

อย่างไรก็ตาม การใช้ AI เพื่อการทำงานไม่ใช่ประเด็นหลัก ระบบต่างหากที่มีช่องโหว่ทำให้เกิดความเสี่ยงที่จะโดนดักฟังข้อมูล หรือแม้กระทั่งถูกยึดบัญชีใช้งานจากการดึงเครื่องมือ Plugin เข้ามาใช้งาน 

เสี่ยงถูกดักฟัง 

การใช้เครื่องมือ Generative AI อาจถูกดักฟังได้ เรื่องนี้ไม่ได้ไกลตัว เมื่อล่าสุดมีงานวิจัยจาก Offensive AI Research Lab ในอิสราเอล พบว่า การสื่อสารที่เข้ารหัสกับ AI อาจไม่ปลอดภัย 100% เนื่องจากช่องโหว่นี้สามารถอ่านข้อความการตอบกลับที่เข้ารหัส AI ผ่านทางเว็บไซต์ 

ช่องโหว่นี้เกิดจากสาเหตุที่ AI ส่วนใหญ่นั้นใช้ระบบสตรีมมิ่งสำหรับเชื่อมต่อกับโมเดลภาษาขนาดใหญ่ (LLM) โดยนักวิจัยได้ทดสอบช่องโหว่ดังกล่าวใน ChatGPT, Microsoft Copilot  แต่ยกเว้น Google Gemini ที่ยังไม่พบช่องโหว่นี้ ซึ่งนักวิจัยสามารถแปลข้อความตอบกลับจาก AI ได้ถูกต้องมากถึง 29% และสามารถระบุหัวข้อการสนทนาได้ถึง 55% 

ทุกช่องโหว่ย่อมมีจุดเริ่มต้น นักวิจัยพบว่า Token-length side-channel ซึ่งในการประมวลผล ภาษาธรรมชาติ หรือ Natural Language Processing (NLP) โทเค็น (Token) คือ หน่วยความหมายที่เล็กที่สุดของข้อความ ยกตัวอย่างเช่น ประโยคว่า “I have an itchy rash” หรือ “ผมมีผื่นคัน” สามารถแบ่งเป็นโทเค็นได้คือ S = (k1, k2, k3, k4, k5) โดยที่ k1 = I, k2 = have, k3 = an, k4 = itchy, and k5 = rash

และแม้การถอดรหัสในโทเค็นจะไม่ได้ง่าย แต่ก็ถือเป็นช่องโหว่ที่เพิ่มความเสี่ยงได้เช่นกัน

โดนยึดบัญชีเพราะใช้ Plugin AI 

งานวิจัยของ Salt Labs ระบุว่า การใช้ Plugin บน ChatGPT ก็มีความเสี่ยงที่จะถูกแฮ็กยึดบัญชีแพลตฟอร์มได้ สิ่งนี้บ่งชี้ถึงความบกพร่องของระบบความปลอดภัยของแพลตฟอร์ม Generative AI ที่มีผู้คนใช้งานมากที่สุดในโลก 

ทั้งนี้ Plug-in คือเครื่องมือที่ถูกออกแบบมาเพื่อทำงานบนระบบหรือแพลตฟอร์มต่าง ๆ เช่น หากใครใช้ Figma ออกแบบ UX\UI แล้วต้องการใส่รูปไอคอนบนหน้าเว็บไซต์ที่ตนออกแบบ อาจจะดึงเครื่องมือ( Plug-in) ที่รวมไอคอนไว้เข้ามาใช้งาน เป็นต้น 

งานวิจัยยังระบุว่า ข้อบกพร่องด้านความปลอดภัยที่พบนี้อยู่บน ChatGPT และภายใน Ecosystem ซึ่ง อาจทำให้ผู้โจมตีติดตั้งปลั๊กอินที่เป็นอันตราย โดยไม่ได้รับความยินยอมจากผู้ใช้และบัญชีบนเว็บไซต์อื่นเช่น GitHub

ด้วยเหตุนี้ OpenAI จึงได้แนะนำ Custom GPTs  ซึ่งเป็น ChatGPT เวอร์ชันที่ออกแบบตามความต้องการซึ่งปรับแต่งให้เหมาะกับกรณีการใช้งานเฉพาะ ในขณะเดียวกันก็ลดการพึ่งพาบริการ Plugin จากเว็บไซต์หรือซอฟต์แวร์นอกระบบ OpenAI  ทำให้ตั้งแต่วันที่ 19 มีนาคม 2024 ที่ผ่านมา ผู้ใช้ ChatGPT จะไม่สามารถติดตั้งปลั๊กอินใหม่ได้อีกต่อไป

Salt Labs ค้นพบช่องโหว่ในระบบ OAuth (Open Authentication) หรือ มาตรฐานการยืนยันตัวตนแบบเปิด ทำให้ผู้ไม่หวังดีล่อลวงให้ผู้ใช้ติดตั้งปลั๊กอินที่เป็นอันตรายได้ เนื่องจาก ChatGPT ไม่มีการตรวจสอบว่า ผู้ใช้งานเป็นคนเริ่มต้นติดตั้งปลั๊กอินด้วยตนเองจริงหรือไม่ ทำให้เกิดความเสี่ยงที่ข้อมูลของผู้ใช้อาจถูกขโมยและนำออกไปใช้ ซึ่งอาจรวมถึงข้อมูลที่เป็นความลับขององค์กร กรณีใช้บัญชีธุรกิจ 

Salt Labs ยังพบปัญหาในส่วนของระบบ PluginLab  ของ ChatGPT ซึ่งอาจเปิดช่องให้แฮ็กเกอร์ ทำการโจมตีแบบ Zero-click เพื่อยึดบัญชีของเหยื่อ นอกจากนี้แฮ็กเกอร์ยังสามารถเข้าถึงบัญชีจากเว็บไซต์ภายนอก เช่น GitHub และเข้าถึง Source Code ได้

นักวิจัยด้านความปลอดภัย Aviad Carmel อธิบายเพิ่มเติมว่า ปัญหาดังกล่าวมาจาก Endpoint (อุปกรณ์ที่ใช้สำหรับรับ-ส่งข้อมูล ผ่านทางระบบเครือข่าย เช่น โทรศัพท์มือถือ) ชื่อ ‘auth.pluginlab[.]ai/oauth/authorized’ ไม่ทำการยืนยันตัวตนผู้ร้องขอ ทำให้ผู้โจมตีสามารถสอดแทรก member Id เพื่อรับรหัสที่ใช้แทนเหยื่อได้ จากนั้นก็จะสามารถใช้ ChatGPT เข้าถึงบัญชี GitHub ของเหยื่อได้ทันที

เทคโนโลยี AI ยังคงต้องการเวลาสำหรับพัฒนาให้มีความเสถียรและปลอดภัยมากขึ้น เพราะแม้จะมีช่องโหว่เพียงเล็กน้อย ก็สามารถสร้างความเสียในวงกว้างได้เช่นกัน ที่สำคัญไม่ควรที่จะมองข้ามปัญหาเหล่านี้ 

ที่มา: The Hacker News, TechSpot

สอบถามข้อมูลผลิตภัณฑ์ “OneFence”

Tel. : 061-462-6414, 02-103-6462

Line : @securitypitch

Email : [email protected]

บทความที่น่าสนใจ