แอปพลิเคชัน AI เปิดช่องโหว่ด้านความปลอดภัยใหม่

แอปพลิเคชัน AI ความปลอดภัยของแอปพลิเคชันมาไกลในช่วงสองสามทศวรรษที่ผ่านมา ในช่วงต้นทศวรรษ 2000 การโจมตีด้วย SQL Injection และ Cross Site Scripting (XSS) เป็นฝันร้ายสำหรับทีมรักษาความปลอดภัยทางไซเบอร์ เนื่องจากผู้โจมตีสามารถข้ามผ่านไฟร์วอลล์เครือข่ายผ่านการโจมตีที่ชั้นแอปพลิเคชันได้อย่างง่ายดาย เนื่องจากไฟร์วอลล์เครือข่ายแบบดั้งเดิมในเวลานั้นไม่รับรู้ถึงแอปพลิเคชัน การโจมตีเหล่านี้จึงพิสูจน์ให้เห็นถึงจุดบอดที่ทำให้ผู้โจมตีสามารถโจมตีเว็บแอปพลิเคชันได้อย่างง่ายดาย 

อุตสาหกรรมฟื้นตัวอย่างรวดเร็ว อย่างไรก็ตาม ไฟร์วอลล์ของเว็บแอปพลิเคชัน (WAF) และการตรวจสอบความปลอดภัยของซอร์สโค้ดกลายเป็นส่วนมาตรฐานของการตรวจสอบความปลอดภัยทางไซเบอร์ส่วนใหญ่ ตอนนี้เรามี DevSecOps ที่ทำการตรวจสอบเหล่านี้โดยอัตโนมัติภายในไปป์ไลน์ CI/CD เพื่อให้การรักษาความปลอดภัยเป็นไปอย่างรวดเร็วด้วย โซลูชันการทดสอบความปลอดภัยของ แอปพลิเคชันแบบไดนามิก (DAST) และการทดสอบความปลอดภัยของแอปพลิเคชันแบบคงที่ (SAST) ที่กลายเป็นเรื่องธรรมดา

อย่างไรก็ตาม เทรนด์ใหม่กำลังเพิ่มขึ้นซึ่งอาจเป็นจุดบอดอีกจุดหนึ่งได้ เช่น การฉีด SQL ในทศวรรษที่ผ่านมา เว้นแต่จะมีการควบคุม 

การโจมตีเหล่านี้มีเป้าหมายที่ AI และระบบการเรียนรู้ของเครื่อง 

ระบบ AI และการเรียนรู้ของเครื่อง 

AI และแมชชีนเลิร์นนิงเป็นหนึ่งในเทคโนโลยีที่ก่อกวนได้ง่ายที่สุดในช่วงไม่กี่ปีที่ผ่านมา และกำลังถูกนำไปใช้ทั่วโลกโดยบริษัทและรัฐบาล แม้แต่ผลิตภัณฑ์ด้านความปลอดภัยในโลกไซเบอร์ก็กำลังอวดอ้างป้าย “ขับเคลื่อนโดย AI” เนื่องจากใช้อัลกอริธึมการเรียนรู้ของเครื่องเพื่อเพิ่มขีดความสามารถและหยุดการโจมตีทางไซเบอร์แบบเรียลไทม์โดยไม่ต้องป้อนข้อมูลจากมนุษย์ 

โมเดลเหล่านี้ได้รับการฝึกฝนเกี่ยวกับข้อมูลเพื่อสร้างความสามารถในการตัดสินใจ คล้ายกับวิธีที่มนุษย์เรียนรู้จากการลองผิดลองถูก โดยพื้นฐานแล้ว ยิ่งโมเดลแมชชีนเลิร์นนิงได้รับการฝึกอบรมเกี่ยวกับข้อมูลมากเท่าใด ก็ยิ่งมีความแม่นยำมากขึ้นเท่านั้น เมื่อเห็นว่าเหมาะสมสำหรับการผลิตแล้ว โมเดลเหล่านี้จะถูกวางไว้ด้านหลังแอปพลิเคชันซึ่งโดยทั่วไปจะเปิดเผย API สาธารณะ ซึ่งสามารถสอบถามผลลัพธ์ได้ 

อย่างไรก็ตาม การนำแอปพลิเคชันเหล่านี้ไปใช้ในอุตสาหกรรมที่ละเอียดอ่อน เช่น งานบริการ การแพทย์ และการเงิน รวมถึงการเข้าถึงข้อมูลการฝึกอบรมที่ละเอียดอ่อน ทำให้แอปพลิเคชันเหล่านี้ตกเป็นเป้าหมายหลักสำหรับผู้โจมตี ด้วยเหตุนี้ การโจมตีรูปแบบใหม่จึงกำลังพัฒนาโดยกำหนดเป้าหมายไปที่การทำงานของแอปพลิเคชันแมชชีนเลิร์นนิง

เหตุใด AI จึงเป็นจุดบอดในการรักษาความปลอดภัยทางไซเบอร์ 

โดยทั่วไปแล้วทีมรักษาความปลอดภัยทางไซเบอร์จะประเมินแอปพลิเคชัน AI ผ่านกระบวนการรักษาความปลอดภัยแบบดั้งเดิม เช่น การชุบแข็ง การแพตช์ การประเมินช่องโหว่ ฯลฯ การดำเนินการเหล่านี้จะดำเนินการที่ระดับโครงสร้างพื้นฐานและแอปพลิเคชัน แม้ว่านี่จะเป็นแนวทางปฏิบัติที่ดี แต่กระบวนการรับประกันเหล่านี้ไม่ครอบคลุมถึงการโจมตีเฉพาะของ AI เช่น พิษของข้อมูล การอนุมานสมาชิก การหลีกเลี่ยงแบบจำลอง เป็นต้น 

ในการโจมตีประเภทนี้ อาชญากรไซเบอร์ไม่สนใจที่จะประนีประนอมโครงสร้างพื้นฐานพื้นฐานหรือดำเนินการฉีด SQL แต่จะจัดการกับวิธีการที่แอปพลิเคชัน AI และการเรียนรู้ของเครื่องเข้าถึงการตัดสินใจ 

สิ่งนี้ทำให้พวกเขาสามารถ: 

  1. รบกวนการทำงานของแอพพลิเคชั่น AI และทำให้ตัดสินใจผิดพลาด 
  2. ค้นหาว่าโมเดลทำงานอย่างไร เพื่อที่พวกเขาจะได้ทำวิศวกรรมย้อนกลับสำหรับการโจมตีเพิ่มเติม 
  3. ค้นหาว่าโมเดลได้รับการฝึกอบรมเกี่ยวกับข้อมูลใด โดยเปิดเผยลักษณะเฉพาะที่ละเอียดอ่อนที่พวกเขาไม่ควรรู้ 

การโจมตีเหล่านี้เพิ่มจำนวนขึ้นเรื่อย ๆ และประสบความสำเร็จกับแอปพลิเคชัน AI ที่ใช้การผลิตซึ่งแสดงไว้ที่  นี่

ให้เรามาดูการโจมตีที่พบบ่อยที่สุดบางส่วน เช่น การอนุมาน การหลบหลีก และการวางยาพิษ และวิธีที่เราจะทำให้แอปพลิเคชัน ML ของเราแข็งกระด้างต่อการโจมตีเหล่านั้น แอปพลิเคชัน AI

การโจมตีโดยอนุมาน 

ในระหว่างการโจมตีโดยอนุมานในแอปพลิเคชัน AI ผู้โจมตีจะพยายามค้นหาการทำงานภายในของแบบจำลองหรือประเภทของข้อมูลที่ใช้ในการฝึกฝน API ที่เปิดเผยโดยโมเดล ML อาจให้การตอบสนองเป็นคะแนนความเชื่อมั่นและให้คะแนนที่เข้มข้นกว่าหากข้อมูลที่ป้อนตรงกับข้อมูลที่ได้รับการฝึกอบรม ด้วยการเข้าถึง API นี้ ผู้โจมตีสามารถเริ่มเรียกใช้การค้นหาและวิเคราะห์การตอบสนองจากโมเดลแมชชีนเลิร์นนิง ในตัวอย่าง หนึ่ง ผู้โจมตีสามารถสร้างใบหน้าที่ใช้ในการฝึกโมเดลแมชชีนเลิร์นนิงขึ้นใหม่โดยการวิเคราะห์อัตราความเชื่อมั่นของรูปภาพต่างๆ ที่ส่งเข้ามา ด้วยการส่งภาพแบบสุ่มหลายภาพและดูการตอบสนอง ผู้โจมตีสามารถสร้างภาพการฝึกขึ้นใหม่ด้วยความแม่นยำสูงถึง 95% 

การโจมตีในลักษณะนี้อาจส่งผลให้โมเดล AI เปิดเผยข้อมูลที่มีความละเอียดอ่อนสูง โดยเฉพาะอย่างยิ่งในอุตสาหกรรมที่เกี่ยวข้องกับข้อมูลส่วนบุคคลที่สามารถระบุตัวบุคคลได้ บริษัทส่วนใหญ่ไม่สร้างโมเดลแมชชีนเลิร์นนิงตั้งแต่เริ่มต้น และมักจะใช้โมเดลที่สร้างไว้ล่วงหน้าซึ่งโฮสต์บนแพลตฟอร์มคลาวด์ การโจมตีที่ประสบความสำเร็จกับรูปแบบใดรูปแบบหนึ่งสามารถช่วยให้ผู้โจมตีสามารถประนีประนอมแอปพลิเคชัน AI หลายตัวในการโจมตีห่วงโซ่อุปทานได้ 

พิษโจมตี 

การโจมตีอีกครั้งอาจเกิดขึ้นกับข้อมูลการฝึกอบรมจริง ซึ่งผู้โจมตีสามารถ “ก่อกวน” ข้อมูลที่โมเดลกำลังได้รับการฝึกฝนเพื่อแทรกแซงการตัดสินใจ เช่นเดียวกับโมเดลที่สร้างไว้ล่วงหน้า บริษัทส่วนใหญ่ไม่ต้องการสร้างข้อมูลการฝึกอบรมตั้งแต่เริ่มต้น และมักจะใช้ประโยชน์จากข้อมูลการฝึกอบรมที่สร้างไว้ล่วงหน้า ซึ่งเรียกใช้ผ่านโมเดลการเรียนรู้ของเครื่อง หากผู้โจมตีสามารถบุกรุกที่เก็บข้อมูลนี้ผ่านช่องโหว่ด้านความปลอดภัยและแทรกข้อมูลของตัวเองเข้าไปในที่เก็บข้อมูลนี้ โมเดลการเรียนรู้ของเครื่องจะได้รับการฝึกให้ยอมรับการป้อนข้อมูลที่เป็นอันตรายตั้งแต่เริ่มต้น ตัวอย่างเช่น ผู้โจมตีสามารถป้อนข้อมูลลงในที่เก็บข้อมูลของรถยนต์ที่ขับเคลื่อนด้วยตนเองซึ่งฝึกให้รู้จักวัตถุขณะขับรถ โดยการเปลี่ยนฉลากของข้อมูล การทำงานจริงของยานพาหนะอาจถูกแก้ไขได้ 

ผู้โจมตีมักจะรอเวลาและรอให้ที่เก็บข้อมูลได้รับการยอมรับจากตลาดในระดับหนึ่งก่อนที่จะพยายาม “วางยา” พวกเขา การฝึกอบรมแบบจำลองไม่ใช่กิจกรรมที่ทำเพียงครั้งเดียว ที่เก็บข้อมูลอาจสมบูรณ์ดีในตอนเริ่มต้น จากนั้นจึงถูกโจมตีโดยผู้โจมตีในภายหลัง เมื่อพวกเขามั่นใจว่าจะไม่ถูกตรวจพบ 

หลบหลีกการโจมตี 

การโจมตีระบบ AI อีกอย่างหนึ่งคือการโจมตีแบบหลบหลีก ซึ่งผู้โจมตีพยายามหลอกล่อโมเดลด้วยการให้ข้อมูลที่เปลี่ยนแปลงอย่างละเอียด ได้รับการพิสูจน์แล้วว่าการเปลี่ยนแปลงเพียงเล็กน้อยกับภาพที่มนุษย์มองไม่เห็นอาจส่งผลให้โมเดลแมชชีนเลิร์นนิงตัดสินใจแตกต่างกันอย่างมาก ประเภทข้อมูลนี้เรียกว่าตัวอย่างฝ่ายตรงข้ามและสามารถหลอกระบบที่ขับเคลื่อนด้วย AI เช่น แอปพลิเคชันการจดจำใบหน้าหรือรถยนต์ที่ขับเคลื่อนด้วยตัวเอง 

ตัวอย่างเช่น การแปะเทปลงบนป้ายหยุดอาจส่งผลให้โมเดลการเรียนรู้ของเครื่องไม่รู้จักป้ายนั้น ซึ่งอาจทำให้เกิดอุบัติเหตุทางรถยนต์ได้ หรือหลอกลวงระบบการแพทย์เพื่อวัตถุประสงค์ในการฉ้อโกง 

ทางข้างหน้า 

การโจมตีโดยใช้ AI กลายเป็นเรื่องธรรมดา มากขึ้น และทีมรักษาความปลอดภัยทางไซเบอร์จำเป็นต้องเพิ่มทักษะเพื่อทำความเข้าใจกับการโจมตีแอปพลิเคชันสายพันธุ์ใหม่นี้ ในการแข่งขัน Machine Learning Security Evasion Competition (MLSEC 2022) ในปีนี้ แสดงให้เห็นว่าการหลบเลี่ยงโมเดลการจดจำใบหน้าผ่านการเปลี่ยนแปลงเล็กน้อยนั้นทำได้ง่ายเพียงเล็กน้อย

ทีมรักษาความปลอดภัยทางไซเบอร์จำเป็นต้องมีทักษะและตระหนักถึงการโจมตีเหล่านี้ เพื่อให้สามารถเน้นในเชิงรุกในการตรวจสอบการออกแบบเบื้องต้น ทรัพยากรอย่างMITER ATLASซึ่งอธิบายว่าตัวเองเป็นฐานความรู้ของการโจมตีต่อโมเดลแมชชีนเลิร์นนิง เป็นทรัพยากรที่ยอดเยี่ยมสำหรับทีมในการเร่งความเร็วอย่างรวดเร็ว แอปพลิเคชัน AI

ดังที่ได้กล่าวไว้ก่อนหน้านี้ การควบคุมความปลอดภัยทางไซเบอร์แบบดั้งเดิมจะไม่ป้องกันช่องโหว่เหล่านี้ และจำเป็นต้องมีการควบคุมประเภทใหม่ เช่นเดียวกับการที่ความปลอดภัยของแอปพลิเคชันพัฒนาและกลายเป็นโดเมนแยกต่างหากภายในความปลอดภัยทางไซเบอร์ ความปลอดภัยของ AI จำเป็นต้องทำเช่นเดียวกันอย่างรวดเร็ว แอปพลิเคชัน AI มีส่วนร่วมในการตัดสินใจที่สำคัญในอุตสาหกรรมต่างๆ เช่น การดูแลสุขภาพ สถาบันการเงิน และการบังคับใช้กฎหมาย และนำเสนอเป้าหมายสำคัญสำหรับผู้โจมตีทางไซเบอร์ 

เนื่องจากไม่มีแพตช์ด่วนสำหรับแก้ไขปัญหาเหล่านี้ จึงจำเป็นต้องพัฒนาวัฒนธรรมด้านความปลอดภัยของ AI เพื่อให้มีการใช้การควบคุมเหล่านี้ในหลายระดับ การควบคุมหลักบางส่วนที่สามารถนำไปใช้ได้ ได้แก่: 

  • การสร้างแบบจำลองภัยคุกคามของโมเดลแมชชีนเลิร์นนิงควรดำเนินการและสร้างแนวทางปฏิบัติที่เป็นมาตรฐานก่อนที่จะเลือกโมเดลใหม่หรือโมเดลที่สร้างไว้ล่วงหน้า หลักเกณฑ์เช่น National Cyber ​​Security Center ของสหราชอาณาจักรมีแหล่งข้อมูลเช่น ” หลักการเพื่อความปลอดภัยของแมชชีนเลิ ร์นนิง ” เป็นจุดอ้างอิงที่ดี 
  • การควบคุมการตรวจจับจำเป็นต้องอัปเดตเพื่อแจ้งเตือนหากผู้โจมตีเจาะจงค้นหา API การเรียนรู้ของเครื่องนั้นๆ ซ้ำๆ นี่อาจบ่งบอกถึงการโจมตีโดยอนุมาน 
  • นางแบบควรได้รับการชุบแข็งเพื่อฆ่าเชื้อคะแนนความมั่นใจในคำตอบ ความสมดุลระหว่างความสามารถในการใช้งานและความปลอดภัยจำเป็นต้องเกิดขึ้น โดยนักพัฒนาอาจได้รับรายละเอียดคะแนนความเชื่อมั่นเต็มจำนวน ในขณะที่ผู้ใช้ปลายทางต้องการเพียงคะแนนสรุปเท่านั้น สิ่งนี้จะเพิ่มความยากลำบากอย่างมากสำหรับผู้โจมตีในการประเมินตรรกะหรือข้อมูลพื้นฐานที่โมเดลได้รับการฝึกอบรม
  • โมเดลแมชชีนเลิร์นนิงควรได้รับการฝึกฝนกับตัวอย่างฝ่ายตรงข้ามเพื่อประเมินความยืดหยุ่นต่อการโจมตีดังกล่าว การนำโมเดลดังกล่าวไปใช้ตั้งแต่เนิ่นๆ ทำให้บริษัทต่างๆ สามารถระบุช่องว่างในการเรียนรู้และแก้ไขสิ่งเดียวกันได้อย่างรวดเร็ว 
  • ที่เก็บข้อมูลที่ใช้ในการฝึกโมเดลแมชชีนเลิร์นนิงควรผ่านการทดสอบความปลอดภัยอย่างเข้มงวดเพื่อให้แน่ใจว่าไม่มีช่องโหว่ที่อาจทำให้การโจมตีเข้าถึงข้อมูลและวางยาพิษได้ ในทำนองเดียวกัน ข้อมูลที่ “สะอาด” ในคราวเดียวอาจถูกพิษในภายหลัง ดังนั้นจึงจำเป็นอย่างยิ่งที่จะต้องตรวจสอบว่าแบบจำลองทำงานอย่างถูกต้องทุกครั้งที่รีเฟรชข้อมูลการฝึกอบรมหรือได้รับการฝึกฝนเกี่ยวกับข้อมูลใหม่ ทีมงานคุณภาพควรให้แบบจำลองผ่านการทดสอบต่างๆ และตรวจสอบผลลัพธ์ก่อนหน้านี้เพื่อให้แน่ใจว่าแบบจำลองยังคงทำงานได้อย่างเหมาะสมและไม่มี “พิษ” เกิดขึ้น 
  • ประการสุดท้าย บริษัทควรมีนโยบายเกี่ยวกับการใช้ข้อมูลสาธารณะหรือข้อมูลโอเพ่นซอร์สสำหรับการฝึกอบรม แม้ว่าจะใช้งานได้ง่ายกว่าสำหรับโมเดลการฝึก การประนีประนอมของที่เก็บข้อมูลอาจทำให้โมเดลเสียหายในการฝึกได้ 

เป็นที่ชัดเจนว่าการโจมตีด้วย AI นั้นมีแนวโน้มที่จะเพิ่มขึ้นตามเวลาเท่านั้น และความตระหนักในหมู่ทีมรักษาความปลอดภัยทางไซเบอร์ก็ขาดความตระหนักอยู่ในขณะนี้ เว้นแต่จะมีการควบคุมทางเทคนิคและการกำกับดูแลที่เหมาะสม การโจมตีเหล่านี้จะสร้างความหายนะแบบเดียวกับที่การฉีด SQL เมื่อสองสามทศวรรษก่อนแท็ก

Face-sso (By K&O) หากท่านสนใจ เครื่องสแกนใบหน้ารุ่นต่างๆ หลากหลายรุ่น หรือ ติดตั้งระบบสแกนใบหน้า สามารถติดต่อสอบถามได้โดยตรง เรามีแอดมินคอยคอบคำถาม 24 ชั้วโมงที่ Line OA เครื่องสแกนใบหน้า สามารถ ขอราคาพิเศษได้ ตามงบประมาณที่เหมาะสม สอบถามได้สบายใจทั้ง เรื่องค่าบริการ ราคา และ งบประมาณ มั่นใจเพราะเป็นราคาที่สุด คุ้มค่าที่สุด

หากท่านมีความสนใจ บทความ หรือ Technology สามารถติดต่อได้ตามเบอร์ที่ให้ไว้ด้านล่างนี้
Tel.086-594-5494
Tel.095-919-6699

ใส่ความเห็น

อีเมลของคุณจะไม่แสดงให้คนอื่นเห็น ช่องข้อมูลจำเป็นถูกทำเครื่องหมาย *