แสดงบทความที่มีป้ายกำกับ AI แสดงบทความทั้งหมด
แสดงบทความที่มีป้ายกำกับ AI แสดงบทความทั้งหมด

23/02/2567

ทีมผู้เชี่ยวชาญด้านความปลอดภัยของ Microsoft และ OpenAI แจ้งเตือนการพบผู้ไม่ประสงค์ดีกำลังใช้ AI ในการโจมตีทางไซเบอร์


    ผู้เชี่ยวชาญด้านความปลอดภัยพบกลุ่มผู้ไม่ประสงค์ดีที่เกี่ยวข้องกับรัฐบาลรัสเซีย เกาหลีเหนือ อิหร่าน และจีน กำลังทดลองใช้ปัญญาประดิษฐ์ (AI) และแบบจำลองภาษาขนาดใหญ่ (LLM) เพื่อเสริมการโจมตีทางไซเบอร์ การค้นพบนี้มาจากรายงานที่เผยแพร่โดย Microsoft ร่วมกับ OpenAI สองรายงานระบุว่า พวกเขาสามารถยับยั้งความพยายามของหน่วยงานในเครือข่ายของรัฐ 5 รายที่ใช้บริการ AI เพื่อทำการโจมตีทางไซเบอร์ที่เป็นอันตรายโดยการระงับบัญชี
    ไมโครซอฟต์ระบุในรายงานว่า "ฟีเจอร์การสนับสนุนทางด้านภาษาเป็นคุณลักษณะปกติของ LLM และทำให้น่าสนใจสำหรับกลุ่มผู้โจมตีที่มุ่งเน้นการโจมตีแบบ social engineering และเทคนิคอื่น ๆ โดยอาศัยการสื่อสาร และการหลอกลวงซึ่งปรับให้เหมาะกับงานของเป้าหมาย เครือข่ายวิชาชีพ และความสัมพันธ์อื่น ๆ”
    แม้ว่าในปัจจุบันจะไม่มีการตรวจพบการโจมตีที่เด่นชัด หรือการโจมตีรูปแบบใหม่ที่ใช้ LLM แต่การทดลองใช้เทคโนโลยี AI ของกลุ่มผู้โจมตี ได้ทำให้สามารถข้ามขั้นตอนต่าง ๆ ของการโจมตีตามปกติได้ เช่น reconnaissance, การสร้างโค้ดสำหรับการโจมตี และการพัฒนามัลแวร์
    โดย OpenAI ระบุว่า "พบผู้โจมตีกำลังใช้บริการ OpenAI เพื่อค้นหาข้อมูลเกี่ยวกับโอเพ่นซอร์ส การแปลภาษา ค้นหาข้อผิดพลาดในการเขียนโค้ด และใช้งานการเขียนโค้ดขั้นพื้นฐาน” ตัวอย่างเช่น กลุ่มผู้โจมตีจากรัสเซียที่ถูกติดตามในชื่อ Forest Blizzard (aka APT28) ถูกระบุว่ากำลังทำการวิจัยโอเพ่นซอร์สเกี่ยวกับโปรโตคอลการสื่อสารผ่านดาวเทียม และเทคโนโลยีการถ่ายภาพเรดาร์ตลอดจนการเขียน Script ต่าง ๆ
กลุ่มแฮ็กเกอร์ที่มีชื่อเสียงอื่น ๆ ที่ถูกพบพฤติกรรมดังกล่าว
    Emerald Sleet (หรือที่รู้จักในชื่อ Kimusky) กลุ่มผู้โจมตีจากเกาหลีเหนือ ได้ใช้ LLM เพื่อระบุผู้เชี่ยวชาญ, หน่วยงาน think tanks และองค์กรที่มุ่งเน้นด้านการป้องกันในภูมิภาคเอเชียแปซิฟิก, ค้นหาช่องโหว่ที่ถูกเปิดเผยออกสู่สาธารณะ, ช่วยเหลือในการเขียนสคริปต์ขั้นพื้นฐาน และร่างเนื้อหาที่สามารถนำไปใช้ในแคมเปญฟิชชิ่งได้
    Crimson Sandstorm (หรือที่รู้จักในชื่อ Imperial Kitty) กลุ่มผู้โจมตีจากอิหร่านที่ใช้ LLM เพื่อสร้างตัวอย่างโค้ดที่เกี่ยวข้องกับการพัฒนาแอป และเว็บ สร้างอีเมลฟิชชิ่ง และค้นคว้าวิธีการทั่วไปที่มัลแวร์สามารถหลบเลี่ยงการตรวจจับได้
    Charcoal Typhoon (หรือที่รู้จักในชื่อ Aquatic Panda) กลุ่มผู้โจมตีจากจีนซึ่งใช้ LLM เพื่อวิจัยบริษัท และช่องโหว่ต่าง ๆ, สร้างสคริปต์, สร้างเนื้อหาที่น่าจะนำไปใช้ในแคมเปญฟิชชิ่ง และระบุเทคนิคสำหรับพฤติกรรมหลังการโจมตีระบบเป้าหมายได้สำเร็จ
    Salmon Typhoon (หรือที่รู้จักในชื่อ Maverick Panda) กลุ่มผู้โจมตีจากจีนที่ใช้ LLM ในการแปลเอกสารทางเทคนิค, ดึงข้อมูลที่เปิดเผยต่อสาธารณะเกี่ยวกับหน่วยข่าวกรองหลายแห่ง และกลุ่มผู้โจมตีในภูมิภาคม แก้ไขข้อผิดพลาดในการเขียนโค้ด และค้นหากลยุทธ์เพื่อหลบเลี่ยงการตรวจจับ
    Microsoft ระบุว่ากำลังกำหนดหลักการเพื่อลดความเสี่ยงที่เกิดจากการใช้เครื่องมือ AI และ API ในทางที่เป็นอันตรายโดยกลุ่มผู้โจมตีระดับสูงที่ได้รับการสนับสนุนจากรัฐบาลต่าง ๆ (APTs) และกลุ่มอาชญากรในโลกไซเบอร์ และสร้างแนวป้องกัน และความปลอดภัยที่มีประสิทธิภาพ รวมถึงการระบุตัวตน และการดำเนินการแจ้งเตือนการใช้งานของกลุ่มผู้โจมตีที่เป็นอันตรายไปยังผู้ให้บริการ AI รายอื่น

21/08/2566

AI สามารถขโมยรหัสผ่านจากการฟังเสียงกดแป้นพิมพ์ที่มีความแม่นยําสูงเกือบ 100%


    นักวิจัยจากมหาวิทยาลัยคอร์เนล ค้นพบวิธีการใหม่ในการใช้เครื่องมือ AI หรือปัญญาประดิษฐ์ ในการขโมยข้อมูลจากการฟังเสียงกดบนแป้นพิมพ์ที่มีความแม่นยําสูงถึง 95% นักวิจัยได้ฝึกโมเดล AI เกี่ยวกับเสียงการกดแป้นพิมพ์ และติดตั้งบนโทรศัพท์ที่อยู่ใกล้ไมโครโฟนในตัว เมื่อทดสอบกับเสียงกดแป้นพิมพ์บน MacBook Pro สามารถถอดรหัสด้วยความแม่นยำสูงถึง 95% เป็นความแม่นยำสูงสุดที่นักวิจัยเคยพบ โดยไม่ต้องใช้ large language model (LLM)
 นอกจากนี้ยังมีการทดสอบความแม่นยำในการฟังเสียงแป้นพิมพ์ฝ่ายตรงข้ามผ่านการประชุมออนไลน์ผ่าน Zoom โดยมีความแม่นยำสูงถึง 93% ส่วนใน Skype พบความแม่นยำที่ 91.7% อย่างไรก็ตาม ระดับเสียงการกดแป้นพิมพ์นั้นแทบไม่มีผลกับความแม่นยำ โดยโมเดล AI ได้รับการฝึกตามรูปแบบคลื่นเสียง ทั้งน้ำหนักการกดแป้นพิมพ์ หรือระยะห่างของเวลาในการกดแต่ละครั้ง และขึ้นอยู่กับสไตล์การพิมพ์ของแต่ละคน
  ในการโจมตีนี้แฮ็กเกอร์อาจส่งมัลแวร์ไปติดตั้งในโทรศัพท์ หรืออุปกรณ์อื่น ๆ เพื่อรวบรวมข้อมูลจากการกดแป้นพิมพ์ และป้อนลงในโมเดล AI โดยฟังจากไมโครโฟนของอุปกรณ์ นักวิจัยใช้ CoAtNet ซึ่งเป็นตัวจำแนกภาพ AI สำหรับการโจมตี และฝึกโมเดลด้วยการกดแป้นพิมพ์ในแต่ละแถว 25 ครั้ง ไล่ทีละแถวจนครบ 36 ปุ่มบนแป้นพิมพ์ที่รวมถึงสัญลักษณ์ และตัวเลขของ MacBook Pro ด้วยการใช้นิ้ว และน้ำหนักมือที่แตกต่างกัน

    Bleeping Computer รายงานวิธีแก้ไขการโจมตีในลักษณะนี้ โดยการหลีกเลี่ยงการพิมพ์รหัสผ่าน และให้ใช้ประโยชน์จากคุณสมบัติต่าง ๆ เช่น Windows Hello และ Touch ID รวมทั้งยังสามารถลงทุนใช้เครื่องมือการจัดการรหัสผ่าน ซึ่งไม่เพียงแต่หลีกเลี่ยงภัยคุกคามจากการพิมพ์รหัสผ่านเท่านั้น แต่ยังช่วยให้ผู้ใช้งานสามารถใช้รหัสผ่านแบบสุ่มสำหรับทุกบัญชีได้อีกด้วย
    อย่างไรก็ตาม นักวิจัยแนะนำให้การสร้างรหัสผ่านนั้นมีทั้งตัวอักษรเล็ก และใหญ่ปะปนกัน เพราะ AI ยังไม่สามารถแยกได้ว่าการกดนั้นมีการกดปุ่มชิฟต์ (Shift) หรือไม่ แต่ด้วยวิธีการวิจัยของทีมจากอังกฤษก็เป็นข้อบ่งชี้ที่เพียงพอว่าการใช้ AI ดักฟังรหัสผ่านจากเสียงกดแป้นพิมพ์นั้นมีแนวโน้มเกิดขึ้นได้จริง ๆ