คำเตือนด้านความปลอดภัย: เซิร์ฟเวอร์ที่ถูกเปิดเผยทำให้แฮ็กเกอร์สามารถใช้ประโยชน์จากโมเดล AI แบบโอเพนซอร์สเพื่อการใช้งานที่ผิดกฎหมาย

2026-01-30
คำเตือนด้านความปลอดภัย: เซิร์ฟเวอร์ที่ถูกเปิดเผยทำให้แฮ็กเกอร์สามารถใช้ประโยชน์จากโมเดล AI แบบโอเพนซอร์สเพื่อการใช้งานที่ผิดกฎหมาย

AI แบบเปิดโอเพนซอร์ซได้ทำให้การสร้างนวัตกรรมเกิดขึ้นอย่างรวดเร็วอย่างไม่เคยมีมาก่อน การปรับใช้ที่มีน้ำหนักเบา การอนุมานในท้องถิ่น และการพัฒนาที่ขับเคลื่อนโดยชุมชนได้ลดอุปสรรคในการเข้าถึงสำหรับนักพัฒนาทั่วโลก อย่างไรก็ตาม ความเปิดกว้างนี้ในขณะนี้กำลังเปิดเผยแนวปัญหาที่สำคัญ

นักวิจัยด้านความปลอดภัยไซเบอร์กำลังส่งสัญญาณเตือนหลังจากค้นพบเซิร์ฟเวอร์ AI ที่สามารถเข้าถึงได้สาธารณะหลายพันเครื่องที่รันโมเดลภาษาใหญ่แบบโอเพ่นซอร์ส (LLMs) โดยไม่มีการควบคุมความปลอดภัยพื้นฐานเลยแม้แต่น้อย

การติดตั้งที่กำหนดค่าผิดพลาด โดยเฉพาะอย่างยิ่งที่กำลังรัน Ollama นั้นนั่งอยู่บนอินเทอร์เน็ตสาธารณะอย่างเงียบ ๆ ไม่มีรหัสผ่าน ไม่มีการจำกัดการเข้าถึง ไม่มีการป้องกัน สำหรับผู้ประสงค์ร้าย นี่ไม่ใช่เป็นความท้าทาย แต่เป็นการเชิญชวน

เมื่อผู้โจมตีใช้งานโมเดล AI ที่ถูกเปิดเผยเพื่อใช้ในฟิชชิง, ดีฟเฟคส์, และการขโมยข้อมูลมากขึ้น ความเสี่ยงเหล่านี้ไม่ใช่แค่ทฤษฎีอีกต่อไป แต่เป็นความเสี่ยงที่เกิดขึ้นจริง, มีผลกระทบทั่วโลก, และกำลังเพิ่มขึ้นอย่างรวดเร็ว.

ข้อคิดสำคัญ

  • มีเซิร์ฟเวอร์ AI ที่เป็นโอเพนซอร์สจำนวนหลายพันเครื่องที่เปิดเผยต่อสาธารณะ ทำให้เกิดการควบคุมจากไซเบอร์อาชญากรในระดับขนาดใหญ่

  • แฮ็กเกอร์ใช้การทำงานของ Ollama ที่ไม่มีความปลอดภัยในการสร้างฟิชชิง, ดีฟเฟค และการขโมยข้อมูลอย่างจริงจัง

  • การรักษาความปลอดภัยในการดำเนินการ AI ที่ไม่ดี กำลังกลายเป็นความเสี่ยงทางไซเบอร์ที่เป็นระบบ ไม่ใช่ปัญหาที่เกิดขึ้นในขอบเขตที่จำกัด

sign up on Bitrue and get prize

สำรวจโอกาสที่ขับเคลื่อนด้วย AI และทำการค้าด้วยความปลอดภัยบน

Bitrue

เพื่อก้าวนำหน้าเกี่ยวกับความเสี่ยงและแนวโน้มเทคโนโลยีที่เกิดขึ้นใหม่

ทำไมเซิร์ฟเวอร์ AI แบบเปิดที่มีซอร์สถึงกลายเป็นเป้าหมายที่ง่าย

สาเหตุหลักเบื้องหลังภัยคุกคามที่เพิ่มขึ้นนี้มีความเรียบง่ายเกินไป: การกำหนดค่าผิดพลาด นักพัฒนาหลายคนใช้งานโมเดล AI ที่ใช้ Ollama สำหรับการทดลองหรือการใช้งานภายใน แต่กลับไม่สามารถจำกัดการเข้าถึงเครือข่ายได้ ด้วยเหตุนี้ เซิร์ฟเวอร์เหล่านี้จึงยังสามารถเข้าถึงได้จากอินเทอร์เน็ตสาธารณะโดยไม่มีการรับรองตัวตน

Security Alert: Exposed Servers Let Hackers Exploit Open-Source AI Models for Illicit Use

ไม่เหมือนกับแพลตฟอร์ม AI ที่มีศูนย์กลางโมเดล LLM แบบโอเพนซอร์สมักขาดการบังคับความปลอดภัยในตัว เมื่อถูกเปิดเผย พวกเขาทำงานเป็นเครื่องจักรคอมพิวเตอร์ดิบที่ทรงพลัง นิรนาม และไม่จำกัด แฮกเกอร์ไม่จำเป็นต้องเจาะเข้าไป พวกเขาเพียงแค่เชื่อมต่อ

สิ่งนี้สร้างความไม่สมดุลที่เป็นอันตราย ผู้ป้องกันถือว่ามีความไม่ชัดเจน ในขณะที่ผู้โจมตีถือว่ามีขนาดใหญ่

อ่านเพิ่มเติม:เหตุใดหุ้นของ Microsoft จึงตก: การเติบโตของ Cloud ช้าลง, การใช้จ่าย AI สูงสุดเป็นประวัติการณ์, และคำถามเกี่ยวกับ ROI

Exposure Scale: A Global AI Security Blind Spot มาตราส่วนการเปิดเผย: จุดบอดความปลอดภัยของ AI ทั่วโลก

ขอบเขตของการเปิดเผยข้อมูลนั้นใหญ่กว่าที่องค์กรส่วนใหญ่ตระหนักถึงมาก SentinelOne และ Censys ได้วิเคราะห์ข้อมูลมากกว่า 7.23 ล้านจุดในช่วงเวลา 300 วัน พบว่า มีโฮสต์ AI ที่ทำงานอย่างต่อเนื่องประมาณ 23,000 รายการใน 130 ประเทศ

จีนคิดเป็นประมาณ 30% ของเซิร์ฟเวอร์ที่เปิดเผย ซึ่งกระจุกตัวอยู่ในกรุงปักกิ่งเป็นหลัก สหรัฐอเมริกาตามมาอยู่ที่ 18–20% ซึ่งมักมีต้นกำเนิดจากศูนย์ข้อมูลที่ตั้งอยู่ในรัฐเวอร์จิเนีย

ยิ่งกว่านั้น น่ากังวลยิ่งกว่า 56% ของโฮสต์ AI เหล่านี้ทำงานบนการเชื่อมต่ออินเทอร์เน็ตในที่พักอาศัย ซึ่งทำให้ผู้โจมตีสามารถหลอมรวมการจราจรที่เป็นอันตรายเข้ากับ IP ของครัวเรือนธรรมดา ซึ่งเป็นกลยุทธ์ในการหลบเลี่ยงที่ทำให้การระบุและการตรวจจับซับซ้อนขึ้น

โดยรวมแล้ว นักวิจัยประเมินว่ามีเซิร์ฟเวอร์ส่วนตัวมากถึง 175,000 เครื่องที่อาจกำลังทำงานโมเดล AI ที่มีความเปราะบางเป็นครั้งคราว ซึ่งสร้างพื้นผิวการโจมตีที่เปลี่ยนแปลงตลอดเวลา

อ่านเพิ่มเติม:<p>ส่วนใหญ่ของ CEO กล่าวว่า AI ไม่ได้ช่วยเพิ่มรายได้หรือลดต้นทุน: ข้อมูลจากการสำรวจ</p>

กลยุทธ์การใช้ประโยชน์จากแฮกเกอร์ที่มุ่งเป้าไปที่โมเดล AI แบบโอเพนซอร์ส

นักแสดงที่มีอันตรายพึ่งพาการทำงานอัตโนมัติและการมองเห็น โดยการใช้แพลตฟอร์มเช่น Shodan และ Censys ผู้โจมตีจะสแกนหาเซิร์ฟเวอร์ Ollama ที่ฟังอยู่ที่พอร์ตเริ่มต้น 11434 เมื่อถูกระบุแล้ว การประโยชน์ก็มักจะเป็นเรื่องง่าย

เทคนิคทั่วไปได้แก่:

  • การโกงคำขอจากเซิร์ฟเวอร์ (SSRF)เพื่อเปลี่ยนทิศทางให้ลึกลงไปในระบบที่เชื่อมต่อ

  • การโจมตีด้วยการควบคุมคำขอเพื่อสำรวจพฤติกรรมของโมเดล ข้อจำกัดของบริบท และสิทธิ์

  • การโจมตีการแทรกพรีมต์, โดยเฉพาะอย่างยิ่งในโมเดลที่เปิดใช้งานการเรียกเครื่องมือ

เกือบ 48% ของเซิร์ฟเวอร์ที่เปิดเผยสนับสนุนการเรียกใช้เครื่องมือ ซึ่งขยายวงการระเบิดอย่างมาก ผ่านการสร้างคำชี้แจงอย่างละเอียด ผู้โจมตีสามารถดึงคีย์ API, เข้าถึงไฟล์ท้องถิ่น, หรือแฮ็คบริการที่เชื่อมต่ออยู่ได้

เหล่าตัวอย่าง AI ที่ถูกบุกรุกเหล่านี้ไม่ได้ถูกเก็บเป็นความลับ การดำเนินการต่างๆ เช่น “Bizarre Bazaar” เปิดเผยการขายการเข้าถึง AI ที่ถูกแฮ็กในราคาต่ำ เสนอระบบโครงสร้างพร้อมใช้งานสำหรับแคมเปญสแปม, การสร้างดีฟเฟค และการเก็บข้อมูลรับรอง

GreyNoise บันทึกการโจมตีที่เกี่ยวข้องกับ AI กว่า 91,000 ครั้งระหว่างเดือนตุลาคม 2025 ถึงต้นปี 2026 ทำให้เห็นได้ชัดเจนว่าวิธีการโจมตีนี้ถูกใช้ประโยชน์อย่างเข้มข้นเพียงใด。

อ่านเพิ่มเติม:WhatsApp เรียกเก็บค่าธรรมเนียมการดำเนินงานสำหรับ AI Chatbots ในอิตาลี

อาชญากรรมทางไซเบอร์และการเพิ่มขึ้นของการโจมตีที่ขับเคลื่อนด้วย AI อัตโนมัติ

แนวโน้มนี้ไม่ได้เกิดขึ้นอย่างโดดเดี่ยว ตามรายงานความปลอดภัยปี 2026 ของ Check Point การโจมตีทางไซเบอร์ทั่วโลกเพิ่มขึ้น 70% ระหว่างปี 2023 ถึง 2025 โดยมีการใช้งาน AI มากขึ้นในเครื่องมือที่ใช้ในการโจมตี

บางการโจมตีกำลังทำงานในลักษณะกึ่งอัตโนมัติ ในปลายปี 2025 นักวิจัยได้บันทึกแคมเปญการจารกรรมที่ได้รับความช่วยเหลือจาก AI ซึ่งสามารถปรับเนื้อหาการฟิชชิ่งได้อย่างมีพลศาสตร์ในเวลาจริง LLMs ที่เปิดเผยขยายภัยคุกคามนี้โดยการจัดเตรียมเครื่องมือปัญญาที่มีความสามารถในการขยายตัวฟรีโดยไม่มีข้อจำกัดด้านจริยธรรม

แย่กว่านั้น คือช่องโหว่ที่เปิดเผยใหม่ เช่น CVE-2025-197 และ CVE-2025-66959 อนุญาตให้ผู้โจมตีขัดขวางหรือทำให้ไม่เสถียรในโฮสต์ที่มีช่องโหว่ถึง 72% ผ่านจุดอ่อนในรูปแบบไฟล์โมเดล GGUF_K ที่ใช้กันอย่างแพร่หลาย

การโจมตีแบบขัดขวางการเข้าถึงข้อมูล การรั่วไหลของข้อมูล และการเคลื่อนที่ด้านข้าง ไม่ใช่สถานการณ์ที่ขอบเขตอีกต่อไป; แต่กลายเป็นผลลัพธ์ปกติของสุขอนามัยของ AI ที่ไม่ดี

XAG Futures .jpeg

ทำไมการใช้งาน AI ที่เปิดเผยจึงเป็นภัยคุกคามด้านความปลอดภัยในระยะยาว

ความเสี่ยงของการไม่ป้องกันโมเดล AI

เป็นโครงสร้าง ต่างจากเซิร์ฟเวอร์แบบดั้งเดิม LLMs เป็นระบบที่มีการโต้ตอบ พวกเขาสามารถใช้เหตุผล พวกเขาจดจำบริบท พวกเขาสามารถเชื่อมต่อกับเครื่องมือ เมื่อถูกบุกรุก พวกเขาจะกลายเป็นตัวคูณสำหรับการวิศวกรรมสังคม การฉ้อโกง และการเฝ้าระวัง

แหล่งที่มาของ AI แบบเปิดไม่ถือเป็นอันตรายโดยพื้นฐาน แต่การนำมาใช้โดยไม่มีการควบคุมการเข้าถึง การพิสูจน์ตัวตน หรือการตรวจสอบ จะทำให้โครงสร้างพื้นฐานนวัตกรรมกลายเป็นโครงสร้างพื้นฐานสำหรับอาชญากรรมทางไซเบอร์ เมื่อการนำไปใช้เพิ่มมากขึ้น ความเป็นไปได้ในการถูกใช้ในทางที่ผิดอย่างมวลชนก็จะเพิ่มสูงขึ้นเช่นกัน。

อ่านเพิ่มเติม: กฎหมายฟ้องร้องการสอดแนมของ Google Assistant สิ้นสุดลงด้วยการตั้งถิ่นฐาน 68 ล้านดอลลาร์ท่ามกลางข้อกังวลเรื่องความเป็นส่วนตัว

กลยุทธ์การบรรเทาเพื่อรักษาความปลอดภัยของโมเดล AI แบบโอเพนซอร์ส

มาตรการป้องกันไม่ได้ซับซ้อนหรือต้องเลือกปฏิบัติ แนวทางที่ดีที่สุดประกอบด้วย:

  • การผูกบริการ AI เช่น Ollama ให้เข้าถึงได้เฉพาะใน localhost หรือเครือข่ายส่วนตัว

  • การบังคับใช้การตรวจสอบสิทธิและการควบคุมการเข้าถึง

  • ปิดฟีเจอร์การเรียกใช้เครื่องมือที่ไม่จำเป็น

  • การตรวจสอบอย่างต่อเนื่องสำหรับจุดสิ้นสุดที่เปิดเผยต่ออินเทอร์เน็ต

ในยุค AI การรักษาความปลอดภัยโดยการตั้งสมมติฐานไม่เพียงพออีกต่อไป วิสัยทัศน์ การควบคุมการตั้งค่า และการสร้างแบบจำลองภัยคุกคามจะต้องกลายเป็นแนวปฏิบัติมาตรฐาน

คำถามที่พบบ่อย

อะไรทำให้เซิร์ฟเวอร์ AI แบบโอเพนซอร์สมีความเสี่ยงต่อแฮกเกอร์?

การโจมตีส่วนใหญ่ใช้ประโยชน์จากการกำหนดค่าผิดพลาดที่ง่าย ซึ่งเซิร์ฟเวอร์ AI ถูกปล่อยให้เข้าถึงได้สาธารณะโดยไม่มีรหัสผ่านหรือข้อจำกัดด้านเครือข่าย

ทำไมการปรับใช้ Ollama ถึงถูกกำหนดเป้าหมายเป็นพิเศษ?

Ollama มักทำงานบนพอร์ตเริ่มต้นที่รู้จักและมักถูกนำไปใช้โดยไม่มีการตรวจสอบสิทธิ์ ทำให้ง่ายต่อการสแกนและแฮ็กในระดับใหญ่.

แฮ็กเกอร์ใช้โมเดล AI ที่ถูกขโมยไปได้อย่างไร?

โมเดลที่ถูกบุกรุกถูกใช้สำหรับเนื้อหาฟิชชิ่ง, การสร้างดีฟเฟค, แคมเปญสแปม, การขโมยข้อมูล, และการดำเนินการอาชญากรรมไซเบอร์โดยอัตโนมัติ.

การเปิดเผยเซิร์ฟเวอร์ AI มีความกว้างขวางเพียงใด?

นักวิจัยได้ระบุจำนวนโฮสต์ AI ที่เปิดเผยอยู่ทั่วโลกกว่าเป็นหมื่นๆ ราย โดยมีการประมาณว่ามีเซิร์ฟเวอร์ที่เปราะบางถึง 175,000 เครื่อง

วิธีที่นักพัฒนาสามารถรักษาความปลอดภัยในการใช้งาน AI แบบโอเพนซอร์ส

โดยการจำกัดการเข้าถึงเครือข่าย, การเปิดใช้งานการตรวจสอบสิทธิ์, การปิดใช้งานฟีเจอร์ที่มีความเสี่ยง, และการตรวจสอบการเปิดเผยต่อสาธารณะอย่างต่อเนื่อง.

คำปฏิเสธ: ความคิดเห็นที่แสดงถึงเฉพาะเจ้าของผลงานและไม่สะท้อนถึงความคิดเห็นของแพลตฟอร์มนี้ แพลตฟอร์มนี้และบริษัทในเครือไม่มีความรับผิดชอบต่อความถูกต้องหรือความเหมาะสมของข้อมูลที่ให้มา ข้อมูลนี้มีวัตถุประสงค์เพื่อให้ข้อมูลเท่านั้นและไม่ได้มีเจตนาเป็นคำแนะนำทางการเงินหรือการลงทุน

ข้อจำกัดความรับผิดชอบ: เนื้อหาของบทความนี้ไม่ถือเป็นคำแนะนำทางการเงินหรือการลงทุน

ลงทะเบียนตอนนี้เพื่อรับแพ็คเกจของขวัญสำหรับผู้มาใหม่ 2733 USDT

เข้าร่วม Bitrue เพื่อรับรางวัลพิเศษ

ลงทะเบียนเดี๋ยวนี้
register

แนะนำ

ทำเงินจากแอป Licrown AI - เป็นไปได้ไหม?
ทำเงินจากแอป Licrown AI - เป็นไปได้ไหม?

คุณสามารถทำเงินจากแอป Licrown AI ได้จริงหรือไม่? เรียนรู้วิธีการทำงาน วิธีหารายได้ ความเสี่ยง และว่า Licrown AI น่าเชื่อถือหรือไม่

2026-01-30อ่าน