安全警報:暴露的伺服器讓駭客利用開源AI模型從事非法使用
2026-01-30
開源人工智慧以空前的速度加速了創新。輕量級的部署、本地推斷和社群驅動的開發降低了全球開發者的入門門檻。然而,這種開放性現在卻暴露出一條關鍵的斷層線。
網絡安全研究人員正在發出警報,因為他們發現成千上萬台公共可訪問的AI伺服器正在運行開源的大型語言模型(LLMs),而沒有任何基本的安全控制。
錯誤配置的部署,尤其是那些運行Ollama的,正安靜地坐落在公共互聯網上。沒有密碼。沒有訪問限制。沒有保護措施。對於威脅行為者來說,這不是一個挑戰,而是一個邀請。
隨著攻擊者越來越多地將暴露的人工智慧模型用於網絡釣魚、深度偽造和數據盜竊,風險不再是理論上的。這些風險現已成為操作性的、全球性的,且在加速增加。
關鍵要點
成千上萬的開源 AI 伺服器公開暴露,使得網路犯罪分子能夠進行大規模的劫持。
駭客積極利用不安全的Ollama部署來進行網路釣魚、深度偽造和數據竊取。
劣質的人工智慧部署安全正逐漸成為一個系統性網路風險,而不是邊緣案例的脆弱性。
探索 AI 驅動的機會並安全交易於Bitrue為了保持對新興技術風險和趨勢的領先地位。
如何開源AI伺服器成為了容易的攻擊目標
這個日益增長的威脅的根本原因看似簡單:錯誤配置。許多開發人員為了實驗或內部使用而部署基於Ollama的人工智慧模型,但未能限制網絡訪問。因此,這些伺服器仍然可以在公共互聯網上被訪問而無需身份驗證。
不像集中式的人工智慧平台,開源大語言模型經常缺乏內建的安全執行。在暴露時,它們充當原始計算引擎,強大、匿名且不受限制。駭客不需要入侵。他們只需連接。
這會產生一種危險的非對稱性。防禦者假設模糊性。攻擊者假設規模。
閱讀其他:為什麼微軟股票下跌:雲端增長放緩、創紀錄的人工智慧支出和投資回報率疑慮
暴露規模:全球人工智慧安全盲點
暴露的規模遠比大多數組織所意識到的要大。SentinelOne 和 Censys 分析了超過 723 萬個數據點,為期 300 天,確定了約 23,000 個在 130 個國家中持續活躍的人工智慧主機。
中國的暴露伺服器約佔30%,集中在北京。美國則以18-20%的比例緊隨其後,通常追溯至位於維吉尼亞州的數據中心。
更令人擔憂的是,這些 AI 主機中有 56% 運行在家庭網路連接上,使攻擊者能夠將惡意流量與普通家庭 IP 混合,這是一種逃避追蹤的策略,增加了歸因和檢測的難度。
總體而言,研究人員估計多達175,000台私人伺服器可能間歇性地運行易受攻擊的AI模型,形成一個不斷變化的攻擊面。
閱讀也:大多數首席執行官表示人工智慧尚未提升收入或降低成本:調查見解
駭客利用戰術針對開源AI模型
滲透者依賴自動化和可見性。攻擊者使用 Shodan 和 Censys 等平台,掃描在預設端口 11434 上監聽的 Ollama 伺服器。一旦識別出來,利用這些伺服器通常是微不足道的。
常見的技術包括:
伺服器端請求偽造 (SSRF)
深入研究連接系統
查詢洪水以探究模型行為、上下文限制和權限
提示注入攻擊,特別是在啟用工具調用的模型上
接近48%的暴露伺服器支持工具調用,顯著擴大了攻擊範圍。透過精心設計的提示,攻擊者可以提取API金鑰、訪問本地檔案,或劫持已連接的服務。
這些被侵害的 AI 實例並沒有被保密。像「怪異市場」這樣的操作公開以低價轉售被劫持的 AI 訪問,提供即用的基礎設施,用於垃圾郵件活動、深度造假生成和憑證收集。
GreyNoise 記錄了超過 91,000 次與 AI 相關的攻擊,時間範圍在 2025 年 10 月至 2026 年初,強調了這一攻擊方式是多麼積極地被利用。
閱讀更多:WhatsApp 在意大利對 AI 聊天機器人收取操作費用
網絡犯罪與自主人工智慧驅動攻擊的興起
這一趨勢並不是孤立存在的。根據 Check Point 的 2026 年安全展望,2023 年至 2025 年間,全球的網絡攻擊激增了 70%,並且人工智慧日益融入攻擊工具鏈中。
一些攻擊現在以半自主方式運作。在2025年底,研究人員記錄了一起人工智慧輔助的間諜活動,該活動能夠實時動態調整釣魚內容。暴露的LLM進一步加劇了這一威脅,因為它們提供了免費、可擴展的智慧引擎,且沒有任何倫理約束。
更糟糕的是,新近公開的漏洞,例如 CVE-2025-197 和 CVE-2025-66959,允許攻擊者通過廣泛使用的 GGUF_K 模型文件格式中的弱點,使多達 72% 的易受攻擊主機崩潰或不穩定。
可用性攻擊、數據洩漏和橫向移動不再是邊緣情況;它們是糟糕的人工智慧衛生的預設結果。
為什麼暴露的人工智慧部署是一個長期的安全威脅
未保護的危險AI 模型
是結構性的。與傳統伺服器不同,LLMs 是互動系統。它們能推理。它們記住上下文。它們能連接工具。當受到威脅時,它們會成為社會工程、詐騙和監視的倍增器。
開源人工智慧本身並不不安全。但如果在沒有存取控制、身份驗證或監控的情況下進行部署,就會有效地將創新基礎設施轉變為網路犯罪基礎設施。隨著採用速度加快,集體濫用的潛力也隨之增加。
閱讀更多:Google 助手監控訴訟以 6800 萬美元和解結束,儘管隱私問題引發關注。
開源AI模型的安全減緩策略
防禦措施既不複雜也不是選擇性的。最佳實踐包括:
將Ollama等AI服務嚴格綁定到本地主機或私人網絡
強制身份驗證和存取控制
禁用不必要的工具調用功能
持續監控互聯網暴露的端點
在人工智慧時代,僅靠假設來保障安全已不再足夠。可見性、配置紀律和威脅建模必須成為標準實踐。
常見問題解答
什麼使得開源 AI 伺服器容易受到駭客攻擊?
大多數攻擊利用簡單的配置錯誤,令人工智能伺服器未加密密碼或網絡限制而被公開訪問。
為什麼Ollama的部署特別受到關注?
Ollama 通常運行在已知的默認端口上,並且經常在未經身份驗證的情況下部署,這使得它容易被大規模掃描和劫持。
駭客如何使用被劫持的人工智慧模型?
被攻擊的模型用於釣魚內容、深度偽造生成、垃圾郵件活動、數據竊取以及自動化網絡犯罪行動。
AI伺服器的暴露程度有多廣泛?
研究人員已經識別出全球數以萬計的活躍曝光AI主機,估計易受攻擊的伺服器數量達到175,000台。
開發者如何保護開源 AI 部署?
通過限制網絡訪問、啟用身份驗證、禁用風險功能和主動監控公開曝光來實現。
免責聲明:所表達的觀點僅代表作者本人,並不反映本平台的觀點。本平台及其關聯方對所提供信息的準確性或適用性不承擔任何責任。本信息僅供參考,並不構成財務或投資建議。
免責聲明:本文內容不構成財務或投資建議。






