Cảnh Báo Bảo Mật: Các Máy Chủ Bị Lộ Cho Phép Tin Tặc Khai Thác Các Mô Hình AI Nguồn Mở Để Sử Dụng Bất Hợp Pháp

2026-01-30
Cảnh Báo Bảo Mật: Các Máy Chủ Bị Lộ Cho Phép Tin Tặc Khai Thác Các Mô Hình AI Nguồn Mở Để Sử Dụng Bất Hợp Pháp

AI mã nguồn mở đã tăng tốc đổi mới với tốc độ chưa từng có. Việc triển khai nhẹ, suy diễn cục bộ và phát triển dựa trên cộng đồng đã giảm thiểu rào cản gia nhập cho các nhà phát triển trên toàn thế giới. Tuy nhiên, chính sự cởi mở này hiện đang phơi bày một đường lạc quan quan trọng.

Các nhà nghiên cứu an ninh mạng đang cảnh báo sau khi phát hiện hàng nghìn máy chủ AI có thể truy cập công khai đang chạy các mô hình ngôn ngữ lớn mã nguồn mở (LLMs) mà không có thậm chí là các biện pháp bảo mật cơ bản.

Các triển khai bị cấu hình sai, đặc biệt là những cái đang chạy Ollama, đang âm thầm nằm trên internet công cộng. Không có mật khẩu. Không có hạn chế truy cập. Không có hàng rào bảo vệ. Đối với các tác nhân gây hại, đây không phải là một thử thách. Đây là một lời mời.

Khi các kẻ tấn công ngày càng sử dụng các mô hình AI bị lộ để thực hiện các cuộc tấn công lừa đảo, deepfake và đánh cắp dữ liệu, rủi ro không còn chỉ là lý thuyết. Chúng đang trở thành hiện thực, toàn cầu và đang tăng tốc.

Những điểm chính

  • Hàng ngàn máy chủ AI mã nguồn mở đang được công khai, cho phép các tội phạm mạng thực hiện việc chiếm đoạt quy mô lớn.

  • Các hacker đang tích cực khai thác các triển khai Ollama không được bảo mật để thực hiện các cuộc tấn công lừa đảo, tạo ra deepfake, và đánh cắp dữ liệu.

  • Bảo mật triển khai AI kém đang trở thành một rủi ro mạng hệ thống, không phải là một lỗ hổng bên lề.

sign up on Bitrue and get prize

Khám phá các cơ hội do AI điều khiển và giao dịch một cách an toàn trênBitrueđể đi trước các rủi ro và xu hướng công nghệ mới nổi.

Làm thế nào các máy chủ AI mã nguồn mở trở thành mục tiêu dễ dàng

Nguyên nhân gốc rễ phía sau mối đe dọa ngày càng tăng này thật sự đơn giản: cấu hình sai. Nhiều nhà phát triển triển khai các mô hình AI dựa trên Ollama cho việc thử nghiệm hoặc sử dụng nội bộ, nhưng không hạn chế quyền truy cập mạng. Kết quả là, các máy chủ này vẫn có thể truy cập từ internet công cộng mà không cần xác thực.

Security Alert: Exposed Servers Let Hackers Exploit Open-Source AI Models for Illicit Use

Không giống như các nền tảng AI tập trung,mã nguồn mở LLMsthường thiếu sự thực thi an toàn tích hợp. Khi bị lộ, chúng hoạt động như các động cơ tính toán thô mạnh mẽ, vô danh và không bị hạn chế. Những kẻ hacker không cần phải đột nhập. Họ chỉ cần kết nối.

Điều này tạo ra một sự bất đối xứng nguy hiểm. Những người bảo vệ cho rằng sự không rõ ràng. Những kẻ tấn công cho rằng quy mô.

Đọc thêm:Tại sao cổ phiếu của Microsoft giảm: Tăng trưởng đám mây chậm hơn, chi tiêu cho AI đạt kỷ lục, và câu hỏi về ROI

Thang Đo Lường Rủi Ro: Một Điểm Mù An Ninh AI Toàn Cầu

Độ lớn của việc tiếp xúc lớn hơn nhiều so với nhận thức của hầu hết các tổ chức. SentinelOne và Censys đã phân tích hơn 7,23 triệu điểm dữ liệu trong 300 ngày, xác định khoảng 23.000 máy chủ AI hoạt động liên tục trên 130 quốc gia.

Trung Quốc chiếm khoảng 30% máy chủ công khai, chủ yếu tập trung ở Bắc Kinh. Hoa Kỳ theo sau với 18–20%, thường được truy tìm về các trung tâm dữ liệu có trụ sở tại Virginia.

Càng đáng lo ngại hơn, 56% trong số các máy chủ AI này hoạt động trên các kết nối internet gia đình, cho phép những kẻ tấn công trộn lẫn lưu lượng độc hại với các địa chỉ IP hộ gia đình thông thường, một chiến thuật né tránh làm phức tạp việc xác định nguồn gốc và phát hiện.

Tổng cộng, các nhà nghiên cứu ước tính rằng có thể có tới 175.000 máy chủ riêng đang chạy các mô hình AI dễ bị tổn thương không liên tục, tạo ra một bề mặt tấn công liên tục thay đổi.

Đọc Thêm:

Đa số Giám đốc điều hành cho biết AI không làm tăng doanh thu hoặc giảm chi phí: Những hiểu biết từ khảo sát

Tactics khai thác của hacker nhằm vào các mô hình AI mã nguồn mở

Các tác nhân đe dọa dựa vào tự động hóa và khả năng hiển thị. Bằng cách sử dụng các nền tảng như Shodan và Censys, các kẻ tấn công quét tìm các máy chủ Ollama đang lắng nghe trên cổng mặc định 11434. Khi đã được xác định, việc khai thác thường là đơn giản.

Các kỹ thuật phổ biến bao gồm:

  • Lừa đảo yêu cầu trên máy chủ (SSRF)để chuyển sang các hệ thống liên kết sâu hơn

  • Tham số lũ lụtđể khảo sát hành vi của mô hình, giới hạn ngữ cảnh và quyền hạn

  • Các cuộc tấn công chèn lệnh nhắc, đặc biệt trên các mô hình có chức năng gọi công cụ được kích hoạt

Gần 48% máy chủ bị lộ hỗ trợ gọi công cụ, mở rộng đáng kể vùng ảnh hưởng. Thông qua các lời nhắc được thiết kế cẩn thận, kẻ tấn công có thể trích xuất khóa API, truy cập các tệp địa phương hoặc đánh cắp các dịch vụ kết nối.

Những instance AI bị xâm phạm này không được giữ kín. Các hoạt động như “Bizarre Bazaar” công khai bán lại quyền truy cập AI bị đánh cắp với giá thấp, cung cấp cơ sở hạ tầng sẵn có cho các chiến dịch spam, tạo deepfake, và thu thập thông tin đăng nhập.

GreyNoise đã ghi nhận hơn 91.000 cuộc tấn công liên quan đến AI giữa tháng 10 năm 2025 và đầu năm 2026, nhấn mạnh cách mà vector này đang bị khai thác một cách mạnh mẽ.

Đọc thêm:WhatsApp tính phí tổn hoạt động cho các chatbot AI tại Ý

Tội phạm mạng và Sự gia tăng các cuộc tấn công tự động do AI điều khiển

Xu hướng này không tồn tại trong sự cô lập. Theo báo cáo dự đoán an ninh 2026 của Check Point, các cuộc tấn công mạng toàn cầu đã tăng 70% giữa năm 2023 và 2025, với AI ngày càng được tích hợp vào các chuỗi công cụ tấn công.

Một số cuộc tấn công hiện đang hoạt động một cách bán tự động. Vào cuối năm 2025, các nhà nghiên cứu đã ghi nhận một chiến dịch gián điệp hỗ trợ bởi AI có khả năng điều chỉnh nội dung lừa đảo một cách động trong thời gian thực. Các LLM bị lộ này làm gia tăng mối đe dọa này bằng cách cung cấp các động cơ trí tuệ miễn phí và có thể mở rộng mà không có các ràng buộc đạo đức.

Tệ hơn nữa, các lỗ hổng mới được tiết lộ như CVE-2025-197 và CVE-2025-66959 cho phép kẻ tấn công làm sập hoặc làm mất ổn định đến 72% các máy chủ dễ bị tổn thương thông qua những điểm yếu trong định dạng tệp mô hình GGUF_K được sử dụng rộng rãi.

Các cuộc tấn công khả dụng, rò rỉ dữ liệu và di chuyển ngang không còn là những kịch bản bên lề; chúng trở thành kết quả mặc định của việc bảo trì AI kém.

XAG Futures .jpeg

Tại sao các triển khai AI bị lộ là một mối đe dọa an ninh lâu dài

Nguy hiểm của việc không được bảo vệMô hình AI

is structural. Unlike traditional servers, LLMs are interactive systems. They reason. They remember context. They connect to tools. When compromised, they become multipliers for social engineering, fraud, and surveillance.
có cấu trúc. Không giống như các máy chủ truyền thống, LLM là các hệ thống tương tác. Chúng lập luận. Chúng nhớ ngữ cảnh. Chúng kết nối với các công cụ. Khi bị tổn hại, chúng trở thành yếu tố khuếch đại cho kỹ thuật xã hội, gian lận, và giám sát.

AI mã nguồn mở không tự nó không an toàn. Nhưng việc triển khai nó mà không có kiểm soát truy cập, xác thực hoặc giám sát sẽ biến hạ tầng đổi mới thành hạ tầng tội phạm mạng. Khi việc áp dụng gia tăng, tiềm năng cho việc khai thác hàng loạt cũng tăng theo.

Đọc thêm:Cuộc kiện tụng về việc giám sát của Google Assistant kết thúc với thỏa thuận 68 triệu đô la giữa những lo ngại về quyền riêng tư

Chiến lược Giảm thiểu để Bảo mật các Mô hình AI Nguồn Mở

Các biện pháp phòng thủ không phức tạp cũng không phải là lựa chọn. Các phương pháp tốt nhất bao gồm:

  • Ràng buộc các dịch vụ AI như Ollama chỉ vào localhost hoặc mạng riêng.

  • Thực thi xác thực và kiểm soát truy cập

  • Vô hiệu hóa các tính năng gọi công cụ không cần thiết

  • Liên tục theo dõi các điểm cuối tiếp xúc với internet

Trong kỷ nguyên AI, việc bảo mật dựa trên giả định không còn đủ nữa. Quyền riêng tư, kỷ luật cấu hình và mô hình hóa mối đe dọa phải trở thành thực hành tiêu chuẩn.

FAQ

Các máy chủ AI mã nguồn mở dễ bị tin tặc tấn công vì những lý do nào?

Hầu hết các cuộc tấn công khai thác những cấu hình sai sót đơn giản khi mà các máy chủ AI được để công khai mà không có mật khẩu hoặc hạn chế mạng.

Tại sao việc triển khai Ollama lại bị nhắm mục tiêu cụ thể?

Ollama thường chạy trên một cổng mặc định đã biết và thường được triển khai mà không có xác thực, khiến cho việc quét và chiếm quyền điều khiển trở nên dễ dàng ở quy mô lớn.

Các hacker sử dụng các mô hình AI bị điều khiển như thế nào?

Các mô hình bị xâm phạm được sử dụng để tạo nội dung lừa đảo, tạo deepfake, chiến dịch spam, đánh cắp dữ liệu và các hoạt động tội phạm mạng tự động.

Mức độ phổ biến của việc tiếp xúc với các máy chủ AI là bao nhiêu?

Các nhà nghiên cứu đã xác định hàng chục nghìn máy chủ AI đang hoạt động trên toàn cầu, với ước tính lên tới 175.000 máy chủ dễ bị tổn thương.

Các nhà phát triển có thể bảo mật các triển khai AI mã nguồn mở bằng các phương pháp sau đây: 1. **Kiểm tra mã nguồn**: Đảm bảo mã nguồn của dự án không có lỗ hổng bảo mật và được kiểm tra thường xuyên. 2. **Cập nhật thường xuyên**: Theo dõi và cập nhật các thành phần của phần mềm để vá các điểm yếu đã biết. 3. **Quản lý quyền truy cập**: Thiết lập quyền truy cập một cách cẩn thận để đảm bảo chỉ người dùng có thẩm quyền mới có thể truy cập vào hệ thống. 4. **Sử dụng các công cụ bảo mật**: Triển khai các công cụ phân tích bảo mật và quét lỗ hổng để phát hiện và khắc phục các vấn đề tiềm ẩn. 5. **Đào tạo nhận thức bảo mật**: Đào tạo cho tất cả các nhà phát triển về các nguyên tắc bảo mật và tầm quan trọng của việc bảo vệ dữ liệu. 6. **Theo dõi hoạt động**: Thiết lập các công cụ giám sát để theo dõi hành vi bất thường trong ứng dụng và hệ thống. 7. **Thực hiện kiểm tra an ninh định kỳ**: Thực hiện kiểm tra an ninh và đánh giá nhằm phát hiện các điểm yếu tiềm tàng. 8. **Bảo vệ dữ liệu**: Sử dụng mã hóa và các biện pháp bảo vệ dữ liệu một cách cẩn thận để đảm bảo rằng thông tin nhạy cảm không bị rò rỉ. Bằng cách áp dụng những biện pháp này, các nhà phát triển có thể tạo ra môi trường triển khai AI mã nguồn mở an toàn hơn.

Bằng cách hạn chế quyền truy cập mạng, kích hoạt xác thực, vô hiệu hóa các tính năng rủi ro và theo dõi tích cực để phát hiện sự lộ diện công khai.

Giới thiệu: Các quan điểm được bày tỏ hoàn toàn thuộc về tác giả và không phản ánh quan điểm của nền tảng này. Nền tảng này và các công ty liên kết của nó từ chối mọi trách nhiệm về độ chính xác hoặc sự phù hợp của thông tin được cung cấp. Nó chỉ mang tính chất thông tin và không nhằm mục đích tư vấn tài chính hoặc đầu tư.

Tuyên bố từ chối trách nhiệm: Nội dung của bài viết này không cấu thành lời khuyên tài chính hoặc đầu tư.

Đăng ký ngay để nhận gói quà tặng người mới trị giá 2733 USDT

Tham gia Bitrue để nhận phần thưởng độc quyền

Đăng ký Ngay
register

Được đề xuất

Kiếm Tiền từ Ứng Dụng Kiếm Tiền Licrown AI - Liệu Có Thể Không?
Kiếm Tiền từ Ứng Dụng Kiếm Tiền Licrown AI - Liệu Có Thể Không?

Bạn có thực sự kiếm tiền từ ứng dụng kiếm tiền Licrown AI không? Tìm hiểu cách thức hoạt động, phương pháp kiếm tiền, rủi ro và liệu Licrown AI có thật không.

2026-01-30Đọc