ChatGPT 不是隱私友好的選擇 – Moxie Marlinspike 提供了解決方案
2026-01-19
快速採用的AI 聊天機器人
然而,這種便利帶來了一個日益增加的擔憂:隱私。雖然像 ChatGPT 這樣的平台提供了令人印象深刻的功能,但關於數據收集、對話存儲和用戶輪廓的問題已變得難以忽視。
隨著有關人工智慧倫理和監控的辯論愈演愈烈,隱私領域的一位重要人物正推出一種替代方案。
摩克西·馬林斯派克(Moxie Marlinspike),Signal 的創建者,相信 ChatGPT 基本上不符合隱私友好的標準,他通過一款名為 Confer AI 的新 AI 工具提供了不同的前進道路。
主要重點
- ChatGPT 將性能置於隱私之上。ChatGPT 提供強大的 AI 功能,但其集中式設計要求用戶對話必須在遠程伺服器上處理並可能被存儲,因此對於敏感或機密的使用情境並不友好於隱私保護。
- Moxie Marlinspike 提供了一種以隱私為首的人工智慧選擇。透過Confer AI,Signal的創始人推出了一個基於端到端加密和可驗證安全執行的AI助手,確保用戶的對話保持私密——甚至對服務提供者而言也是如此。
- 隱私保護的人工智慧是可能的,但需要妥協。Confer AI 顯示出 AI 工具可以在不進行大量數據收集的情況下運作,儘管這種方法可能限制快速的模型改進或個性化,並突顯出向更具倫理性和用戶可控的 AI 系統的重要轉變。
沒有時間猶豫;加密貨幣總是與時機有關。在 Bitrue 獲得最佳的加密貨幣價格和服務。現在註冊並發掘一系列令人興奮的活動。
ChatGPT 不是一個友善於隱私的工具
ChatGPT,像大多數主流AI 助手,運行在集中式基礎設施上。用戶的請求被發送到遠程伺服器,經過處理、記錄,並可能會被保留以用於質量改進、安全監控或未來模型訓練。
即使公司承諾不“儲存個人數據”,技術現實是,對話必須在某個時刻以明文形式處理以生成回應。
從隱私的角度來看,這造成了幾個問題。首先,用戶對他們的數據儲存時間及誰可以訪問這些數據的可見性有限。
第二,AI 對話通常比搜尋查詢更具個人性;人們會詢問健康、財務、關係和敏感的工作事宜。
將這些互動視為一次性數據點會使用戶面臨不必要的風險。第三,集中式人工智慧系統是侵犯、傳票或內部人員濫用的吸引目標。
這並不意味著 ChatGPT 是惡意的。這意味著它的架構從設計上優先考慮性能和擴展性,而非隱私。
在這個意義上,聲稱ChatGPT不符合隱私友好標準這不是一項指控;它是對當前大多數人工智慧系統建構方式的結構性批評。
閱讀更多:
Moxie Marlinspike 提供 Confer AI 作為替代方案
關於人工智慧隱私的擔憂正是促使Moxie Marlinspike(廣為人知的Signal創始人)建立一種新型助手的動機。
他的解決方案是 Confer AI,一個以隱私為首要考量的聊天機器人,旨在減少對服務運營商本身的信任。
Confer AI 是基於一種徹底不同的哲學建立的:人工智慧提供者不應該能夠讀取你的對話。
Confer 採用端對端加密和現代加密技術,確保只有用戶可以訪問其聊天內容,而不是收集和存儲用戶提示。
即使是運營該服務的公司,也無法看到用戶所詢問的內容或AI的回應。
在技術上,Confer 依賴於安全計算環境和加密執行。計算仍然發生在伺服器上,因為先進的AI 模型需要強大的處理能力,但這些伺服器已經使用加密驗證鎖定。
這使得用戶能夠驗證運行 AI 的代碼未被修改以監視他們。簡而言之,系統的設計旨在將信任降到最低,並將驗證提升到最高。
也請閱讀:聊天生成預訓練變換器阿特拉斯評測
這使得Confer AI成為一個真正的Moxie Marlinspike 的 ChatGPT 替代方案它並不是想要在耀眼的功能或病毒性提示上競爭。相反,它在價值觀上競爭:隱私、用戶控制和透明度。
在人工智慧時代還有隱私嗎?

AI的崛起引發了一個困難的問題:隱私還有現實性嗎?許多用戶已經接受數據收集作為便利的代價。
然而,歷史顯示這種權衡並不是不可避免的。安全消息傳遞曾經面臨相同的懷疑,然而今天,得益於像 Signal 這樣的工具,端到端加密已被廣泛接受。
AI 可能正處於類似的十字路口。當前大多數系統將用戶數據視為燃料。
以隱私為重點的替代方案,如Confer,挑戰了這一假設,證明有用的人工智慧並不需要大規模數據提取。這一含義深遠:人工智慧工具可以存在,而不必成為監控引擎。
這樣說來,優先考慮隱私的人工智慧也有其權衡。模型在沒有訪問用戶對話的情況下,可能會進步得較慢。
依賴個性化的功能可能會受到限制。對於某些用戶來說,這是可以接受的成本。對於其他人來說,比如記者、研究人員、活動家、開發人員或任何處理敏感信息的人,這可能是必需的。
閱讀也可以:當 GROK 成為深度偽造工具
更廣泛的問題是選擇。沒有替代方案,用戶被迫進入與他們價值觀不符的生態系統中。
Confer AI 擴大了這一選擇,並為道德 AI 基礎設施可能的樣貌設定了一個基準。
最後的備註
該聲明是ChatGPT並不友善於隱私保護反映出當前大多數人工智慧系統運作方式的更深層次真理。集中式數據收集、不透明的保留政策,以及對提供者不可避免的信任,均是其設計中的根本特徵。
Moxie Marlinspike 提供了一種解決方案,不是通過調整政策,而是通過重新思考 AI 本身的架構。
透過 Confer AI,他介紹了一種模型,使對話保持私密、可驗證且由用戶控制,就像十年前安全消息傳遞技術改變了通信方式一樣。
無論Confer是否成為主流工具或仍然是一個小眾工具,其存在傳遞了一個強而有力的信息:在人工智慧時代,隱私並非不可能,只是需要不同的優先考量。
隨著人工智慧持續影響日常生活,像是Confer這樣的工具挑戰著行業,不僅要追求便利性,更要朝向尊重基本私隱思想權利的系統發展。
常見問題解答 (FAQ)
ChatGPT是否適合用於私密對話?
ChatGPT 的設計目的是為了提供幫助和安全,但並不是為了提供端對端的隱私。用戶的對話可能會被處理、儲存或審閱,以確保質量和安全,這使得它不適合進行高度敏感或機密的討論。
為什麼人們說 ChatGPT 不友善於隱私?
人們認為 ChatGPT 在隱私方面不友好,因為它運行於集中伺服器上,用戶的輸入必須可被系統讀取,以生成回應。這意味著對話並沒有端對端加密,並且在某些條件下可能會被保留。
Confer AI 是什麼?它是如何運作的?
Confer AI 是一個以隱私為重點的 AI 助手,由 Signal 創始人 Moxie Marlinspike 開發。它使用端到端加密和安全執行環境,因此只有用戶可以訪問聊天內容—即使服務運營商也無法閱讀對話。
Confer AI 與 ChatGPT 有何不同?
關鍵的區別在於架構。ChatGPT 優先考慮規模和性能,而 Confer AI 則以隱私為設計優先。Confer 不會存儲可讀的聊天記錄,並使用密碼學驗證來確保對話保持私密。
目前是否有真正私密的 AI 聊天機器人可用?
雖然沒有任何人工智慧系統是完全無風險的,但Confer AI目前是對真正私密聊天機器人的一個非常認真的嘗試,因為它最小化資料保留,限制操作員訪問,並允許用戶驗證系統的運行方式。
免責聲明:本文內容不構成財務或投資建議。





