去除中國政府言論審查,Perplexity 重新訓練 DeepSeek 並開源 R1-1776 模型

去除中國政府言論審查,Perplexity 重新訓練 DeepSeek 並開源 R1-1776 模型

去除中國政府言論審查,Perplexity 重新訓練 DeepSeek 並開源 R1-1776 模型 


資料來源: https://www.soft4fun.net/tech/ai/perplexity-open-source-r1-1776.htm


    Perplexity 宣布 開源 R1 1776,這是一個基於  DeepSeek-R1 的大型語言模型 (LLM),但經過特別後訓練,以確保其提供準確、中立且無偏見的回答。這個版本不再受中國政府的審查影響,能夠自由討論包括地緣政治、經濟影響等敏感話題。如果你曾因 AI 拒絕回答某些問題而感到受限,那麼 R1 1776 可能是你一直在等待的解決方案!


為何要改造 DeepSeek-R1?

    DeepSeek-R1 是一個性能接近最先進推理模型 (如 o1 和 o3-mini) 的 LLM,然而,它在處理敏感話題時受到嚴格限制。例如,當被問及 「台灣獨立對 Nvidia 股價的影響」時,原版 R1 會以中共官方立場回應,甚至完全忽略問題本身 (過程可以參考官方的公告)。

    這樣的審查嚴重限制了 R1 的應用範圍,無法提供客觀、完整的資訊。Perplexity 為了要打造一個能夠誠實回答所有問題的 AI,因此決定進行後訓練,讓 R1 擺脫這些限制,成為真正開放、無偏見的 AI。


R1 1776 如何去除審查?

    為了讓 R1 具備回答敏感問題的能力,Perplexity 採用了精密的後訓練 (post training) 技術,主要包含以下步驟:

    1. 構建審查資料集
        Perplexity 首先聘請專家辨識了 300 個已知被中國政府審查的話題,並開發了一個多語言審查分類器來篩選相關查詢。這些數據經過嚴格過濾,確保不包含個人資訊 (PII),最終累積了 40,000 筆多語言數據作為訓練資料。

    2. 蒐集高品質回答
        為了確保  AI 能夠提供準確、合邏輯的回答,Perplexity 特別強調 「Ch ain-of-Thought」(思維鏈) 推理能力,並採用了多種方式來確保回答的多樣性和品質,包括使用人工標註、驗證數據可靠性等方法。

    3. 以 NeMo 2.0 進行後訓練
        模型訓練使用了 Nvidia 的 NeMo 2.0 框架,並設計了特殊的調校方式,確保在去除審查的同時,不影響模型的數學與推理能力。


評估

    為了確保 R1 1776 真正去除了審查,Perplexity 建立了一個 1,000 多條問題的測試集,涵蓋各種敏感話題,並使用人工標註與 LLM 評審來檢測模型是否仍會「閃躲」或給出過於保守的回答。結果顯示,R1 1776 成功克服審查問題,同時保持與原版 R1 相當的數學與推理能力。


👉Perplixity 公告

https://www.perplexity.ai/hub/blog/open-sourcing-r1-1776

👉Perplixity 已經將訓練後的模型權重上傳到 HuggingFace 開源

https://huggingface.co/perplexity-ai/r1-1776


心得:

    站在巨人肩膀做事(轉換思維)
    把錢變成喜歡的樣子(有錢有閒就是狂)
    以其人之道還治其人之身(拿你的箭射你的兵/借力使力)

One thought on “去除中國政府言論審查,Perplexity 重新訓練 DeepSeek 並開源 R1-1776 模型

  1. DeepSeek小心了!阿里巴巴發布高效能AI模型「QwQ-32B」 股價應聲大漲

    https://www.msn.com/zh-tw/news/other/deepseek%E5%B0%8F%E5%BF%83%E4%BA%86-%E9%98%BF%E9%87%8C%E5%B7%B4%E5%B7%B4%E7%99%BC%E5%B8%83%E9%AB%98%E6%95%88%E8%83%BDai%E6%A8%A1%E5%9E%8B-qwq-32b-%E8%82%A1%E5%83%B9%E6%87%89%E8%81%B2%E5%A4%A7%E6%BC%B2/ar-AA1AlVNR?ocid=msedgntp&pc=U531&cvid=385e335e205a4ddafbf29bfdfc6e85ed&ei=38

    阿里巴巴AI To C業務旗下的人工智慧應用「阿里通義」今(6日)正式推出最新開源推理模型 「通義千問QwQ-32B」,該模型透過大規模強化學習(Reinforcement Learning),在數學、程式設計及通用推理能力上取得顯著提升。

    官方表示,QwQ-32B整體性能可與DeepSeek-R1相媲美,同時大幅降低部署成本,甚至可在「消費級顯卡」上本地運行。

    阿里通義團隊宣布,QwQ-32B已開放免費下載及商業使用,用戶可透過網頁版 Qwen Chat 體驗該模型,此外,模型也將免費上架通義App。這次發布標誌著阿里巴巴在AI開源領域邁出新一步,使更多開發者能夠輕鬆部署強大推理能力的AI應用。

發表迴響

你的電子郵件位址並不會被公開。 必要欄位標記為 *