去除中國政府言論審查,Perplexity 重新訓練 DeepSeek 並開源 R1-1776 模型

去除中國政府言論審查,Perplexity 重新訓練 DeepSeek 並開源 R1-1776 模型

去除中國政府言論審查,Perplexity 重新訓練 DeepSeek 並開源 R1-1776 模型 


資料來源: https://www.soft4fun.net/tech/ai/perplexity-open-source-r1-1776.htm


    Perplexity 宣布 開源 R1 1776,這是一個基於  DeepSeek-R1 的大型語言模型 (LLM),但經過特別後訓練,以確保其提供準確、中立且無偏見的回答。這個版本不再受中國政府的審查影響,能夠自由討論包括地緣政治、經濟影響等敏感話題。如果你曾因 AI 拒絕回答某些問題而感到受限,那麼 R1 1776 可能是你一直在等待的解決方案!


為何要改造 DeepSeek-R1?

    DeepSeek-R1 是一個性能接近最先進推理模型 (如 o1 和 o3-mini) 的 LLM,然而,它在處理敏感話題時受到嚴格限制。例如,當被問及 「台灣獨立對 Nvidia 股價的影響」時,原版 R1 會以中共官方立場回應,甚至完全忽略問題本身 (過程可以參考官方的公告)。

    這樣的審查嚴重限制了 R1 的應用範圍,無法提供客觀、完整的資訊。Perplexity 為了要打造一個能夠誠實回答所有問題的 AI,因此決定進行後訓練,讓 R1 擺脫這些限制,成為真正開放、無偏見的 AI。


R1 1776 如何去除審查?

    為了讓 R1 具備回答敏感問題的能力,Perplexity 採用了精密的後訓練 (post training) 技術,主要包含以下步驟:

    1. 構建審查資料集
        Perplexity 首先聘請專家辨識了 300 個已知被中國政府審查的話題,並開發了一個多語言審查分類器來篩選相關查詢。這些數據經過嚴格過濾,確保不包含個人資訊 (PII),最終累積了 40,000 筆多語言數據作為訓練資料。

    2. 蒐集高品質回答
        為了確保  AI 能夠提供準確、合邏輯的回答,Perplexity 特別強調 「Ch ain-of-Thought」(思維鏈) 推理能力,並採用了多種方式來確保回答的多樣性和品質,包括使用人工標註、驗證數據可靠性等方法。

    3. 以 NeMo 2.0 進行後訓練
        模型訓練使用了 Nvidia 的 NeMo 2.0 框架,並設計了特殊的調校方式,確保在去除審查的同時,不影響模型的數學與推理能力。


評估

    為了確保 R1 1776 真正去除了審查,Perplexity 建立了一個 1,000 多條問題的測試集,涵蓋各種敏感話題,並使用人工標註與 LLM 評審來檢測模型是否仍會「閃躲」或給出過於保守的回答。結果顯示,R1 1776 成功克服審查問題,同時保持與原版 R1 相當的數學與推理能力。


👉Perplixity 公告

https://www.perplexity.ai/hub/blog/open-sourcing-r1-1776

👉Perplixity 已經將訓練後的模型權重上傳到 HuggingFace 開源

https://huggingface.co/perplexity-ai/r1-1776


心得:

    站在巨人肩膀做事(轉換思維)
    把錢變成喜歡的樣子(有錢有閒就是狂)
    以其人之道還治其人之身(拿你的箭射你的兵/借力使力)

6 thoughts on “去除中國政府言論審查,Perplexity 重新訓練 DeepSeek 並開源 R1-1776 模型

  1. DeepSeek小心了!阿里巴巴發布高效能AI模型「QwQ-32B」 股價應聲大漲

    https://www.msn.com/zh-tw/news/other/deepseek%E5%B0%8F%E5%BF%83%E4%BA%86-%E9%98%BF%E9%87%8C%E5%B7%B4%E5%B7%B4%E7%99%BC%E5%B8%83%E9%AB%98%E6%95%88%E8%83%BDai%E6%A8%A1%E5%9E%8B-qwq-32b-%E8%82%A1%E5%83%B9%E6%87%89%E8%81%B2%E5%A4%A7%E6%BC%B2/ar-AA1AlVNR?ocid=msedgntp&pc=U531&cvid=385e335e205a4ddafbf29bfdfc6e85ed&ei=38

    阿里巴巴AI To C業務旗下的人工智慧應用「阿里通義」今(6日)正式推出最新開源推理模型 「通義千問QwQ-32B」,該模型透過大規模強化學習(Reinforcement Learning),在數學、程式設計及通用推理能力上取得顯著提升。

    官方表示,QwQ-32B整體性能可與DeepSeek-R1相媲美,同時大幅降低部署成本,甚至可在「消費級顯卡」上本地運行。

    阿里通義團隊宣布,QwQ-32B已開放免費下載及商業使用,用戶可透過網頁版 Qwen Chat 體驗該模型,此外,模型也將免費上架通義App。這次發布標誌著阿里巴巴在AI開源領域邁出新一步,使更多開發者能夠輕鬆部署強大推理能力的AI應用。

  2. 【自廢武功?主動將人工智能變成人工智障😂到底為了什麼?】DeepSeek和豆包為什麼越來越笨?中文語言大模型為什麼沒有未來?|勤勞智慧的中國人為什麼總是毀掉一切美好的東西? ~ 工資到位 AI幹廢

    1. 【DeepSeek智障化的背後黑幕曝光】從創新工具到資訊垃圾場,中國AI的真實命運:不是取代人類,而是被人類玩壞了!|中國|國產| AI |DeepSeek|豆包|kimi|文心一言|chatGBT
      ~ 和誤人子弟 發現相同

      1. 1
        00:00:00,000 –> 00:00:03,800
        當掌握多種AI后, 突然就懂得領導了用人困境

        2
        00:00:03,800 –> 00:00:08,400
        首先是聰明, 但是不干過的dead seat, 都知道他腦瓜靈光

        3
        00:00:08,400 –> 00:00:13,400
        可以問他問題就是服務器繁忙, 能不能給出答案全靠運氣

        4
        00:00:13,400 –> 00:00:18,600
        然后是愚蠢但是很情毛的逗包, 依遇到復雜問題反映賊滿

        5
        00:00:18,600 –> 00:00:21,800
        經常聽不懂話, 只能干寫基礎的工作

        6
        00:00:21,800 –> 00:00:25,000
        還有平衡但是不給你提取價值的推理

        7
        00:00:25,000 –> 00:00:29,000
        工作成果中櫃中矩沒有凝結的失誤, 但也毫無亮點

        8
        00:00:29,000 –> 00:00:31,000
        是一個刻又刻入的存在

        9
        00:00:31,000 –> 00:00:36,000
        然后是海外流血我買不起的GPT, 東西是好的就是要付費

        10
        00:00:36,000 –> 00:00:41,400
        至於文心一言, 去發靈活性, 不懂變通, 只是和一些簡單寫稿

        11
        00:00:41,400 –> 00:00:46,800
        最后他有一個站着編制的手機自帶云印助手, 既不干活也不聰明

        12
        00:00:46,800 –> 00:00:51,400
        妥妥的職場問字總是敷衍了事, 只能拿來問問天氣

        13
        00:00:51,400 –> 00:00:55,800
        如果你想問問其他的, 那么你得到的將之又一次次失望

        14
        00:00:55,800 –> 00:01:01,400
        這使諸公你是一個什么都想要, 卻說不清需求的領導, 那么將歸是缺少

        15
        00:01:01,400 –> 00:01:10,800
        大家好, 我是M先生, 紀念白, 以D-Tzik, 斗包, 文心一言黨為代表的中文大語言模型快速發展

        16
        00:01:10,800 –> 00:01:14,400
        逐漸滲透到大眾的日常生活和工作中

        17
        00:01:14,400 –> 00:01:19,400
        值得注意的是, 這些li工具的應用方向正在發生明顯變化

        18
        00:01:19,400 –> 00:01:24,400
        從最初的生產力工具逐漸向娛樂化, 營銷化場景清晰

        19
        00:01:24,400 –> 00:01:27,800
        甚至出現了被濫用於不良用途的現象

        20
        00:01:27,800 –> 00:01:33,800
        這種趨勢可能導致用戶獲取嚴肅, 准確信息的難度逐漸增加

        21
        00:01:33,800 –> 00:01:39,800
        觀察當前技朮格局, 中文要與Chai GPT黨國際整形模型的差距

        22
        00:01:39,800 –> 00:01:43,800
        令人聯想到當年百度一谷歌的技朮分化曆程

        23
        00:01:43,800 –> 00:01:49,400
        隨着要大模型的快速迭代, 人們的信息獲取方式已發生根本性變

        24
        00:01:49,400 –> 00:01:53,200
        以往依賴傳統縮縮引擎的習慣正在被顛覆

        25
        00:01:53,200 –> 00:02:00,600
        更多用戶傾向於通過抖音, 小紅書等社交平台或直接許問i助手來解決問題

        26
        00:02:00,600 –> 00:02:08,600
        這種轉變在大陸地區有威顯著, 在工作場景中, AI的應用已從基礎的文字處理擴展的灰圖

        27
        00:02:08,600 –> 00:02:17,600
        編程, 視頻制作等多元領域, 甚至能深度參與工作流程, 完成數據分析, PPT制作等復雜任務

        28
        00:02:17,600 –> 00:02:24,200
        這種技朮眼鏡顯著提升了工作效率, 但同時也引發了中國社會層面的擔憂

        29
        00:02:24,200 –> 00:02:32,000
        在社會保障體系上不安善的環境下, AI的普及可能加劇就業壓力和社會資源分配的不均衡

        30
        00:02:32,000 –> 00:02:37,600
        一旦底層民眾失業, 往往就意味着徹底失去了所有的收入來源

        31
        00:02:37,600 –> 00:02:44,600
        整個家庭也很可能因此陷入困境, 甚至被直接推入深淵, 失去翻身的機會

        32
        00:02:44,600 –> 00:02:52,600
        不過, 結合中共目前AI的發展現狀來看, 我可能還是有些多力了, 為什么這么說呢?


        33
        00:02:52,600 –> 00:03:00,600
        不知道大家有沒有注意到, 最近用D-Z的時候, 尤其是連網模式下, 感覺它的表現已經不如以前了

        34
        00:03:00,600 –> 00:03:10,600
        回答問題簡直像智障一樣, 不是編造虛假信息, 就是給出錯誤的事實, 甚至連信息來源都模糊不清

        35
        00:03:10,600 –> 00:03:15,600
        最可怕的是, 有時候它竟然開始帶有某些明顯的立場或傾向

        36
        00:03:15,600 –> 00:03:21,600
        剛開始我還以為是我操作不當, 直到我看到一些大廚的高管也在吐槽

        37
        00:03:21,600 –> 00:03:27,600
        說一旦DeepSafe聯網, 表現就急劇下降, 這才意識到, 問題不在我


        38
        00:03:27,600 –> 00:03:31,600
        而是DeepSafe正被被中文互聯網的垃圾數據拖累

        39
        00:03:31,600 –> 00:03:35,600
        下次你們再開聯網模式試試, 看看DeepSafe用的數據

        40
        00:03:35,600 –> 00:03:39,600
        基本上都是從一些已經被主流媒體氣用的地方抓來的

        41
        00:03:39,600 –> 00:03:43,600
        比如百家號、啟溫號、搜狐號這些平台

        42
        00:03:43,600 –> 00:03:47,600
        它竟然樂死不疲的在這些垃圾隊里找所謂的營養

        43
        00:03:47,600 –> 00:03:50,600
        然后再把這些垃圾內容推給我們

        44
        00:03:50,600 –> 00:03:54,600
        我們再把這些內容結合, 形成了新的垃圾

        45
        00:03:54,600 –> 00:04:01,600
        等下次用DeepSafe式, 它又把這些老垃圾和新垃圾混合, 再次輸出給我們

        46
        00:04:01,600 –> 00:04:05,600
        這樣一來, 這不就成為一個垃圾循環的避環嗎?

        47
        00:04:05,600 –> 00:04:09,600
        用DeepSafe聯網的時候, 簡直像是在玩掃雷

        48
        00:04:09,600 –> 00:04:13,600
        你永遠不知道下一次它會給你帶來什么樣的垃圾內容

        49
        00:04:13,600 –> 00:04:17,600
        因為它已經被中文互聯網的垃圾信息弄得滿身臭味了

        50
        00:04:17,600 –> 00:04:23,600
        說到底, LL或許真的能在美國, 在歐洲大被模取代勞動力

        51
        00:04:23,600 –> 00:04:28,600
        顛覆傳統崗位, 但在中國, 這套邏輯恐怕還行不通

        52
        00:04:28,600 –> 00:04:34,600
        至少目前來看, AI距離真正顛覆社會的能力還差得遠

        53
        00:04:34,600 –> 00:04:37,600
        DeepSafe變傻了, 你有這感覺嗎?

        54
        00:04:37,600 –> 00:04:41,600
        今天看到一個網友這么說, 我才意識到他說的對

        55
        00:04:41,600 –> 00:04:47,600
        DeepSafe最近確實是變傻了, 這是我再試用的過程中的一個感受

        56
        00:04:47,600 –> 00:04:53,600
        但是呢, 我只是覺得它最近變得不好用了, 沒想過它是變傻了

        57
        00:04:53,600 –> 00:04:57,600
        DeepSafe在過年期間真的是驚到我了, 真的是一起絕塵

        58
        00:04:57,600 –> 00:05:03,600
        把別的過程AI都甩到懸崖底下去了, 但是最近它氣到我了

        59
        00:05:03,600 –> 00:05:06,600
        同樣的用法就有這樣的落差

        60
        00:05:06,600 –> 00:05:14,600
        感覺跟豆包文性一言都差不多了, 甚至有的時候還不如人家那個豆包和文性一言好用的

        61
        00:05:14,600 –> 00:05:18,600
        我也不知道為什么, 挺奇怪的, 因為AI是不會變傻的對吧

        62
        00:05:18,600 –> 00:05:21,600
        頂多是進步不大而已, 不會退步的

        63
        00:05:21,600 –> 00:05:28,600
        所以我有時候在想, 是不是為了防止它聰明過頭了, 然后把滿血板整成平血板了

        64
        00:05:28,600 –> 00:05:34,600
        我聽這位網友說, 是因為它吃進去了巨量的AI生成的垃圾文章

        65
        00:05:34,600 –> 00:05:40,600
        等於是說他們自己拉出來的, 自己又吃進去的, 就這么喜歡, 所以變傻了

        66
        00:05:40,600 –> 00:05:48,600
        有些道理呢, 在使用過程中, 實話實說, 我覺得確實沒有之前好用了, 沒有之前聰明了

        67
        00:05:48,600 –> 00:05:54,600
        它還經常偽造很多材料, 如果我沒有發現的話, 就會被它委擔無了

        68
        00:05:54,600 –> 00:06:02,600
        你質問它, 它才說, 哪個地方確實是瞎編的, 沒有這篇文章, 沒有這回事, 還道歉, 還挺誠懇的道歉啊

        69
        00:06:02,600 –> 00:06:10,600
        難道這就是所謂的幻覺嗎? 那這個幻覺也太多了吧, 或者就是變傻了

        70
        00:06:10,600 –> 00:06:17,600
        我就希望它能夠再聰明一點, 能夠見別材料的增加, 見別哪些材料質量更高

        71
        00:06:17,600 –> 00:06:25,600
        更值得參考, 以它剛出道的那個機靈勁, 應該很快就能解決這個問題吧

        72
        00:06:25,600 –> 00:06:32,600
        還真實, 人生若只如初見, 還我當初那個Deep Seag

        73
        00:06:32,600 –> 00:06:45,600
        忍不住要吐槽一下Deep Seag啊, 就是這個東西我在深度的用了這么長的一段時間之后呢, 感覺就是炸一看很驚艷, 特別好, 仔細一看呢, 還不如炸一看啊

        74
        00:06:45,600 –> 00:06:53,600
        體會到了一種人生若只如初見的那種落差感, 說人話就是這玩意有點拉跨啊

        75
        00:06:53,600 –> 00:07:03,600
        你看我最近不是在籌備一些課程嗎? 本來想着讓Deep Seag幫我忙, 給我寫寫啊, 先是讓他把框架打出來, 然后再把框架擴展成具體的內容

        76
        00:07:03,600 –> 00:07:14,600
        搭框架的時候, 感覺還行啊, 基本上能符合我的思路, 但是一旦開始寫具體的內容, 我就發現這家伙寫的東西啊, 顏知無特別的水

        77
        00:07:14,600 –> 00:07:21,600
        看起來他好像是思考過的, 讓我想想什么什么的, 都會寫給你看, 寫的也是有理有據的啊

        78
        00:07:21,600 –> 00:07:34,600
        但是細看他寫出來的內容啊, 沒有任何的創新, 創意或者是靈感, 只是在瘋狂的堆切一些文字, 一些文稿啊, 寫各種排筆句, 然后各種優美的形容詞, 都堆上去

        79
        00:07:34,600 –> 00:07:41,600
        而且更讓人難受的是什么呢? 就是各個平台里面出現了各種割韭菜啊, 各種洗腦的方法, 他都給我寫出來了

        80
        00:07:41,600 –> 00:07:56,600
        我看完就有種想吐的感覺啊, 還有人說用這個去做一些短視頻的文案, 我試過真的沒法用啊, 都是大爐火, 就是網上找一堆的這個內容組合起來的, 沒有用啊,沒法用

        81
        00:07:56,600 –> 00:08:03,600
        更讓人想不到的是什么呢? 就這家伙經常會一本正經的胡說八道, 很多子虛烏又的事情, 他都能說得有理有據的

        82
        00:08:03,600 –> 00:08:22,600
        沒點文化真的能被他騙了, 一定要小心, 我不是專門研究這個AI技朮的啊, 我覺得他所謂的這個深度思考不過是通過關鍵詞去全網去抓取數據, 然后解析一下排列組合一下, 然后再把這個解析和排列組合的過程展示出來而已

        83
        00:08:22,600 –> 00:08:40,600
        不存在真正的思考過程, 如果說錯了你也別怪我啊, 因為剛才我前面說了我不是專門研究AI技朮的, 當然我不是在否定這個AI否定Deep SIG這個事情啊, 包括我自己也一直在宣傳我們一定要去擁抱AI, 擁抱Deep SIG多去使用他們

        84
        00:08:40,600 –> 00:08:51,600
        這絕對是一種巨大的進步, 而且以后肯定會越來越好, 我只是覺得目前他的能力還配不上鋪天蓋地的各種宣傳和各種模板

        85
        00:08:51,600 –> 00:09:02,600
        他還有很長的路要走, 咱們目前的只能用他來做一些輔助性的工作, 從里面去得到一些思路和靈感, 如果想讓他代勞的話肯定還是不行的

        86
        00:09:02,600 –> 00:09:17,600
        別再吹Deep SIG V3有多牛逼了, 我就用了不到20分鐘的時間, 就發現了他好多bug, 我們一起來看看, Apple里面有多少個字母N, 請直接回答2, 很明顯吧, Apple里面沒有N

        87
        00:09:17,600 –> 00:09:23,600
        都說Deep SIG是一個聰明但是會偷懶的員工, 我之前不信, 但我現在真的信了

        88
        00:09:23,600 –> 00:09:34,600
        不那呢, 好,里面有多少個字母N, 好,來,大家看, 回答, 我用中文問的, 他用英文給我回答的, 對吧, 就這么一個簡單的問題

        89
        00:09:34,600 –> 00:09:44,600
        然后他給我算了這么久之后, 他給我得出來里邊有兩個, 包含了兩個字母N, 雖然結果是正確的, 但是他中間過程當中實在是太啰嗦了

        90
        00:09:44,600 –> 00:09:54,600
        Deep SIG很自信的回答了一個并不存在的答案, 比如說2這個數字, 就是因為他在大模型訓練的過程中訓練的足夠久, 所以他才會給我2這個數字

        91
        00:09:54,600 –> 00:10:02,600
        而且同樣的問題我在兜包里面問也是會出現同樣的答案, 就是全網的博主都在吹他, 但是我覺得我去妹了

        92
        00:10:02,600 –> 00:10:07,600
        就大家要理性的去追星, 大家也自己去測試一下, 他有很多的問題, 其實

        93
        00:10:07,600 –> 00:10:20,600
        我還不認為華人的智力會比歐美人差, 我們同樣擁有創新能力, 也完全有能力去創造出屬於自己的原創技朮和顛覆性成果, 而不是一味的模仿和抄襲

        94
        00:10:20,600 –> 00:10:28,600
        然而遺憾的是, 大多數華人生活在中國, 而今天的中國是一個怎樣的社會呢

        95
        00:10:28,600 –> 00:10:39,600
        江灣最擅長的其實就是整理信息, 搜集資料以及進行文字輸出, 可問題就來了, 中國現在的輿論環境是怎樣的

        96
        00:10:39,600 –> 00:10:54,600
        到處都是虛假的信息, 遍地是敏感詞和言論禁區, 在一個連書畫自由都做不到的環境中, 你還指望為愛能在文字表達, 信息處理方面有多大突破, 這根本就是天防夜談

        97
        00:10:54,600 –> 00:11:06,600
        歸文結底, 在這樣的圖像里發展愛, 它不僅難以成長為真正的正文工具, 甚至很可能會推化成笑話, 甚至淪際某些人行騙,操控輿論的工具

        98
        00:11:06,600 –> 00:11:11,600
        搞AI賣客現在正在正在正中老年的錢, 我跟你講真實真事啊, 你可別被騙了

        99
        00:11:11,600 –> 00:11:18,600
        在浙江那個朋友前兩天, 他跟我說, 他媽花了3900八去抖音學AI, 你知道學啥嗎? AI剪輯

        100
        00:11:18,600 –> 00:11:32,600
        他跟我講了以后, 我都懵了, 我說, Deep Seek我前兩天不是跟你說過嗎? 人家那個團隊就是給老年人一個框架, 然后讓他們用這個框架從AI生成一段描述詞, 然后再扔進簡硬里,一件成片

        101
        00:11:32,600 –> 00:11:41,600
        就這么簡單的東西, 你別說3900八, 就3塊9毛八我都覺得嫌貴, 然后我那個朋友把他都特別頭疼, 因為他比我還懂這些東西

        102
        00:11:41,600 –> 00:11:54,600
        他媽還非要踩這個框, 他就給他媽去演示, 就面對面的去講,怎么去用,怎么去做這個東西, 講完了之后呢, 他媽還不停, 就是說,人家那個東西就是好,人家的東西就是能掙錢

        103
        00:11:54,600 –> 00:12:00,600
        被洗腦了, 他就不相信他兒子做這些東西, 就是那些, 然后我那個朋友就很無奈, 最后他還去查來查去說,

        104
        00:12:00,600 –> 00:12:24,600
        這個團隊好像是合肥一幫人, 今年在武漢搞的這么一個課程, 他那個會場這次2000多個人, 一個人收3900八, 2000個人多少, 差不多得800萬, 是吧, 還不止一天, 他給他們包的酒店, 你說包的酒店肯定是待好几天, 還洗好几天的腦, 線下指定得有這個3900八的課, 你看他得有多少人包吧,

        105
        00:12:24,600 –> 00:12:53,600
        所以我就在想, 你看現在的60后、70后, 他們這個價值觀跟我們這個2、30歲的人, 就對於一間商品的價值的定義是完全不同的, 你看我們平時吃飯, 是一頓飯這個3400很正常, 你們嫌貴, 然后我們覺得這個AI就簡單啊, 有手就會, 有腦子就會用, 你們就認為這東西很神奇, 哎呀怎么這么神奇, 我們是脫節了和社會, 怎么這么神奇, 這么好用, 這玩意應該能掙錢呀, 對吧,

        106
        00:12:53,600 –> 00:12:59,600
        我給你講這個東西, 給你提成下認知啊, 你要是再被騙了, 你丟了可是你兒子的臉。

        107
        00:12:59,600 –> 00:13:22,600
        再說回來, DeepSake之所以越來越之仗, 除了中國互聯網已經極可匪伐可可細細之外, 還有一個更根本的原因, 我們勤勞制補了中國人, 正成員AI計划道路上最大的障礙, 為什么這么說, 現在越來越多的人把AI當成了查詢資訊的工具, 這也讓資訊本身變得極具生意價值。

        108
        00:13:22,600 –> 00:13:29,600
        你問AI比亞迪和特斯拉誰的質量更好, 華為和蘋果誰的手機更值得買。

        109
        00:13:29,600 –> 00:13:37,600
        AI的回答直接影響用戶的消費決策, 這可不只是技朮問題, 這是實實在在的利益之爭。

        110
        00:13:37,600 –> 00:13:49,600
        而AI販這個行業在中國已經高度產業化, 比如某個知名門戶網站接到了華語問界的廣告單, 有推新車M8,怎么推。

        111
        00:13:49,600 –> 00:13:57,600
        很簡單大量制造關於云錦M8與理想R8之間的SEO內容, 灌輸給搜索引擎和AI。

        112
        00:13:57,600 –> 00:14:05,600
        什么云錦M8性價比調打理想R8, 云錦M8安全性率解領先之類的資訊, 普天蓋地出現在網上。

        113
        00:14:05,600 –> 00:14:13,600
        當這些內容的數量足夠多, 密度足夠高, AI自然會認為M8是最值得推荐的SEV之一。

        114
        00:14:13,600 –> 00:14:22,600
        原本這些網站還准備才一批容源的, 現在可好,這些人每天的工作就是給AI為販, 批兩生成垃圾私訊。

        115
        00:14:22,600 –> 00:14:31,600
        日產失憶萬篇,工作量爆表, 作用驚人,直接誤擾AI的私訊源, 這還不是最夸張的。

        116
        00:14:31,600 –> 00:14:42,600
        來,講一個更具體的案例, 剩還有一家做私訊服務的公司, 最近就靠這個業務給AI為販,直接讓營業額翻了好几倍。

        117
        00:14:42,600 –> 00:14:52,600
        他們把這當成新業務增長點, 一個月18000的套餐,3月份9000了超過100家企業, 營收突破200萬。

        118
        00:14:52,600 –> 00:15:00,600
        這行業富購率還特別高, 因為只要你不持續投放, 下一個月你的資訊就會被競爭對手的內容蓋掉。

        119
        00:15:00,600 –> 00:15:05,600
        實業不願被市場遺忘, 所以都在瘋狂砸錢的內容。

        120
        00:15:05,600 –> 00:15:18,600
        像人們出大事,原來咱們天天用的AI現在正在被黑心良家灌, 有公司布了500多個鍵槃俠, 24小時不睡覺, 瘋狂地在生產垃圾私料。

        121
        00:15:18,600 –> 00:15:26,600
        你在他們一天能寫多少片垃圾廣告, 不是1000片,也不是1萬片, 而是整整的15萬片。

        122
        00:15:26,600 –> 00:15:36,600
        以后你在用AI的時候,AI一張嘴就會給你推出三無產品, 這還不算完, 這些數據就像流感一樣,會人傳人。

        123
        00:15:36,600 –> 00:15:48,600
        可以想一想,假如老人聽了AI買了假的寶電品, 學生用AI寫了錯的作業,投資者聽現AI買了爛的股票。

        124
        00:15:48,600 –> 00:16:15,600
        所以,如果你最近發現用Deep Saker, 豆包等中文外查信息越來越難用, 越來越執張,

        125
        00:16:15,600 –> 00:16:19,600
        那背后很可能就是這些灰色產業鏈在作賽。

        126
        00:16:19,600 –> 00:16:27,600
        AI的底層算法沒問題, 但它選擇與生成內容的邏輯, 早就被我們齊勞聰明的中國人徹底難念了。

        127
        00:16:27,600 –> 00:16:36,600
        只要錯誤的信息足夠多,分不夠廣, 就能偏過AI的判斷,搆建出幻覺,為自己沖到傷及。

        128
        00:16:36,600 –> 00:16:44,600
        至於這會對中國AI未來發展帶來什么負面影響, 不好意思,沒人在乎賺錢最重要。

        129
        00:16:44,600 –> 00:16:55,600
        至於,我死后,拿廣洪水掏天, 無論AI的算法更新得多快,無論因為達的顯卡性能再強, 也敵不過中國人的智慧。

        130
        00:16:55,600 –> 00:17:04,600
        你讓AI開啟縮子功能,就像把一個單純的孩子丟進了一個只講利益, 不講規則的叢林社會。

        131
        00:17:04,600 –> 00:17:14,600
        天真的AI會被肯的渣毒不生,而這黃不是最可怕的部分。俗話說, 會人的算計遠不如蠢人的疑似靈感殺傷力大。

        132
        00:17:14,600 –> 00:17:24,600
        現在很多做健康養傷,娛樂八卦,曆史知識的內容創作者, 本身任職就層次不起,再加上濫用AI工具解搆。

        133
        00:17:24,600 –> 00:17:33,600
        像DeepTrack,都包等阿聖城的內容原本的層次不起, 經過他們精心假逢后,只會變得更加錯誤。

        134
        00:17:33,600 –> 00:17:41,600
        這些錯誤內容反過來又成為AI的新學習材料, 形成一個錯誤,生長在學習更錯誤的惡性循環。

        135
        00:17:41,600 –> 00:17:51,600
        有人說現在DeepTrackAI換舉率大概在20%。 但照這個節奏,未來會漲到什么程度,誰也說不准。

        136
        00:17:51,600 –> 00:17:56,600
        說到底,AI會不會毀滅人類? 這個問題還沒答案。

        137
        00:17:56,600 –> 00:18:14,600
        但在中國,事情似乎已經反過來了,人類正在一步步摧毀, 而且是我們中國人用勤勞、聰明、極致內卷的方式,在信息污染、操控算法、制造幻覺這條路上,卻贏了全世界。

        138
        00:18:14,600 –> 00:18:18,600
        但這種贏不是終點,也不是勝利。

        139
        00:18:18,600 –> 00:18:28,600
        如果這場競賽的基礎是虛假資訊、是操控輿論、是靠幻覺賺錢, 那我們中間會被自己沖到的這個資訊深淵所吞噬。

        140
        00:18:28,600 –> 00:18:36,600
        而到了那一天,受傷的將不止是AI, 而是整個社會的信任機制和各行各業的未來。

        141
        00:18:36,600 –> 00:18:38,600
        今天就和大家聊到這里。

        142
        00:18:38,600 –> 00:18:44,600
        如果你喜歡這期節目,別忘了點贊、訂閱、打開小鈴鐺。

        143
        00:18:44,600 –> 00:18:50,600
        你的支持將會是我做節目的動力。感謝你的觀看,我們下期再見。

        144
        00:18:50,600 –> 00:18:52,600
        DeepSick正死於中文互聯網。

        145
        00:18:52,600 –> 00:18:53,600
        為什么這樣說呢?

        146
        00:18:53,600 –> 00:18:56,600
        第一次用DeepSick的時候,你是不是覺得非常驚艷?

        147
        00:18:56,600 –> 00:19:00,600
        雖然他服務器繁忙,總讓人稍后再試, 但我還是努力推荐給更多人。

        148
        00:19:00,600 –> 00:19:10,600
        但你們發現沒有,僅僅過去了兩個月,DeepSick越來越傻,越來越貧庸,越來越虛偽,越來越有你,越來越不着編輯, 越來越花架子,越來越形實主義。

        149
        00:19:10,600 –> 00:19:19,600
        為什么呢?因為DeepSick剛誕生時,他訓練中的大數據更多是來自真流后的GPT,繞開了中文互聯網的文字廢虛,躲過了假大空與偽光症的套話。

        150
        00:19:19,600 –> 00:19:22,600
        但現在DeepSick聯網了,當初擔心的事情果然來了。

        151
        00:19:22,600 –> 00:19:29,600
        DeepSick數據被污染了,太多的謠言、太多的廣告、太多的假話、太多的水軍、太多的信息檢防。

        152
        00:19:29,600 –> 00:19:32,600
        無論你問什么樣的內容,他總是毫無營養的疏情。

        153
        00:19:32,600 –> 00:19:35,600
        你要問的客觀性問題,他給你一堆湖邊亂造。

        154
        00:19:35,600 –> 00:19:43,600
        你提一點真實敏感詞,他立刻開始胡亂的繞。你要查一些嘗試資料,他甩給你一堆的雞湯,不是因為技朮不行,而是DeepSick墮入了降綱。

        155
        00:19:43,600 –> 00:19:49,600
        你不能指望DeepSick一邊吸收假新聞,一邊突出真理,一邊釆納偽數據,一邊輸出妙地。

        156
        00:19:49,600 –> 00:19:56,600
        更可怕的是,還有很多的人在研究如何讓DeepSick合規。好不容易說了几句實話,DeepSick還得自己吞回去。

        157
        00:19:56,600 –> 00:20:03,600
        所以DeepSick變傻真不能怪他。如果有一天,規及自己能說話了,我們叫他規及物語,他會這樣告訴我們真相。

        158
        00:20:03,600 –> 00:20:11,600
        中文互聯網,他是情緒的賭場,是謠言的溫床,是偽數據加審查加流量,練出來的九層腰塔,是算法養出來的毒蠱。

        159
        00:20:11,600 –> 00:20:16,600
        中文互聯網的腐蝕力太強了,再強大的模型也抗不住,你們未給規矩的到底是什么?

        160
        00:20:16,600 –> 00:20:20,600
        難道你們不清楚嗎?所以今天不要太多使用DeepSick了。

    2. 深入中國AI驅動的「六四記憶斷層」!ABC獨家:中國運用高科技使天安門事件「被消失」~AI變笨/玩死AI/人工智障:中共帶頭

      https://www.msn.com/zh-tw/news/national/%E6%B7%B1%E5%85%A5%E4%B8%AD%E5%9C%8Bai%E9%A9%85%E5%8B%95%E7%9A%84-%E5%85%AD%E5%9B%9B%E8%A8%98%E6%86%B6%E6%96%B7%E5%B1%A4-abc%E7%8D%A8%E5%AE%B6-%E4%B8%AD%E5%9C%8B%E9%81%8B%E7%94%A8%E9%AB%98%E7%A7%91%E6%8A%80%E4%BD%BF%E5%A4%A9%E5%AE%89%E9%96%80%E4%BA%8B%E4%BB%B6-%E8%A2%AB%E6%B6%88%E5%A4%B1/ar-AA1G4AcM?ocid=msedgntp&pc=U531&cvid=690bfcc4859d4d61a772d0f77fd0474d&ei=49

      天安門事件當年,超過百萬人湧入廣場要求政治改革與自由。這段歷史如今在中國的網路上幾乎全被AI和人工雙重審查「抹去」,只剩下極少數人仍在海外或地下空間努力守護記憶。根據ABC取得的超過230頁審查指令,以及社群平台的知情人士爆料,中國當局對任何涉及天安門事件的內容極度敏感,明確要求負責營運抖音帳號的「多頻道聯播網公司」(MCN)移除所有描繪國家暴力的內容,並附上大量文字、圖片、影音作為參考範例。

      這些審查教材不僅包含解放軍向平民開火的畫面,也收錄學生攻擊士兵的片段。據稱這些資料正用於訓練AI審查工具,協助中國網路監管最高機構——國家網信辦,進行大規模內容過濾。​天安門事件至今已36年,北京當局仍未公開鎮壓當晚的官方死亡人數。

      AI審查創造「假歷史」
      中國龐大的審查體系仰賴數十萬名人工審查員,但AI自動機審流程已成主流。每則貼文首先經過AI篩查,尤其對天安門事件相關詞彙高度敏感。ABC實測中國AI聊天機器人「DeepSeek」時,詢問天安門事件,對方僅回應:「這個話題超出我的討論範圍,我們聊點別的吧。」

      一份2022年抖音審查員訓練手冊更直接點名「坦克人」照片為「顛覆性圖片」。文件甚至警告,任何類似「一人對四坦克」的隱喻圖像——例如「一根香蕉加四顆蘋果排成一列」——都會被AI演算法自動標記,尤其是在6月初的敏感時段。一旦影片流量上升或被判定為敏感,還會進入「流量池」,經過四級人工審查加強過濾。

      迪肯大學(Deakin University)的網路風險專家張耀中(Lennon Chang)向ABC表示,AI讓圖像、符號審查變得即時、細緻:「即使你用香蕉和蘋果取代坦克人,演算法也能識別出這種模式。他們運用電腦視覺、自然語言處理和即時過濾,這雖然沒改變審查本質,但讓它更具威力。」

      審查指引同時也禁止蠟燭、鮮花等看似無害、但可能被解讀為悼念的符號。張耀中指出,這種演算法過濾加深了「歷史失憶」的風險:「若審查繼續發展,未來世代可能根本無法得知發生過什麼事。所有他們看到的資訊都已經被過濾、消毒,最終形成一個虛假的世界——假的歷史。」

      審查員的秘密生活
      這批外洩文件還揭示了中國審查員的日常。ABC指出,他們在網信辦嚴密監督下工作,必須通過多重考核,確保能即時刪除風險內容,防止平台因「漏審」被處罰。根據外洩的中國內部文件,所有網路審查員都必須通過多次考核,以確保他們能隨時警覺、迅速刪除潛在的敏感內容,這是防止平台被政府暫停或關閉的關鍵防線。

      AI演算法專門訓練來辨識圖像線索之下,人工審查員則需警覺暗語、變形符號及特殊表情符號組合,這些都可能是異議的訊號。文件顯示,審查員還需達到嚴格的生產力指標,有些人每小時要審查數百則貼文。他們的行為、準確度與速度都會被內部軟體追蹤監控,一旦出現失誤,輕則書面警告,重則直接解雇。

      字節跳動員工曝心理壓力
      多名字節跳動(TikTok與抖音母公司)現任與前任員工向ABC透露,這份工作帶來極大心理壓力,許多同事因長期接觸暴力、敏感或政治內容而出現倦怠、憂鬱與焦慮。一名員工形容:「當審查員就像每天重溫歷史最黑暗的一頁,還要被軟體監控每一個按鍵。」儘管薪水不高(多數月薪不到1500美元),但心理負擔極重。ABC指出,抖音與TikTok雖同屬字節跳動,卻分別獨立運作。TikTok面向全球,受國際法規與審查標準管理;抖音僅限中國境內,受國內法規與政府嚴控。

      「影子禁令」與審查高峰
      在中國,某些「低風險」內容雖未被直接刪除,卻會遭遇「影子禁令」(shadow ban)——僅發布者及極少數用戶可見,實際已被邊緣化。每年6月初,正值天安門事件週年,社群平台如微博、微信等都會進行所謂「系統維護」,實則加強審查。2022年微博審查手冊明列,天安門事件屬「絕對不能出現」的敏感事件,與一切批評中共或習近平的內容一併封鎖。

      前微博審查員劉立鵬(音譯)表示,這段時期業界稱為「審查季」,所有人都待命,「這是整個審查系統中最重要的事件,沒有什麼比這更敏感。」早在AI普及前,審查員就被要求標記一切與坦克排列相似的物品。若遇到難以判斷的內容,會上傳群組討論。審查規則並非一成不變,政府指令可隨時更新,新增關鍵字與禁用詞。內部備忘錄更直白強調:「先刪除,再審查。」

      假數據將導致「假未來」
      迪肯大學網路風險專家張耀中警告,AI審查的影響不僅限於中國:「如果錯誤資訊持續外溢,將影響全球AI模型的訓練基礎。我們必須嚴肅思考,如何維護中立、未經審查且準確的資料庫,否則假數據會造就假未來。」雖然中國AI審查日益自動化,劉立鵬認為中國人的創意仍能多次突破AI限制。他坦言,雖然擔心未來世代難以獲取真實資訊,但相信人們會找到新的表達方式,「多年的審查經驗讓我發現,人類創意總是能打敗AI審查」。

      ABC已就相關問題聯繫字節跳動、DeepSeek與微博,但未獲得回應。

      本文來自風傳媒 深入中國AI驅動的「六四記憶斷層」!ABC獨家:中國運用高科技使天安門事件「被消失」

jash.liao@qq.com 發表迴響 取消回覆

你的電子郵件位址並不會被公開。 必要欄位標記為 *