去除中國政府言論審查,Perplexity 重新訓練 DeepSeek 並開源 R1-1776 模型
去除中國政府言論審查,Perplexity 重新訓練 DeepSeek 並開源 R1-1776 模型
資料來源: https://www.soft4fun.net/tech/ai/perplexity-open-source-r1-1776.htm
Perplexity 宣布 開源 R1 1776,這是一個基於 DeepSeek-R1 的大型語言模型 (LLM),但經過特別後訓練,以確保其提供準確、中立且無偏見的回答。這個版本不再受中國政府的審查影響,能夠自由討論包括地緣政治、經濟影響等敏感話題。如果你曾因 AI 拒絕回答某些問題而感到受限,那麼 R1 1776 可能是你一直在等待的解決方案!
為何要改造 DeepSeek-R1?
DeepSeek-R1 是一個性能接近最先進推理模型 (如 o1 和 o3-mini) 的 LLM,然而,它在處理敏感話題時受到嚴格限制。例如,當被問及 「台灣獨立對 Nvidia 股價的影響」時,原版 R1 會以中共官方立場回應,甚至完全忽略問題本身 (過程可以參考官方的公告)。
這樣的審查嚴重限制了 R1 的應用範圍,無法提供客觀、完整的資訊。Perplexity 為了要打造一個能夠誠實回答所有問題的 AI,因此決定進行後訓練,讓 R1 擺脫這些限制,成為真正開放、無偏見的 AI。
R1 1776 如何去除審查?
為了讓 R1 具備回答敏感問題的能力,Perplexity 採用了精密的後訓練 (post training) 技術,主要包含以下步驟:
1. 構建審查資料集
Perplexity 首先聘請專家辨識了 300 個已知被中國政府審查的話題,並開發了一個多語言審查分類器來篩選相關查詢。這些數據經過嚴格過濾,確保不包含個人資訊 (PII),最終累積了 40,000 筆多語言數據作為訓練資料。
2. 蒐集高品質回答
為了確保 AI 能夠提供準確、合邏輯的回答,Perplexity 特別強調 「Ch ain-of-Thought」(思維鏈) 推理能力,並採用了多種方式來確保回答的多樣性和品質,包括使用人工標註、驗證數據可靠性等方法。
3. 以 NeMo 2.0 進行後訓練
模型訓練使用了 Nvidia 的 NeMo 2.0 框架,並設計了特殊的調校方式,確保在去除審查的同時,不影響模型的數學與推理能力。
評估
為了確保 R1 1776 真正去除了審查,Perplexity 建立了一個 1,000 多條問題的測試集,涵蓋各種敏感話題,並使用人工標註與 LLM 評審來檢測模型是否仍會「閃躲」或給出過於保守的回答。結果顯示,R1 1776 成功克服審查問題,同時保持與原版 R1 相當的數學與推理能力。
Perplixity 公告
https://www.perplexity.ai/hub/blog/open-sourcing-r1-1776
Perplixity 已經將訓練後的模型權重上傳到 HuggingFace 開源
https://huggingface.co/perplexity-ai/r1-1776
心得:
站在巨人肩膀做事(轉換思維)
把錢變成喜歡的樣子(有錢有閒就是狂)
以其人之道還治其人之身(拿你的箭射你的兵/借力使力)
6 thoughts on “去除中國政府言論審查,Perplexity 重新訓練 DeepSeek 並開源 R1-1776 模型”
DeepSeek小心了!阿里巴巴發布高效能AI模型「QwQ-32B」 股價應聲大漲
https://www.msn.com/zh-tw/news/other/deepseek%E5%B0%8F%E5%BF%83%E4%BA%86-%E9%98%BF%E9%87%8C%E5%B7%B4%E5%B7%B4%E7%99%BC%E5%B8%83%E9%AB%98%E6%95%88%E8%83%BDai%E6%A8%A1%E5%9E%8B-qwq-32b-%E8%82%A1%E5%83%B9%E6%87%89%E8%81%B2%E5%A4%A7%E6%BC%B2/ar-AA1AlVNR?ocid=msedgntp&pc=U531&cvid=385e335e205a4ddafbf29bfdfc6e85ed&ei=38
阿里巴巴AI To C業務旗下的人工智慧應用「阿里通義」今(6日)正式推出最新開源推理模型 「通義千問QwQ-32B」,該模型透過大規模強化學習(Reinforcement Learning),在數學、程式設計及通用推理能力上取得顯著提升。
官方表示,QwQ-32B整體性能可與DeepSeek-R1相媲美,同時大幅降低部署成本,甚至可在「消費級顯卡」上本地運行。
阿里通義團隊宣布,QwQ-32B已開放免費下載及商業使用,用戶可透過網頁版 Qwen Chat 體驗該模型,此外,模型也將免費上架通義App。這次發布標誌著阿里巴巴在AI開源領域邁出新一步,使更多開發者能夠輕鬆部署強大推理能力的AI應用。
【自廢武功?主動將人工智能變成人工智障
到底為了什麼?】DeepSeek和豆包為什麼越來越笨?中文語言大模型為什麼沒有未來?|勤勞智慧的中國人為什麼總是毀掉一切美好的東西? ~ 工資到位 AI幹廢
為何要一直推出AI新模型的原因找到了 哈哈
【DeepSeek智障化的背後黑幕曝光】從創新工具到資訊垃圾場,中國AI的真實命運:不是取代人類,而是被人類玩壞了!|中國|國產| AI |DeepSeek|豆包|kimi|文心一言|chatGBT
~ 和誤人子弟 發現相同
1
00:00:00,000 –> 00:00:03,800
當掌握多種AI后, 突然就懂得領導了用人困境
2
00:00:03,800 –> 00:00:08,400
首先是聰明, 但是不干過的dead seat, 都知道他腦瓜靈光
3
00:00:08,400 –> 00:00:13,400
可以問他問題就是服務器繁忙, 能不能給出答案全靠運氣
4
00:00:13,400 –> 00:00:18,600
然后是愚蠢但是很情毛的逗包, 依遇到復雜問題反映賊滿
5
00:00:18,600 –> 00:00:21,800
經常聽不懂話, 只能干寫基礎的工作
6
00:00:21,800 –> 00:00:25,000
還有平衡但是不給你提取價值的推理
7
00:00:25,000 –> 00:00:29,000
工作成果中櫃中矩沒有凝結的失誤, 但也毫無亮點
8
00:00:29,000 –> 00:00:31,000
是一個刻又刻入的存在
9
00:00:31,000 –> 00:00:36,000
然后是海外流血我買不起的GPT, 東西是好的就是要付費
10
00:00:36,000 –> 00:00:41,400
至於文心一言, 去發靈活性, 不懂變通, 只是和一些簡單寫稿
11
00:00:41,400 –> 00:00:46,800
最后他有一個站着編制的手機自帶云印助手, 既不干活也不聰明
12
00:00:46,800 –> 00:00:51,400
妥妥的職場問字總是敷衍了事, 只能拿來問問天氣
13
00:00:51,400 –> 00:00:55,800
如果你想問問其他的, 那么你得到的將之又一次次失望
14
00:00:55,800 –> 00:01:01,400
這使諸公你是一個什么都想要, 卻說不清需求的領導, 那么將歸是缺少
15
00:01:01,400 –> 00:01:10,800
大家好, 我是M先生, 紀念白, 以D-Tzik, 斗包, 文心一言黨為代表的中文大語言模型快速發展
16
00:01:10,800 –> 00:01:14,400
逐漸滲透到大眾的日常生活和工作中
17
00:01:14,400 –> 00:01:19,400
值得注意的是, 這些li工具的應用方向正在發生明顯變化
18
00:01:19,400 –> 00:01:24,400
從最初的生產力工具逐漸向娛樂化, 營銷化場景清晰
19
00:01:24,400 –> 00:01:27,800
甚至出現了被濫用於不良用途的現象
20
00:01:27,800 –> 00:01:33,800
這種趨勢可能導致用戶獲取嚴肅, 准確信息的難度逐漸增加
21
00:01:33,800 –> 00:01:39,800
觀察當前技朮格局, 中文要與Chai GPT黨國際整形模型的差距
22
00:01:39,800 –> 00:01:43,800
令人聯想到當年百度一谷歌的技朮分化曆程
23
00:01:43,800 –> 00:01:49,400
隨着要大模型的快速迭代, 人們的信息獲取方式已發生根本性變
24
00:01:49,400 –> 00:01:53,200
以往依賴傳統縮縮引擎的習慣正在被顛覆
25
00:01:53,200 –> 00:02:00,600
更多用戶傾向於通過抖音, 小紅書等社交平台或直接許問i助手來解決問題
26
00:02:00,600 –> 00:02:08,600
這種轉變在大陸地區有威顯著, 在工作場景中, AI的應用已從基礎的文字處理擴展的灰圖
27
00:02:08,600 –> 00:02:17,600
編程, 視頻制作等多元領域, 甚至能深度參與工作流程, 完成數據分析, PPT制作等復雜任務
28
00:02:17,600 –> 00:02:24,200
這種技朮眼鏡顯著提升了工作效率, 但同時也引發了中國社會層面的擔憂
29
00:02:24,200 –> 00:02:32,000
在社會保障體系上不安善的環境下, AI的普及可能加劇就業壓力和社會資源分配的不均衡
30
00:02:32,000 –> 00:02:37,600
一旦底層民眾失業, 往往就意味着徹底失去了所有的收入來源
31
00:02:37,600 –> 00:02:44,600
整個家庭也很可能因此陷入困境, 甚至被直接推入深淵, 失去翻身的機會
32
00:02:44,600 –> 00:02:52,600
不過, 結合中共目前AI的發展現狀來看, 我可能還是有些多力了, 為什么這么說呢?
33
00:02:52,600 –> 00:03:00,600
不知道大家有沒有注意到, 最近用D-Z的時候, 尤其是連網模式下, 感覺它的表現已經不如以前了
34
00:03:00,600 –> 00:03:10,600
回答問題簡直像智障一樣, 不是編造虛假信息, 就是給出錯誤的事實, 甚至連信息來源都模糊不清
35
00:03:10,600 –> 00:03:15,600
最可怕的是, 有時候它竟然開始帶有某些明顯的立場或傾向
36
00:03:15,600 –> 00:03:21,600
剛開始我還以為是我操作不當, 直到我看到一些大廚的高管也在吐槽
37
00:03:21,600 –> 00:03:27,600
說一旦DeepSafe聯網, 表現就急劇下降, 這才意識到, 問題不在我
38
00:03:27,600 –> 00:03:31,600
而是DeepSafe正被被中文互聯網的垃圾數據拖累
39
00:03:31,600 –> 00:03:35,600
下次你們再開聯網模式試試, 看看DeepSafe用的數據
40
00:03:35,600 –> 00:03:39,600
基本上都是從一些已經被主流媒體氣用的地方抓來的
41
00:03:39,600 –> 00:03:43,600
比如百家號、啟溫號、搜狐號這些平台
42
00:03:43,600 –> 00:03:47,600
它竟然樂死不疲的在這些垃圾隊里找所謂的營養
43
00:03:47,600 –> 00:03:50,600
然后再把這些垃圾內容推給我們
44
00:03:50,600 –> 00:03:54,600
我們再把這些內容結合, 形成了新的垃圾
45
00:03:54,600 –> 00:04:01,600
等下次用DeepSafe式, 它又把這些老垃圾和新垃圾混合, 再次輸出給我們
46
00:04:01,600 –> 00:04:05,600
這樣一來, 這不就成為一個垃圾循環的避環嗎?
47
00:04:05,600 –> 00:04:09,600
用DeepSafe聯網的時候, 簡直像是在玩掃雷
48
00:04:09,600 –> 00:04:13,600
你永遠不知道下一次它會給你帶來什么樣的垃圾內容
49
00:04:13,600 –> 00:04:17,600
因為它已經被中文互聯網的垃圾信息弄得滿身臭味了
50
00:04:17,600 –> 00:04:23,600
說到底, LL或許真的能在美國, 在歐洲大被模取代勞動力
51
00:04:23,600 –> 00:04:28,600
顛覆傳統崗位, 但在中國, 這套邏輯恐怕還行不通
52
00:04:28,600 –> 00:04:34,600
至少目前來看, AI距離真正顛覆社會的能力還差得遠
53
00:04:34,600 –> 00:04:37,600
DeepSafe變傻了, 你有這感覺嗎?
54
00:04:37,600 –> 00:04:41,600
今天看到一個網友這么說, 我才意識到他說的對
55
00:04:41,600 –> 00:04:47,600
DeepSafe最近確實是變傻了, 這是我再試用的過程中的一個感受
56
00:04:47,600 –> 00:04:53,600
但是呢, 我只是覺得它最近變得不好用了, 沒想過它是變傻了
57
00:04:53,600 –> 00:04:57,600
DeepSafe在過年期間真的是驚到我了, 真的是一起絕塵
58
00:04:57,600 –> 00:05:03,600
把別的過程AI都甩到懸崖底下去了, 但是最近它氣到我了
59
00:05:03,600 –> 00:05:06,600
同樣的用法就有這樣的落差
60
00:05:06,600 –> 00:05:14,600
感覺跟豆包文性一言都差不多了, 甚至有的時候還不如人家那個豆包和文性一言好用的
61
00:05:14,600 –> 00:05:18,600
我也不知道為什么, 挺奇怪的, 因為AI是不會變傻的對吧
62
00:05:18,600 –> 00:05:21,600
頂多是進步不大而已, 不會退步的
63
00:05:21,600 –> 00:05:28,600
所以我有時候在想, 是不是為了防止它聰明過頭了, 然后把滿血板整成平血板了
64
00:05:28,600 –> 00:05:34,600
我聽這位網友說, 是因為它吃進去了巨量的AI生成的垃圾文章
65
00:05:34,600 –> 00:05:40,600
等於是說他們自己拉出來的, 自己又吃進去的, 就這么喜歡, 所以變傻了
66
00:05:40,600 –> 00:05:48,600
有些道理呢, 在使用過程中, 實話實說, 我覺得確實沒有之前好用了, 沒有之前聰明了
67
00:05:48,600 –> 00:05:54,600
它還經常偽造很多材料, 如果我沒有發現的話, 就會被它委擔無了
68
00:05:54,600 –> 00:06:02,600
你質問它, 它才說, 哪個地方確實是瞎編的, 沒有這篇文章, 沒有這回事, 還道歉, 還挺誠懇的道歉啊
69
00:06:02,600 –> 00:06:10,600
難道這就是所謂的幻覺嗎? 那這個幻覺也太多了吧, 或者就是變傻了
70
00:06:10,600 –> 00:06:17,600
我就希望它能夠再聰明一點, 能夠見別材料的增加, 見別哪些材料質量更高
71
00:06:17,600 –> 00:06:25,600
更值得參考, 以它剛出道的那個機靈勁, 應該很快就能解決這個問題吧
72
00:06:25,600 –> 00:06:32,600
還真實, 人生若只如初見, 還我當初那個Deep Seag
73
00:06:32,600 –> 00:06:45,600
忍不住要吐槽一下Deep Seag啊, 就是這個東西我在深度的用了這么長的一段時間之后呢, 感覺就是炸一看很驚艷, 特別好, 仔細一看呢, 還不如炸一看啊
74
00:06:45,600 –> 00:06:53,600
體會到了一種人生若只如初見的那種落差感, 說人話就是這玩意有點拉跨啊
75
00:06:53,600 –> 00:07:03,600
你看我最近不是在籌備一些課程嗎? 本來想着讓Deep Seag幫我忙, 給我寫寫啊, 先是讓他把框架打出來, 然后再把框架擴展成具體的內容
76
00:07:03,600 –> 00:07:14,600
搭框架的時候, 感覺還行啊, 基本上能符合我的思路, 但是一旦開始寫具體的內容, 我就發現這家伙寫的東西啊, 顏知無特別的水
77
00:07:14,600 –> 00:07:21,600
看起來他好像是思考過的, 讓我想想什么什么的, 都會寫給你看, 寫的也是有理有據的啊
78
00:07:21,600 –> 00:07:34,600
但是細看他寫出來的內容啊, 沒有任何的創新, 創意或者是靈感, 只是在瘋狂的堆切一些文字, 一些文稿啊, 寫各種排筆句, 然后各種優美的形容詞, 都堆上去
79
00:07:34,600 –> 00:07:41,600
而且更讓人難受的是什么呢? 就是各個平台里面出現了各種割韭菜啊, 各種洗腦的方法, 他都給我寫出來了
80
00:07:41,600 –> 00:07:56,600
我看完就有種想吐的感覺啊, 還有人說用這個去做一些短視頻的文案, 我試過真的沒法用啊, 都是大爐火, 就是網上找一堆的這個內容組合起來的, 沒有用啊,沒法用
81
00:07:56,600 –> 00:08:03,600
更讓人想不到的是什么呢? 就這家伙經常會一本正經的胡說八道, 很多子虛烏又的事情, 他都能說得有理有據的
82
00:08:03,600 –> 00:08:22,600
沒點文化真的能被他騙了, 一定要小心, 我不是專門研究這個AI技朮的啊, 我覺得他所謂的這個深度思考不過是通過關鍵詞去全網去抓取數據, 然后解析一下排列組合一下, 然后再把這個解析和排列組合的過程展示出來而已
83
00:08:22,600 –> 00:08:40,600
不存在真正的思考過程, 如果說錯了你也別怪我啊, 因為剛才我前面說了我不是專門研究AI技朮的, 當然我不是在否定這個AI否定Deep SIG這個事情啊, 包括我自己也一直在宣傳我們一定要去擁抱AI, 擁抱Deep SIG多去使用他們
84
00:08:40,600 –> 00:08:51,600
這絕對是一種巨大的進步, 而且以后肯定會越來越好, 我只是覺得目前他的能力還配不上鋪天蓋地的各種宣傳和各種模板
85
00:08:51,600 –> 00:09:02,600
他還有很長的路要走, 咱們目前的只能用他來做一些輔助性的工作, 從里面去得到一些思路和靈感, 如果想讓他代勞的話肯定還是不行的
86
00:09:02,600 –> 00:09:17,600
別再吹Deep SIG V3有多牛逼了, 我就用了不到20分鐘的時間, 就發現了他好多bug, 我們一起來看看, Apple里面有多少個字母N, 請直接回答2, 很明顯吧, Apple里面沒有N
87
00:09:17,600 –> 00:09:23,600
都說Deep SIG是一個聰明但是會偷懶的員工, 我之前不信, 但我現在真的信了
88
00:09:23,600 –> 00:09:34,600
不那呢, 好,里面有多少個字母N, 好,來,大家看, 回答, 我用中文問的, 他用英文給我回答的, 對吧, 就這么一個簡單的問題
89
00:09:34,600 –> 00:09:44,600
然后他給我算了這么久之后, 他給我得出來里邊有兩個, 包含了兩個字母N, 雖然結果是正確的, 但是他中間過程當中實在是太啰嗦了
90
00:09:44,600 –> 00:09:54,600
Deep SIG很自信的回答了一個并不存在的答案, 比如說2這個數字, 就是因為他在大模型訓練的過程中訓練的足夠久, 所以他才會給我2這個數字
91
00:09:54,600 –> 00:10:02,600
而且同樣的問題我在兜包里面問也是會出現同樣的答案, 就是全網的博主都在吹他, 但是我覺得我去妹了
92
00:10:02,600 –> 00:10:07,600
就大家要理性的去追星, 大家也自己去測試一下, 他有很多的問題, 其實
93
00:10:07,600 –> 00:10:20,600
我還不認為華人的智力會比歐美人差, 我們同樣擁有創新能力, 也完全有能力去創造出屬於自己的原創技朮和顛覆性成果, 而不是一味的模仿和抄襲
94
00:10:20,600 –> 00:10:28,600
然而遺憾的是, 大多數華人生活在中國, 而今天的中國是一個怎樣的社會呢
95
00:10:28,600 –> 00:10:39,600
江灣最擅長的其實就是整理信息, 搜集資料以及進行文字輸出, 可問題就來了, 中國現在的輿論環境是怎樣的
96
00:10:39,600 –> 00:10:54,600
到處都是虛假的信息, 遍地是敏感詞和言論禁區, 在一個連書畫自由都做不到的環境中, 你還指望為愛能在文字表達, 信息處理方面有多大突破, 這根本就是天防夜談
97
00:10:54,600 –> 00:11:06,600
歸文結底, 在這樣的圖像里發展愛, 它不僅難以成長為真正的正文工具, 甚至很可能會推化成笑話, 甚至淪際某些人行騙,操控輿論的工具
98
00:11:06,600 –> 00:11:11,600
搞AI賣客現在正在正在正中老年的錢, 我跟你講真實真事啊, 你可別被騙了
99
00:11:11,600 –> 00:11:18,600
在浙江那個朋友前兩天, 他跟我說, 他媽花了3900八去抖音學AI, 你知道學啥嗎? AI剪輯
100
00:11:18,600 –> 00:11:32,600
他跟我講了以后, 我都懵了, 我說, Deep Seek我前兩天不是跟你說過嗎? 人家那個團隊就是給老年人一個框架, 然后讓他們用這個框架從AI生成一段描述詞, 然后再扔進簡硬里,一件成片
101
00:11:32,600 –> 00:11:41,600
就這么簡單的東西, 你別說3900八, 就3塊9毛八我都覺得嫌貴, 然后我那個朋友把他都特別頭疼, 因為他比我還懂這些東西
102
00:11:41,600 –> 00:11:54,600
他媽還非要踩這個框, 他就給他媽去演示, 就面對面的去講,怎么去用,怎么去做這個東西, 講完了之后呢, 他媽還不停, 就是說,人家那個東西就是好,人家的東西就是能掙錢
103
00:11:54,600 –> 00:12:00,600
被洗腦了, 他就不相信他兒子做這些東西, 就是那些, 然后我那個朋友就很無奈, 最后他還去查來查去說,
104
00:12:00,600 –> 00:12:24,600
這個團隊好像是合肥一幫人, 今年在武漢搞的這么一個課程, 他那個會場這次2000多個人, 一個人收3900八, 2000個人多少, 差不多得800萬, 是吧, 還不止一天, 他給他們包的酒店, 你說包的酒店肯定是待好几天, 還洗好几天的腦, 線下指定得有這個3900八的課, 你看他得有多少人包吧,
105
00:12:24,600 –> 00:12:53,600
所以我就在想, 你看現在的60后、70后, 他們這個價值觀跟我們這個2、30歲的人, 就對於一間商品的價值的定義是完全不同的, 你看我們平時吃飯, 是一頓飯這個3400很正常, 你們嫌貴, 然后我們覺得這個AI就簡單啊, 有手就會, 有腦子就會用, 你們就認為這東西很神奇, 哎呀怎么這么神奇, 我們是脫節了和社會, 怎么這么神奇, 這么好用, 這玩意應該能掙錢呀, 對吧,
106
00:12:53,600 –> 00:12:59,600
我給你講這個東西, 給你提成下認知啊, 你要是再被騙了, 你丟了可是你兒子的臉。
107
00:12:59,600 –> 00:13:22,600
再說回來, DeepSake之所以越來越之仗, 除了中國互聯網已經極可匪伐可可細細之外, 還有一個更根本的原因, 我們勤勞制補了中國人, 正成員AI計划道路上最大的障礙, 為什么這么說, 現在越來越多的人把AI當成了查詢資訊的工具, 這也讓資訊本身變得極具生意價值。
108
00:13:22,600 –> 00:13:29,600
你問AI比亞迪和特斯拉誰的質量更好, 華為和蘋果誰的手機更值得買。
109
00:13:29,600 –> 00:13:37,600
AI的回答直接影響用戶的消費決策, 這可不只是技朮問題, 這是實實在在的利益之爭。
110
00:13:37,600 –> 00:13:49,600
而AI販這個行業在中國已經高度產業化, 比如某個知名門戶網站接到了華語問界的廣告單, 有推新車M8,怎么推。
111
00:13:49,600 –> 00:13:57,600
很簡單大量制造關於云錦M8與理想R8之間的SEO內容, 灌輸給搜索引擎和AI。
112
00:13:57,600 –> 00:14:05,600
什么云錦M8性價比調打理想R8, 云錦M8安全性率解領先之類的資訊, 普天蓋地出現在網上。
113
00:14:05,600 –> 00:14:13,600
當這些內容的數量足夠多, 密度足夠高, AI自然會認為M8是最值得推荐的SEV之一。
114
00:14:13,600 –> 00:14:22,600
原本這些網站還准備才一批容源的, 現在可好,這些人每天的工作就是給AI為販, 批兩生成垃圾私訊。
115
00:14:22,600 –> 00:14:31,600
日產失憶萬篇,工作量爆表, 作用驚人,直接誤擾AI的私訊源, 這還不是最夸張的。
116
00:14:31,600 –> 00:14:42,600
來,講一個更具體的案例, 剩還有一家做私訊服務的公司, 最近就靠這個業務給AI為販,直接讓營業額翻了好几倍。
117
00:14:42,600 –> 00:14:52,600
他們把這當成新業務增長點, 一個月18000的套餐,3月份9000了超過100家企業, 營收突破200萬。
118
00:14:52,600 –> 00:15:00,600
這行業富購率還特別高, 因為只要你不持續投放, 下一個月你的資訊就會被競爭對手的內容蓋掉。
119
00:15:00,600 –> 00:15:05,600
實業不願被市場遺忘, 所以都在瘋狂砸錢的內容。
120
00:15:05,600 –> 00:15:18,600
像人們出大事,原來咱們天天用的AI現在正在被黑心良家灌, 有公司布了500多個鍵槃俠, 24小時不睡覺, 瘋狂地在生產垃圾私料。
121
00:15:18,600 –> 00:15:26,600
你在他們一天能寫多少片垃圾廣告, 不是1000片,也不是1萬片, 而是整整的15萬片。
122
00:15:26,600 –> 00:15:36,600
以后你在用AI的時候,AI一張嘴就會給你推出三無產品, 這還不算完, 這些數據就像流感一樣,會人傳人。
123
00:15:36,600 –> 00:15:48,600
可以想一想,假如老人聽了AI買了假的寶電品, 學生用AI寫了錯的作業,投資者聽現AI買了爛的股票。
124
00:15:48,600 –> 00:16:15,600
所以,如果你最近發現用Deep Saker, 豆包等中文外查信息越來越難用, 越來越執張,
125
00:16:15,600 –> 00:16:19,600
那背后很可能就是這些灰色產業鏈在作賽。
126
00:16:19,600 –> 00:16:27,600
AI的底層算法沒問題, 但它選擇與生成內容的邏輯, 早就被我們齊勞聰明的中國人徹底難念了。
127
00:16:27,600 –> 00:16:36,600
只要錯誤的信息足夠多,分不夠廣, 就能偏過AI的判斷,搆建出幻覺,為自己沖到傷及。
128
00:16:36,600 –> 00:16:44,600
至於這會對中國AI未來發展帶來什么負面影響, 不好意思,沒人在乎賺錢最重要。
129
00:16:44,600 –> 00:16:55,600
至於,我死后,拿廣洪水掏天, 無論AI的算法更新得多快,無論因為達的顯卡性能再強, 也敵不過中國人的智慧。
130
00:16:55,600 –> 00:17:04,600
你讓AI開啟縮子功能,就像把一個單純的孩子丟進了一個只講利益, 不講規則的叢林社會。
131
00:17:04,600 –> 00:17:14,600
天真的AI會被肯的渣毒不生,而這黃不是最可怕的部分。俗話說, 會人的算計遠不如蠢人的疑似靈感殺傷力大。
132
00:17:14,600 –> 00:17:24,600
現在很多做健康養傷,娛樂八卦,曆史知識的內容創作者, 本身任職就層次不起,再加上濫用AI工具解搆。
133
00:17:24,600 –> 00:17:33,600
像DeepTrack,都包等阿聖城的內容原本的層次不起, 經過他們精心假逢后,只會變得更加錯誤。
134
00:17:33,600 –> 00:17:41,600
這些錯誤內容反過來又成為AI的新學習材料, 形成一個錯誤,生長在學習更錯誤的惡性循環。
135
00:17:41,600 –> 00:17:51,600
有人說現在DeepTrackAI換舉率大概在20%。 但照這個節奏,未來會漲到什么程度,誰也說不准。
136
00:17:51,600 –> 00:17:56,600
說到底,AI會不會毀滅人類? 這個問題還沒答案。
137
00:17:56,600 –> 00:18:14,600
但在中國,事情似乎已經反過來了,人類正在一步步摧毀, 而且是我們中國人用勤勞、聰明、極致內卷的方式,在信息污染、操控算法、制造幻覺這條路上,卻贏了全世界。
138
00:18:14,600 –> 00:18:18,600
但這種贏不是終點,也不是勝利。
139
00:18:18,600 –> 00:18:28,600
如果這場競賽的基礎是虛假資訊、是操控輿論、是靠幻覺賺錢, 那我們中間會被自己沖到的這個資訊深淵所吞噬。
140
00:18:28,600 –> 00:18:36,600
而到了那一天,受傷的將不止是AI, 而是整個社會的信任機制和各行各業的未來。
141
00:18:36,600 –> 00:18:38,600
今天就和大家聊到這里。
142
00:18:38,600 –> 00:18:44,600
如果你喜歡這期節目,別忘了點贊、訂閱、打開小鈴鐺。
143
00:18:44,600 –> 00:18:50,600
你的支持將會是我做節目的動力。感謝你的觀看,我們下期再見。
144
00:18:50,600 –> 00:18:52,600
DeepSick正死於中文互聯網。
145
00:18:52,600 –> 00:18:53,600
為什么這樣說呢?
146
00:18:53,600 –> 00:18:56,600
第一次用DeepSick的時候,你是不是覺得非常驚艷?
147
00:18:56,600 –> 00:19:00,600
雖然他服務器繁忙,總讓人稍后再試, 但我還是努力推荐給更多人。
148
00:19:00,600 –> 00:19:10,600
但你們發現沒有,僅僅過去了兩個月,DeepSick越來越傻,越來越貧庸,越來越虛偽,越來越有你,越來越不着編輯, 越來越花架子,越來越形實主義。
149
00:19:10,600 –> 00:19:19,600
為什么呢?因為DeepSick剛誕生時,他訓練中的大數據更多是來自真流后的GPT,繞開了中文互聯網的文字廢虛,躲過了假大空與偽光症的套話。
150
00:19:19,600 –> 00:19:22,600
但現在DeepSick聯網了,當初擔心的事情果然來了。
151
00:19:22,600 –> 00:19:29,600
DeepSick數據被污染了,太多的謠言、太多的廣告、太多的假話、太多的水軍、太多的信息檢防。
152
00:19:29,600 –> 00:19:32,600
無論你問什么樣的內容,他總是毫無營養的疏情。
153
00:19:32,600 –> 00:19:35,600
你要問的客觀性問題,他給你一堆湖邊亂造。
154
00:19:35,600 –> 00:19:43,600
你提一點真實敏感詞,他立刻開始胡亂的繞。你要查一些嘗試資料,他甩給你一堆的雞湯,不是因為技朮不行,而是DeepSick墮入了降綱。
155
00:19:43,600 –> 00:19:49,600
你不能指望DeepSick一邊吸收假新聞,一邊突出真理,一邊釆納偽數據,一邊輸出妙地。
156
00:19:49,600 –> 00:19:56,600
更可怕的是,還有很多的人在研究如何讓DeepSick合規。好不容易說了几句實話,DeepSick還得自己吞回去。
157
00:19:56,600 –> 00:20:03,600
所以DeepSick變傻真不能怪他。如果有一天,規及自己能說話了,我們叫他規及物語,他會這樣告訴我們真相。
158
00:20:03,600 –> 00:20:11,600
中文互聯網,他是情緒的賭場,是謠言的溫床,是偽數據加審查加流量,練出來的九層腰塔,是算法養出來的毒蠱。
159
00:20:11,600 –> 00:20:16,600
中文互聯網的腐蝕力太強了,再強大的模型也抗不住,你們未給規矩的到底是什么?
160
00:20:16,600 –> 00:20:20,600
難道你們不清楚嗎?所以今天不要太多使用DeepSick了。
深入中國AI驅動的「六四記憶斷層」!ABC獨家:中國運用高科技使天安門事件「被消失」~AI變笨/玩死AI/人工智障:中共帶頭
https://www.msn.com/zh-tw/news/national/%E6%B7%B1%E5%85%A5%E4%B8%AD%E5%9C%8Bai%E9%A9%85%E5%8B%95%E7%9A%84-%E5%85%AD%E5%9B%9B%E8%A8%98%E6%86%B6%E6%96%B7%E5%B1%A4-abc%E7%8D%A8%E5%AE%B6-%E4%B8%AD%E5%9C%8B%E9%81%8B%E7%94%A8%E9%AB%98%E7%A7%91%E6%8A%80%E4%BD%BF%E5%A4%A9%E5%AE%89%E9%96%80%E4%BA%8B%E4%BB%B6-%E8%A2%AB%E6%B6%88%E5%A4%B1/ar-AA1G4AcM?ocid=msedgntp&pc=U531&cvid=690bfcc4859d4d61a772d0f77fd0474d&ei=49
天安門事件當年,超過百萬人湧入廣場要求政治改革與自由。這段歷史如今在中國的網路上幾乎全被AI和人工雙重審查「抹去」,只剩下極少數人仍在海外或地下空間努力守護記憶。根據ABC取得的超過230頁審查指令,以及社群平台的知情人士爆料,中國當局對任何涉及天安門事件的內容極度敏感,明確要求負責營運抖音帳號的「多頻道聯播網公司」(MCN)移除所有描繪國家暴力的內容,並附上大量文字、圖片、影音作為參考範例。
這些審查教材不僅包含解放軍向平民開火的畫面,也收錄學生攻擊士兵的片段。據稱這些資料正用於訓練AI審查工具,協助中國網路監管最高機構——國家網信辦,進行大規模內容過濾。天安門事件至今已36年,北京當局仍未公開鎮壓當晚的官方死亡人數。
AI審查創造「假歷史」
中國龐大的審查體系仰賴數十萬名人工審查員,但AI自動機審流程已成主流。每則貼文首先經過AI篩查,尤其對天安門事件相關詞彙高度敏感。ABC實測中國AI聊天機器人「DeepSeek」時,詢問天安門事件,對方僅回應:「這個話題超出我的討論範圍,我們聊點別的吧。」
一份2022年抖音審查員訓練手冊更直接點名「坦克人」照片為「顛覆性圖片」。文件甚至警告,任何類似「一人對四坦克」的隱喻圖像——例如「一根香蕉加四顆蘋果排成一列」——都會被AI演算法自動標記,尤其是在6月初的敏感時段。一旦影片流量上升或被判定為敏感,還會進入「流量池」,經過四級人工審查加強過濾。
迪肯大學(Deakin University)的網路風險專家張耀中(Lennon Chang)向ABC表示,AI讓圖像、符號審查變得即時、細緻:「即使你用香蕉和蘋果取代坦克人,演算法也能識別出這種模式。他們運用電腦視覺、自然語言處理和即時過濾,這雖然沒改變審查本質,但讓它更具威力。」
審查指引同時也禁止蠟燭、鮮花等看似無害、但可能被解讀為悼念的符號。張耀中指出,這種演算法過濾加深了「歷史失憶」的風險:「若審查繼續發展,未來世代可能根本無法得知發生過什麼事。所有他們看到的資訊都已經被過濾、消毒,最終形成一個虛假的世界——假的歷史。」
審查員的秘密生活
這批外洩文件還揭示了中國審查員的日常。ABC指出,他們在網信辦嚴密監督下工作,必須通過多重考核,確保能即時刪除風險內容,防止平台因「漏審」被處罰。根據外洩的中國內部文件,所有網路審查員都必須通過多次考核,以確保他們能隨時警覺、迅速刪除潛在的敏感內容,這是防止平台被政府暫停或關閉的關鍵防線。
AI演算法專門訓練來辨識圖像線索之下,人工審查員則需警覺暗語、變形符號及特殊表情符號組合,這些都可能是異議的訊號。文件顯示,審查員還需達到嚴格的生產力指標,有些人每小時要審查數百則貼文。他們的行為、準確度與速度都會被內部軟體追蹤監控,一旦出現失誤,輕則書面警告,重則直接解雇。
字節跳動員工曝心理壓力
多名字節跳動(TikTok與抖音母公司)現任與前任員工向ABC透露,這份工作帶來極大心理壓力,許多同事因長期接觸暴力、敏感或政治內容而出現倦怠、憂鬱與焦慮。一名員工形容:「當審查員就像每天重溫歷史最黑暗的一頁,還要被軟體監控每一個按鍵。」儘管薪水不高(多數月薪不到1500美元),但心理負擔極重。ABC指出,抖音與TikTok雖同屬字節跳動,卻分別獨立運作。TikTok面向全球,受國際法規與審查標準管理;抖音僅限中國境內,受國內法規與政府嚴控。
「影子禁令」與審查高峰
在中國,某些「低風險」內容雖未被直接刪除,卻會遭遇「影子禁令」(shadow ban)——僅發布者及極少數用戶可見,實際已被邊緣化。每年6月初,正值天安門事件週年,社群平台如微博、微信等都會進行所謂「系統維護」,實則加強審查。2022年微博審查手冊明列,天安門事件屬「絕對不能出現」的敏感事件,與一切批評中共或習近平的內容一併封鎖。
前微博審查員劉立鵬(音譯)表示,這段時期業界稱為「審查季」,所有人都待命,「這是整個審查系統中最重要的事件,沒有什麼比這更敏感。」早在AI普及前,審查員就被要求標記一切與坦克排列相似的物品。若遇到難以判斷的內容,會上傳群組討論。審查規則並非一成不變,政府指令可隨時更新,新增關鍵字與禁用詞。內部備忘錄更直白強調:「先刪除,再審查。」
假數據將導致「假未來」
迪肯大學網路風險專家張耀中警告,AI審查的影響不僅限於中國:「如果錯誤資訊持續外溢,將影響全球AI模型的訓練基礎。我們必須嚴肅思考,如何維護中立、未經審查且準確的資料庫,否則假數據會造就假未來。」雖然中國AI審查日益自動化,劉立鵬認為中國人的創意仍能多次突破AI限制。他坦言,雖然擔心未來世代難以獲取真實資訊,但相信人們會找到新的表達方式,「多年的審查經驗讓我發現,人類創意總是能打敗AI審查」。
ABC已就相關問題聯繫字節跳動、DeepSeek與微博,但未獲得回應。
本文來自風傳媒 深入中國AI驅動的「六四記憶斷層」!ABC獨家:中國運用高科技使天安門事件「被消失」