普通视图

发现新文章,点击刷新页面。
昨天以前首页

拍照看到「神秘條紋」?摩爾紋不只是惱人,還是紙鈔的防偽密技!

作者 36Kr
2025年9月29日 14:00
拍照看到「神秘條紋」?摩爾紋不只是惱人,還是紙鈔的防偽密技!861a085eaa0f4244671361a27d5c169f

又出現了!用手機拍螢幕或某些物體時,照片上突然冒出一條條亮暗交錯的線條?這些不是螢幕壞掉或鏡頭髒了,而是一種叫做「摩爾紋(Moiré)」的干涉現象。不過你知道嗎?這個讓人拍照翻車的條紋,其實還是紙鈔防偽的重要技術之一!

拍照看到「神秘條紋」?摩爾紋不只是惱人,還是紙鈔的防偽密技!

摩爾紋到底是什麼?

簡單來說,摩爾紋是一種干涉圖案,當兩組規則線條(或波)重疊時,會在視覺上產生新的明暗條紋。最常見的例子就是,兩層有細線條的窗紗或衣料交疊時,會出現像水波一樣的圖案,那就是摩爾紋。這些線條的交疊角度或距離稍有變化,圖案也會跟著變動。

除了衣料、窗紗,在某些鳥類羽毛中也會自然出現摩爾紋,因為羽毛排列的角度與重疊關係也類似這種干涉結構。

為什麼手機拍螢幕會出現摩爾紋?

用肉眼看螢幕時不會出現摩爾紋,為什麼用手機拍就出現?原因在於手機螢幕是由一點一點的發光點(像是 OLED 或 LCD 子像素)組成,而手機相機的感光元件(如 CMOS 或 CCD)也同樣有規則排列的感測單元。當這兩個「網格」重疊,頻率接近時,就會在拍攝結果中產生摩爾紋。

拍照看到「神秘條紋」?摩爾紋不只是惱人,還是紙鈔的防偽密技!

拍照看到「神秘條紋」?摩爾紋不只是惱人,還是紙鈔的防偽密技!

怎麼消除摩爾紋?其實很簡單!

如果你不想拍出一堆干擾條紋,有幾個簡單的小撇步可以試試:

  • 調整拍攝角度:輕微轉動手機,讓感光元件與螢幕的發光線條不再平行,干涉情況就會減少。

  • 改變距離或焦距:稍微拉近或拉遠,也能改變兩組「網格」的干涉效果。

  • 後製處理:使用 Photoshop 等專業軟體去除摩爾紋,或試試一些 AI 工具做降噪處理。

拍照看到「神秘條紋」?摩爾紋不只是惱人,還是紙鈔的防偽密技!

防偽黑科技:摩爾紋竟是紙鈔的保護盾?

除了在拍照中「搗蛋」,摩爾紋還有一個超級實用的正面應用:紙幣防偽!

不少紙鈔上都有極細緻的線條圖案,這些不是裝飾,而是為了讓掃描儀難以正確擷取圖案。因為掃描器的感測器會與紙鈔上的圖紋產生干涉,產生摩爾紋,導致掃描失真。這也是為什麼偽鈔集團不能單靠掃描器,要找畫家手繪來仿冒的原因之一(你有看過《無雙》嗎?就是在講這個)。

另外,還有一種更進階的防偽標籤,肉眼看只是普通的條紋,但搭配「解碼片」(另一層有細紋的透明片)疊在一起時,會顯示出特定圖案。這種視覺干涉驗證,幾乎無法複製。

下次再看到照片裡那些怪異條紋,別急著嫌棄。摩爾紋雖然常讓攝影師翻白眼,但當它用在紙鈔、標籤或藝術設計上,可就是一門值得敬畏的科學技術了!

 

加入T客邦Facebook粉絲團

中國 AI 開源最新榜單出爐:DeepSeek 拿下 AI 程式冠軍,阿里、字節猛攻多模態

作者 36Kr
2025年8月11日 08:30
中國 AI 開源最新榜單出爐 阿里成最大「模型推進機器」、多模態模型全面開戰79f17e00beef13af6d6d5598a4fd807a

中國 AI 模型開源競爭愈演愈烈,根據 Hugging Face 最新趨勢榜與 7 月底整理統計,中國已有超過 20 家企業與研究機構積極投入 AI 模型開發與開源,包括阿里、字節跳動、騰訊、智譜、月之暗面等知名團隊。

在 7 月 30 日公佈的 Chatbot Arena 編程模型榜單中,阿里與深度求索(DeepSeek)並列第一,月之暗面(Moonshot AI)Kimi-K2-Instruct 排名第七。這些模型多數在 7 月才剛發布,代表中國開源 AI 團隊仍在快速進展。

中國 AI 開源最新榜單出爐:DeepSeek 拿下 AI 程式冠軍,阿里、字節猛攻多模態

Hugging Face 趨勢榜:阿里一口氣上榜 18 款模型

最新一波 Hugging Face 趨勢榜中,中國團隊在前十名中佔據 8 席。其中阿里巴巴一口氣上榜 18 款模型,堪稱是當前「最捲」的開源推進者。這些模型涵蓋多模態生成、語音、影像、程式碼生成、影片合成與大型語言模型,甚至包含 FP8 精度與推理版本,展現高度產業化思維。

例如阿里旗下的 Qwen3 系列 近期開源數十款 Instruct 與 Coder 模型,從 8B 到 480B 不等,還包含適用不同應用場景的專屬版本。而影片生成方面的 Wan 2.2 系列則主打文生影片、圖轉影片等多模態創作能力。

中國 AI 開源最新榜單出爐:DeepSeek 拿下 AI 程式冠軍,阿里、字節猛攻多模態

多模態模型爆發,「圖轉文」、「文轉圖」成主戰場

多模態成為 7 月中國 AI 模型的最大亮點之一。從文轉圖、圖轉文、影片生成、3D 建模到音訊理解,已有超過 10 款模型主打 Any-to-Any 或 Image+Text 為核心架構。

中國 AI 開源最新榜單出爐:DeepSeek 拿下 AI 程式冠軍,阿里、字節猛攻多模態

例如:

  • 字節跳動 Seedream-3、Seededit-3.0 在圖像生成與編輯榜單上分居前列;

  • 階躍星辰 Step 系列 則主打開源多模態基礎模型;

  • 騰訊 HunyuanWorld-1 則能生成 3D 世界;

  • 智譜 GLM-4.5 系列 持續更新語言與圖文混合能力。

Hugging Face 上榜模型也證明多模態與輕量化模型正快速獲得社群青睞。例如 SmallThinker 僅需 1GB 記憶體就可執行,主打端側可部署。

 

7 月共有 16 家中國機構進榜 Hugging Face 趨勢榜 TOP100

統整 Hugging Face 榜單後,目前上榜的中國開源團隊與高校包括:

  • 阿里(18 個模型)

  • 智譜(7)

  • 騰訊(3)

  • 月之暗面(1)

  • 階躍星辰(2)

  • 小紅書、捏Ta、快手、字節跳動、復旦大學、上海交大、蚂蚁集團等均有代表模型上榜

中國 AI 開源最新榜單出爐:DeepSeek 拿下 AI 程式冠軍,阿里、字節猛攻多模態

另外值得一提的是,即使榜單前段仍以海外開源項目為主,中國舊版 DeepSeek-R1 仍以最多按讚數穩居「Most Likes」榜首,顯示部分模型已有高度社群認同。

加入T客邦Facebook粉絲團

當年Steam Machine 嘗試打入遊戲主機市場卻失敗,現在 SteamOS 的新世代遊戲掌機會重演歷史嗎?

作者 36Kr
2025年6月1日 14:30
Valve 的豪賭:以《戰慄時空 3》推動 SteamOS 的普及?996048bf74377304cf04644698fbb520

二十多年前,Valve 憑藉《戰慄時空 2》和 Steam 的捆綁策略,成功地將 Steam 推向了 PC 遊戲市場的領導地位。如今,歷史似乎正在重演,Valve 正準備再次出擊,這次的目標是他們的作業系統 SteamOS,以及第三方廠商的遊戲掌機以及遊戲筆電。

從 Steam 到 SteamOS

2004 年,《戰慄時空 2》的發布與 Steam 的強制使用引發了玩家們的諸多抱怨。然而,這款備受矚目的獨佔遊戲,卻意外地幫助 Steam 迅速建立起龐大的用戶群,最終使其成為數位發行領域的霸主。這種新遊戲與新平台的捆綁策略,成功地推廣了一種大膽的替代方案,挑戰了長期以來由零售遊戲銷售和發行系統主導的 PC 遊戲市場。

要讓玩家改變他們用來購買和玩遊戲的平台,通常需要一些對玩家來說顯而易見的好處,例如改進的控制器、更好的圖形性能,或是獨佔的「系統殺手」遊戲。而《戰慄時空 2》在普及早期 Steam 方面所扮演的角色,充分證明了一款備受期待的獨佔遊戲,可以說服原本不情願的玩家投入時間和精力到一個新平台中。

如今,據傳Valve 正準備發布一款新的《戰慄時空》遊戲,同時也積極推廣 SteamOS,鼓勵第三方硬體製造商和個人用戶「下載並自行測試」。如果《戰慄時空 3》的遊玩必須使用 SteamOS,無疑會再次引發玩家們的抱怨。但如果這款遊戲足夠吸引人,它或許能夠幫助 SteamOS 迅速建立起用戶群,甚至最終成為該領域的領導者,挑戰 Windows 在 PC 遊戲領域的霸權地位。

Steam Machine 的教訓

不過,讓我們來回顧一下,先前Valve 也嘗試過聯合硬體製造商,要推出自家版本的遊戲主機。但當時的結果卻是失敗的。

當年Steam Machine 嘗試打入遊戲主機市場卻失敗,現在 SteamOS 的新世代遊戲掌機會重演歷史嗎?

2013 年 Valve 推出了「Steam Machine」計畫,試圖將 PC 遊戲帶入客廳,挑戰 Sony、Microsoft 及 Nintendo 長年主導的家用主機市場。然而,這項計畫最終未能獲得成功,甚至在 2018 年悄然下架,成為遊戲業界的一大遺憾。

當時的 PC 遊戲市場正蓬勃發展,數位下載取代了傳統光碟銷售,Steam 平台更成為 PC 玩家不可或缺的遊戲生態系。另一方面,Windows 8 的封閉策略讓 Valve 對 Microsoft 產生疑慮,因此決定開發基於 Linux 的 SteamOS,並搭配專屬的 Steam Machine 硬體,期望能打破 Windows 的壟斷。

為了讓 PC 更適合客廳遊玩,Valve 還推出了 Steam Controller,試圖在鍵鼠與傳統手把間取得平衡。整體而言,Steam Machine 的構想是將 PC 遊戲的自由度與家用主機的便利性結合,提供玩家一個全新的遊戲選擇。

然而,Steam Machine 從一開始便面臨嚴峻挑戰。由於 Valve 採取開放硬體策略,不同廠商推出的 Steam Machine 規格與價格不一,其中高階版本甚至達到 700 美元以上,遠高於當時 PlayStation 4 和 Xbox One 的 399 美元定價。這使得玩家難以接受,畢竟傳統遊戲主機除了價格親民,還有大量獨佔遊戲加持。

此外,SteamOS 本身的遊戲相容性也成為一大問題。由於當時許多 PC 遊戲僅支援 Windows,玩家在 Steam Machine 上能玩的遊戲數量遠不及 Windows PC,導致許多潛在買家卻步。雖然 Valve 嘗試推動 Linux 遊戲開發,並推出 Proton 技術來支援 Windows 遊戲,但在當時仍未成熟。

Steam Machine 的市場定位始終不明確——對於 PC 玩家而言,這些機器不如 DIY PC 靈活,對於主機玩家來說,它又缺乏 PlayStation 和 Xbox 那樣的獨佔大作。此外,與傳統遊戲主機相比,Steam Machine 仍需玩家自行設定與維護,缺乏「即插即用」的便利性。

更重要的是,Valve 自身對於這項計畫的推動力度不足。在 2013 年至 2015 年間,Steam Machine 陸續推出,但市場反應冷淡。2018 年,Valve 甚至悄悄地從 Steam 平台移除了 Steam Machine 的專區,意味著這場「客廳革命」正式宣告失敗。

SteamOS 的新希望

如今,現代版本的 SteamOS 比 Steam Machine 時代的版本要好得多。這在很大程度上要歸功於 Valve 在 Proton 相容層上的一貫努力,該相容層讓基於 Linux 的 SteamOS 幾乎可以運行任何為 Windows 設計的遊戲。這種廣泛的相容性對 Steam Deck 來說是一個巨大的福音,它首次為許多玩家提供了輕鬆的手持設備,可以訪問大量的 PC 遊戲。

當年Steam Machine 嘗試打入遊戲主機市場卻失敗,現在 SteamOS 的新世代遊戲掌機會重演歷史嗎?

儘管如此,對於今天的許多玩家來說,從 Windows 轉換到 SteamOS 的好處可能仍然不明顯。如果 Valve 真的有興趣將其作業系統推廣為 Windows 遊戲的替代方案,那麼一款大型獨佔遊戲正是說服大量玩家做出轉變的關鍵。而當談到大型 PC 遊戲獨佔遊戲時,沒有什麼比長期以來備受期待的《戰慄時空 3》更具吸引力了。

將像《戰慄時空 3》這樣的大型遊戲與一個全新的、在很大程度上未經測試的作業系統聯繫起來,肯定會導致那些對基於 Windows 的現狀感到滿意的遊戲玩家發出反對聲。但 Valve 可以透過簡化 SteamOS 的安裝過程,並利用 Steam Deck 的現有用戶群,來降低玩家的轉換成本。

此外,Valve 洩露的「Powered by SteamOS」計劃似乎也準備讓第三方硬體製造商加入,推出預裝 SteamOS 的更強大桌上型電腦、筆記型電腦和掌機。而且,更強大的「Steam Deck 2」也可能在未來推出,進一步提升 SteamOS 的吸引力。

 

隨著 SteamOS 即將廣泛發布,Valve 有一個難得的機會來顛覆微軟在 PC 遊戲作業系統領域的霸權地位。像《戰慄時空 3》這樣的遊戲可能正是讓整個 PC 遊戲擺脫其長期以來對 Windows 依賴所需的誘餌。這是一場豪賭,但如果成功,Valve 將再次改變 PC 遊戲的格局。

 

加入T客邦Facebook粉絲團

AI也愛說「嗯」?DeepSeek模型揭秘人工智慧的語言習慣

作者 36Kr
2025年5月8日 15:30
DeepSeek模型為何頻繁使用「嗯」?本文深入探討AI模擬人類語言習慣、基於機率的詞語生成機制,以及如何透過微調模型,使AI對話更自然、更貼近人類。9469d583f2a3cec3363e4f932e172d19

在人工智慧與人類對話的界線日漸模糊的今天,許多人注意到DeepSeek的回覆中常出現一個有趣的細節——這個AI似乎特別喜歡在回答中加入「嗯」這樣的語氣詞。

這個看似簡單的小習慣,背後其實隱藏著人工智慧理解人類語言的獨特邏輯。

模擬人類自然語言習慣

人類對話中,語言不僅僅是訊息的傳遞工具。中國社會科學院語言研究所的研究者曾對日常會話進行分析,統計口語會話中「嗯」、「啊」等語氣詞出現的次數,結果顯示,「嗯」的出現率高達19.91%,遠超過其他語氣詞。

這個簡單的音節承載著遠超字面意義的功能:當我們在思考時,它能為大腦爭取緩衝時間;在話題轉換時,它像無形的標點符號般劃分對話段落;甚至在表達情感時,不同音調的「嗯」能傳遞出從疑惑到認同的微妙情緒。

DeepSeek對這類語言特徵的捕捉,源自它對人類對話模式的深度觀察。就像孩童通過模仿父母學會說話,AI通過分析數以億計的真實對話記錄,逐漸建立起對「嗯」的認知。

在技術團隊構建的龐大語料庫中,既有電視訪談節目裡嘉賓的沉吟,也有網路聊天中年輕人的即興表達。這些數據教會AI一個重要的語言規則:當人類需要組織思路或管理對話節奏時,「嗯」是一個安全且高效的選擇。

這種學習成果在具體場景中尤為明顯。當用戶提出需要多步推理的問題時,AI語言模型產生填充詞的機率會有所提升。這種模式與人類在燒腦對話中的表現完全一致——我們的大腦在處理訊息時,會不自覺地用填充詞維持對話的連續性。

通過模擬這種自然反應,DeepSeek成功避免了傳統AI「即時回覆」帶來的機械感,讓對話顯得更接近真人交流的節奏。

語言模型基於機率的產生機制

在DeepSeek產生每個詞語的瞬間,數十萬個候選詞正在經歷一場激烈的機率競賽。

這背後的運行機制,與人類語言的形成過程有著驚人的相似性。就像我們童年時通過觀察周圍人的對話學會語法,AI通過分析巨量資料建立起詞彙之間的關聯網路。當模型遇到需要過渡或思考的場景時,訓練數據中高頻出現的「嗯」自然容易脫穎而出。

這種數據驅動的產生方式帶來一個有趣的悖論:AI越是精準地模仿人類語言,就越容易暴露出某些固定模式。就像人類在緊張時會不自覺地重複口頭禪,模型在面對知識邊界或模糊提問時,也會傾向於選擇訓練數據驗證過的「安全詞」。

有研究團隊曾做過對比實驗:當屏蔽所有填充詞後,雖然回答的訊息量保持不變,但用戶對對話自然度的評分下降。這證明即便是一個簡單的「嗯」,也在人機互動中扮演著不可替代的角色。

根據人類對話場景和角色的AI模型微調

在AI語言模型的世界裡,「自然」從來不是偶然的產物,而是精密計算的結果。如何在保留人類語言特質的同時,避免過度依賴填充詞,是開發團隊面臨的持續技術挑戰。

問題根源在於訓練數據的特性。如果語料庫中充斥網路聊天記錄,模型會習得大量口語化表達;若是偏重學術論文,產生的文字又會顯得生硬刻板。技術團隊需要通過混合數據源找到平衡點,既保留「嗯」等語氣詞的自然感,又控制其使用頻率。

優化過程還要引入更智慧的語境判斷系統。當檢測到用戶需要快速獲取訊息時(如查詢天氣或交通路線),模型會自動抑制填充詞產生;而在情感交流場景中(如傾訴煩惱),系統則會適當增加語氣詞的使用。

這種動態調整能力,使得AI的「嗯」不再是無意識的模仿,而成為有策略的溝通工具。就像人類會根據場合調整說話方式,DeepSeek正在學習區分工作會議與朋友聊天的語言差異。

人工智慧對語言細節的把握程度,正成為衡量其智能水平的新標尺。未來,機器與人類的對話,可能會自然得讓人忘記螢幕另一端的存在。而今天這個引發我們好奇的「嗯」,正是通向那個未來的第一聲問候。

加入T客邦Facebook粉絲團

AI推理真的是像人一樣思考嗎:今年以來大模型不再「秒答」、一直在上演內心戲的推理真有比較準?

作者 36Kr
2025年3月28日 15:30
現在,不管你用哪一種模型,幾乎都已經習慣了問一個問題後,就看到AI模型不斷的上演「內心戲」,把他的思考過程告訴你07d60629c975ca27b1db2c4a273e2558

AI技術近年來突飛猛進,「推理」與「思考」這些原本屬於人類的特質,如今也開始出現在AI的描述中。從中國的DeepSeek到美國的OpenAI,全球科技巨頭紛紛推出具備推理能力的大模型,試圖讓機器不僅僅是回答問題的工具,更能模擬人類解決問題的過程。

現在,不管你用哪一種模型,幾乎都已經習慣了問一個問題後,就看到AI模型不斷的上演「內心戲」,把他的思考過程告訴你,而不像過去我們習慣的「秒答」。那麼,AI推理到底是比較好還是比較不好呢?

AI推理真的是像人一樣思考嗎:今年以來大模型不再「秒答」、一直在上演內心戲的推理真有比較準?

或許我們該先理解:什麼是AI推理?它如何運作?更重要的是,它真能像人類一樣思考嗎?

要理解這些,首先得先剖析AI推理的核心,聚焦演繹推理(Deductive Reasoning)與歸納推理(Inductive Reasoning)兩大支柱。

AI推理的本質:從速答到深思

想像你向AI提問:「今天下午會下雨嗎?」傳統模型可能根據即時數據迅速回覆「會」或「不會」。但具備推理能力的AI卻會停下來,像氣象專家般審視線索:過去一週的雲層變化、濕度趨勢、風向轉換,然後才給出結論。

這種「停下來思考」的特性,正是AI推理的精髓。

加州大學柏克萊分校電腦科學教授丹·克萊因(Dan Klein)一語道破:「推理是系統在問題提出後額外付出的努力。」對AI來說,這份努力主要透過演繹推理(Deductive Reasoning)和歸納推理(Inductive Reasoning)兩種方式展現。

演繹推理(Deductive Reasoning):邏輯的必然之路

演繹推理(Deductive Reasoning)從普遍規則推導出具體結論,過程嚴謹且確定。

以OpenAI於2024年底推出的ChatGPT o1模型為例,若有人問:「如果除了2以外的所有質數都是奇數,而7是質數,那麼7是奇數嗎?」這款模型會從已知規則出發:「除了2以外的所有質數都是奇數。」接著確認7是質數,且7不是2,因此得出7必然是奇數的結論。

這種推導無懈可擊,只要前提正確,結果絕無二致。這正是演繹推理(Deductive Reasoning)的強大之處:從一般到特殊,邏輯滴水不漏。相較於早期版本直接給答案,ChatGPT o1會花費數秒甚至數分鐘逐步拆解,像學生在紙上寫下解題步驟,展現出更深層的思考能力。

歸納推理(Inductive Reasoning):從片段拼湊規律

與之相反,歸納推理(Inductive Reasoning)則從具體觀察出發,試圖總結普遍規律。

以xAI開發的Grok為例,若有人問:「X平台上關於AI的帖子大多是正面的嗎?」Grok可能會分析幾則實際帖子:一位用戶稱讚AI效率驚人,另一位驚嘆其創意,但第三位抱怨AI搶走工作。從這三個案例——兩個正面、一個負面——Grok或許會推測:「X平台上關於AI的帖子大多數可能是正面的。」

要注意的是,這個結論並非是「完美的事實」。若你觀察更多帖子,結果可能翻轉。這正是歸納推理(Inductive Reasoning)的特徵:基於有限數據得出概率性規律。

xAI賦予Grok從X帖子或網路搜尋中提取模式的能力,讓它能提供有理有據的回應,宛如科學家從幾隻黑烏鴉推測所有烏鴉可能是黑的——合理卻不絕對。

現在的模型推理能力都會「混搭」

演繹與歸納推理在不同場景中各展所長。現在的AI模型推理能力通常都不會單純屬於演繹推理(Deductive Reasoning)或歸納推理(Inductive Reasoning),而是兩者的混合,具體取決於它處理的問題和上下文。

AI推理真的是像人一樣思考嗎:今年以來大模型不再「秒答」、一直在上演內心戲的推理真有比較準?

作為一個基於大型語言模型(LLM)的AI,ChatGPT的核心是從海量文本數據中學習模式,並根據這些模式生成回應。若以ChatGPT的早期版本(如GPT-3.5)為例,它的表現更偏向歸納推理(Inductive Reasoning)。這種推理從具體觀察出發,總結出一般規律。ChatGPT在訓練過程中吸收了網路上的大量文字,例如論壇討論、文章和對話,從中提取語言模式和常見關聯。比如,有人問:「為什麼天氣冷的時候會下雪?」早期ChatGPT可能會根據訓練數據中反覆出現的描述——「低溫使水蒸氣凝結成固態」——歸納出一個答案:「因為天氣冷,水蒸氣會變成雪。」這個過程並非從明確規則推導,而是從大量具體例子中提煉出概率性結論,帶有歸納推理的特徵:不一定絕對正確,但通常合理。

然而,隨著OpenAI推出更進階的版本,如2024年底的ChatGPT o1,演繹推理(Deductive Reasoning)的成分開始顯現。演繹推理從普遍規則推導具體結論,強調邏輯的必然性。

現在在日常對話中,它經常混合使用兩者。例如,回答「台北明天會下雨嗎?」時,它可能先透過歸納推理(Inductive Reasoning),根據天氣數據和歷史模式推測「台北三月常有降雨」,再用演繹推理(Deductive Reasoning),結合具體預報「明天氣壓低且有冷鋒」,得出「明天可能下雨」。這種靈活切換的能力,讓ChatGPT在不同場景中都能應對自如。

推理的實戰應用

ChatGPT o1在技術領域表現亮眼。2025年初,開發者發現它能解決複雜程式問題,例如優化資料排序演算法。它會測試多種方法,依據程式規則逐步精進,這是演繹推理(Deductive Reasoning)的經典應用。而歸納推理(Inductive Reasoning)則讓它具備預測能力。當用戶輸入「怎麼修我的車?」時,ChatGPT o1可能從大量線上論壇歸納出「修車」常與電池或輪胎相關,進而提出建議。這個答案未必完美,但卻是從數據中推理出的最佳猜測。

AI推理真的是像人一樣思考嗎:今年以來大模型不再「秒答」、一直在上演內心戲的推理真有比較準?

Grok同樣展現了雙重推理的實力。若問「xAI為何開發Grok?」它可能從已知前提「xAI的使命是加速人類科學發現」出發,推導出「Grok旨在協助這一使命」的結論,展現演繹推理(Deductive Reasoning)的清晰邏輯。但若問「2025年人們如何看待AI?」Grok則會轉向歸納推理(Inductive Reasoning),分析X平台帖子——有人讚揚AI突破,有人批評其倫理爭議——最終總結:「看法不一,傾向謹慎樂觀。」這種從具體到普遍的推測,讓Grok能反映當下社會的多元聲音。

Google的Gemini則為推理應用增添另一層色彩。Gemini在多模態推理上獨樹一幟,例如處理圖像與文字結合的問題。若用戶上傳一張交通堵塞的照片並問:「這是什麼原因?」Gemini可能運用演繹推理(Deductive Reasoning),從規則「交通堵塞常由事故或施工引起」出發,結合圖像中的車輛排列與路況,推斷「可能是前方事故」。同時,它也可能透過歸納推理(Inductive Reasoning),根據大量類似場景的數據,推測「這種堵塞模式常見於尖峰時段」。這種圖文並茂的推理能力,讓Gemini在實用場景如導航或即時分析中脫穎而出。

為什麼現在AI推理變得重要?

為何AI推理如今備受矚目?這背後是技術演進與現實需求的碰撞。

去年,2024年,大多數的AI公司發現光靠傳統方法——用海量網路上的資料來餵養AI——已達極限,數據資源幾乎耗盡。

為了讓AI模型繼續成長,OpenAI等公司轉而開發推理系統,透過強化學習等技術,讓模型如ChatGPT o1經歷數月訓練,解數千道題目,從得到的結果中成長。OpenAI研究員傑里·特沃雷克(Jerry Tworek)形容這就像訓練寵物一樣:「做對了給餅乾,做錯了指正。」

透過這種方式,在數學、科學、程式等結構化領域,這套方法成效顯著,因對錯標準明確。但在哲學或創意寫作等模糊領域,AI推理似乎成長有限。

極限與反思:AI能成為人類嗎?

AI推理真能媲美人類思考嗎?答案並非全然肯定。

ChatGPT o1能剖析問題、權衡選項,但它不會感到疑惑或靈感乍現。解物理方程時,它在計算數字,而非感嘆宇宙之美。Grok能從帖子中歸納情緒,但無法真正理解喜怒哀樂。Gemini能分析圖像與文字,卻不具備對場景的感性認知。這些系統的推理基於算法與概率,是數據驅動的模擬,而非有意識的思考。

人類推理融合邏輯、情感與直覺;AI再出色,也只是高明的模仿。問它雨的味道,它或許能編出詩意回答,但從未真正淋過雨,這是本質差異。

儘管如此,AI推理的影響不容忽視。

2025年,AI推理驅動了醫療診斷從症狀推斷疾病,助力社群媒體分析從帖子洞察民意,甚至讓Gemini這樣的模型在多模態場景中大顯身手。ChatGPT o1、Grok與Gemini代表了一場轉變:機器不再只是被動回應,而是主動思考。演繹推理(Deductive Reasoning)帶來精準,歸納推理(Inductive Reasoning)提供洞見,這些系統正重塑問題解決的方式。

AI能像人一樣思考嗎?目前還不行。但當它以驚人準確度模擬人類推理時,那條界線恐怕也將逐漸模糊。

 

 

 

加入T客邦Facebook粉絲團

DeepSeek帶動AI 模型「蒸餾」技術熱潮:OpenAI、微軟、Meta 如何應對?

作者 36Kr
2025年3月18日 14:30
探索 AI 模型「蒸餾」技術的崛起,了解 OpenAI、微軟和 Meta 等領先公司如何應對這項技術帶來的挑戰與機遇。3ef01ff1eec1452535059198634f4605

包括 OpenAI、微軟和 Meta 在內的領先人工智慧公司,在全球競相開發更便宜、更易於消費者和企業採用的 AI 模型之際,正紛紛轉向一種名為「蒸餾」的技術。

中國的 DeepSeek 公司利用這項技術,基於競爭對手 Meta 和阿里巴巴發布的開源系統,構建了強大而高效的 AI 模型,此舉引起了廣泛關注。 這個突破動搖了人們對矽谷 AI 領導地位的信心,導致華爾街投資者從美國大型科技股中抹去了數十億美元的市值。

 

「蒸餾」技術:AI 模型輕量化的關鍵

「蒸餾」技術的核心概念是利用一個大型語言模型 (LLM),也就是所謂的「教師」模型,來指導一個較小的「學生」模型。教師模型負責生成句子中下一個可能的詞,並將其知識和預測快速轉移到學生模型中。透過這種方式,學生模型能夠在保持一定性能的同時,大幅降低模型的大小和計算成本。

雖然「蒸餾」技術已存在多年,但近年來的進展使其在業界備受關注。專家認為,這種技術將越來越有利於新創公司,幫助它們以更經濟高效的方式構建基於 AI 的應用程式。

OpenAI 平台產品負責人 Olivier Godement 表示:「蒸餾非常神奇。它本質上是採用一個非常大的智慧前沿模型,並使用該模型來教導一個較小的模型……在特定任務中非常出色,而且執行起來超級便宜和超級快速。」

「蒸餾」技術的優勢與挑戰

「蒸餾」技術的主要優勢在於降低了 AI 模型的開發和運行成本。像 OpenAI 的 GPT-4、Google 的 Gemini 和 Meta 的 Llama 等大型語言模型需要大量的數據和計算能力來開發和維護,成本可能高達數億美元。而透過「蒸餾」技術,開發人員和企業可以以一小部分的價格訪問這些模型的功能,並在筆記型電腦和智慧型手機等設備上快速運行 AI 模型。

然而,「蒸餾」技術也存在一些挑戰。微軟研究院的 Ahmed Awadallah 指出:「如果你使模型更小,你不可避免地會降低它們的能力。」他表示,一個蒸餾模型可以被設計成非常擅長總結電子郵件,但可能不擅長其他任務。

開發者可以使用 OpenAI 的平台進行蒸餾,從 ChatGPT 等產品背後的大型語言模型中學習。 OpenAI 最大的支持者微軟,在向該公司投資近 140 億美元後,透過商業合作夥伴關係使用 GPT-4 來蒸餾其小型語言模型 Phi 系列。

IBM 研究院的 AI 模型副總裁 David Cox 表示,大多數企業不需要大型模型來運行其產品,而蒸餾模型的功能已經足夠強大,可以滿足客戶服務聊天機器人或在手機等小型設備上運行等用途。

他補充說:「任何時候你可以 [降低成本] 並且它給你了你想要的正確性能,你都幾乎沒有理由不這樣做。」

這對許多領先 AI 公司的商業模式提出了挑戰。 即使開發者使用來自 OpenAI 等公司的蒸餾模型,它們的運行成本也遠低於大型模型,創建成本也更低,因此產生的收入也更少。 像 OpenAI 這樣的模型製造商通常會降低蒸餾模型的使用費用,因為它們需要的計算負載更少。

然而,OpenAI 的 Godement 認為,大型語言模型仍然是「高智慧和高風險任務」所必需的,在這些任務中,「企業願意為高水準的準確性和可靠性支付更多費用。」 他補充說,大型模型也將被需要來發現新的功能,然後可以將這些功能蒸餾到較小的模型中。

儘管如此,該公司仍旨在防止其大型模型被蒸餾來訓練競爭對手。 OpenAI 有團隊監控使用情況,並且可以取消它懷疑正在生成大量數據以導出和訓練競爭對手的用戶的訪問權限,就像它對一些它認為與 DeepSeek 有關聯的帳戶所做的那樣。然而,許多此類行動都是在事後發生的。畢竟在事前很難預防別人利用自家的大模型去進行「蒸餾」訓練。

Contextual AI 是一家為企業構建信息檢索工具的新創公司。Contextual AI 首席執行長 Douwe Kiela 表示:「OpenAI 長期以來一直試圖防止蒸餾技術,但完全避免它非常困難。」 

同時,蒸餾技術也是開源模型倡導者的勝利,在開源模型中,技術可以免費提供給開發人員在此基礎上進行構建。 DeepSeek 也已將其最近的模型開源給開發者。

像是 Meta 的首席 AI 科學家 Yann LeCun 表示:「我們將使用 [蒸餾技術] 並立即將其應用於我們的產品中。 這就是開源的全部理念。 只要這些過程是開放的,你就可以從每個人和他人的進步中獲益。」

蒸餾技術也意味著,模型製造商可以花費數十億美元來提升 AI 系統的功能,但仍然面臨競爭對手經常快速趕上的局面,正如 DeepSeek 最近發布的模型所證明的那樣。 這就引發了關於構建大型語言模型的先行者優勢的問題,因為它們的功能可以在幾個月內被複製。

IBM 的 Cox 表示:「在一個事物發展如此迅速的世界裡……你實際上可能會花費大量資金,以艱難的方式去做,然後該領域的其他人就會緊隨其後。 因此,這是一個有趣且棘手的商業格局。」

 

加入T客邦Facebook粉絲團

返老還童,OpenAI 做到了?首個逆齡 AI 即將登場,宣稱人類壽命可延長 10 年

作者 36Kr
2025年3月8日 13:30
外媒稱,OpenAI 開發出了首款用於「長壽」的 AI 模型——GPT-4b micro,預計將人類壽命延長 10 年。這項突破性成果,可能會徹底改變人類對衰老的認知。B8f385360199b6a54f7c249c4ca27ca6

超級智慧要來了嗎?人類「長生不老」有希望了嗎?外媒稱,OpenAI 開發出了首款用於「長壽」的 AI 模型——GPT-4b micro,預計將人類壽命延長 10 年。這項突破性成果,可能會徹底改變人類對衰老的認知。

文章目錄

返老還童,OpenAI 做到了?首個逆齡 AI 即將登場,宣稱人類壽命可延長 10 年

與其他預測蛋白質結構的 AI 不同,GPT-4b micro 更像是一位「蛋白質社群專家」,能夠精準預測不同蛋白質之間的互動方式。

利用這個獨特的優勢,科學家們成功設計了兩種關鍵的「山中因子」蛋白質。

這些蛋白質在胎兒發育中扮演關鍵角色,堪稱生命的「時光機」——讓成熟的細胞重返年輕狀態,具有無限可能的幹細胞。

不僅如此,這次 AI 輔助設計的新蛋白質,展現出驚人的效率,將幹細胞生產效率提高了多達 50 倍!

這意味著什麼?簡單來說,這些經過 AI 優化的蛋白質,在將普通細胞轉化為幹細胞的能力上,遠勝自然界的版本。

值得一提的是,新模型是 OpenAI 與 Retro Biosciences 合作的成果,奧特曼曾向這家公司投入了 1.8 億美元。

返老還童,OpenAI 做到了?首個逆齡 AI 即將登場,宣稱人類壽命可延長 10 年

目前,該模型不能公開使用,也沒有明確時間表什麼時候可以商用。

更令人興奮的是,它將為治療多種疾病開闢了新的可能性。那些曾被認為無法治癒的疾病,比如糖尿病、心臟病等,可能找到治癒的希望。

返老還童,OpenAI 做到了?首個逆齡 AI 即將登場,宣稱人類壽命可延長 10 年

2024 年,Google DeepMind 的哈薩比斯,因 AlphaFold 獲得了諾貝爾獎。

如此看來,如果繼續突破下去,OpenAI 也有可能獲得諾貝爾獎。

返老還童,OpenAI 做到了?首個逆齡 AI 即將登場,宣稱人類壽命可延長 10 年

GPT-4b micro 代表了 AI 在生物技術領域應用的一個重大進展,專門為蛋白質重編程,而非單純的結構預測而設計。

與 AlphaFold 等同類模型不同,AlphaFold 主要集中在蛋白質空間結構的預測,而 GPT-4b micro 則透過積極重編程蛋白質,特別關注 Yamanaka 因子(山中因子)的作用。

GPT-4b micro 可以主動修改蛋白質結構,達到預期的效果。

那麼,為什麼要對蛋白質重編程?這裡有兩個原因:

首先,能夠更快獲得更多的 iPSCs(誘導性多功能幹細胞),便意味著減少了 iPSC 擴增所需的天數,縮短獲得細胞的時間。

其次,這能夠降低細胞培養基的使用量和總時間,這些都是細胞治療成本的關鍵因素。

返老還童,OpenAI 做到了?首個逆齡 AI 即將登場,宣稱人類壽命可延長 10 年

Yamanaka 因子至關重要,因為能夠將成年細胞重置為多功能狀態,並分化為幾乎所有類型的細胞,因而在再生醫學和延長人類壽命的治療領域中,具有巨大的潛力。

而透過靶向這些蛋白質,GPT-4b micro 為創建更有效的再生治療方案提供了可能,有望將人類壽命延長十年。

實際應用:器官創造細胞替代療法

GPT-4b micro 在器官創造和細胞替代療法中的實際應用標誌著再生醫學的重大進展。

GPT-4b micro 大大提高了各種細胞的生產效率,有望解決器官移植中關鍵的短缺問題,並為多種退行性疾病提供創新治療方案。

從實際角度來看,這種 AI 驅動的方法可能為器官移植領域帶來突破性變化。

科學家有可能為每位患者量身訂製器官,大大減少排斥反應的風險,並提高移植的成功率。

返老還童,OpenAI 做到了?首個逆齡 AI 即將登場,宣稱人類壽命可延長 10 年

此外,還可能開發細胞替代療法,用於治療如帕金森氏症、糖尿病和心臟病等目前治療效果有限的疾病。

除了單一應用外,這項技術可能會提供大規模組織工程的新策略,徹底改變再生醫學領域。

這將有助於再生整個器官,或是修復器官中特定的關鍵組織,這些組織可能因衰老、疾病或損傷而受損。

因此,AI 驅動的蛋白質工程的進展有望加速再生醫學的研究步伐,促進醫學、生物學與 AI 領域的跨界合作。

隨著技術的不斷成熟,它有可能從根本上改變治療方式,提升生活品質,並可能引領在壽命延長和衰老相關疾病治療上的範式轉變。

押注三種主流抗衰老技術

此前,早有報導稱,Sam Altman 一直在押注一項雄心勃勃的秘密計畫——延長人類壽命。

為此,他找到了哈佛、MIT、加州理工學院聯合培養的科學家 Joe Betts-LaCroix。

這位曾經開發出世界上最小個人電腦的天才,多年來一直致力於推動長壽領域的深度研究。

表面上看,進軍生物科技似乎與奧特曼的 AI 事業相去甚遠,但深入了解就會發現,這其實是他未來主義世界觀的自然延伸。

返老還童,OpenAI 做到了?首個逆齡 AI 即將登場,宣稱人類壽命可延長 10 年

奧特曼早已為可能發生的末日災難,準備了充足的武器、黃金、和地產。

而從 AI 到核融合能源,再到延長生命,奧特曼相信,自己有能力去解決這些關乎人類未來的重大課題。

雖然讓人類壽命延長 10 年,聽起來像是科幻小說的情節。

但在如今 AI 飛速發展的今天,或許這個目標已經不再遙不可及。

在距離 OpenAI 舊金山總部南部約 30 英里處,Retro Biosciences 的總部悄然坐落於此。

返老還童,OpenAI 做到了?首個逆齡 AI 即將登場,宣稱人類壽命可延長 10 年

自 2021 年 7 月,啟動了貨櫃實驗以來,Retro 將研究方向分為三個領域。

細胞自噬(Autophagy)

細胞自噬是細胞內的一種自我消化過程,可以清除受損的細胞器和蛋白質。

目前,最接近於能夠提高細胞效率的藥物是雷帕霉素(rapamycin)或二甲雙胍(metformin)。

這兩種現有藥物(分別用於腎臟移植和糖尿病治療)在延長壽命方面顯示出了希望,一些生物駭客已經在進行非常規使用,將其作為自行干預衰老的手段。

但到目前為止,還沒有任何藥物能夠直接、明確且正式地針對這個細胞「房屋清理」問題。

細胞重編程

這是當今長壽科學領域最熱門的想法之一。這項技術在操作上也很棘手。

其基本理念是使用四種著名的「山中因子」將老化細胞「重編程」到稍微年輕的狀態,使其重新表現出年輕細胞的特徵。

但在實驗中,要以一種不會潛在導致癌症或其他健康問題的方式完成這種重塑過程是很困難的。

返老還童,OpenAI 做到了?首個逆齡 AI 即將登場,宣稱人類壽命可延長 10 年

血漿療法

這聽起來最像吸血鬼情節的概念。

Betts-LaCroix 指出,透過用生理食鹽水稀釋小鼠的血漿進行的「返老還童」研究顯示出了很有希望的結果。

這似乎比單純給年老小鼠輸入年輕血液更有效。

在接受血漿稀釋治療的衰老小鼠中,多種與年齡相關的問題都得到了改善。

OpenAI 的研究員 John Hallman、Aaron Jaech,以及來自 Retro 的 Rico Meinl,主導了新模型 GPT-4b micro 的開發。

返老還童,OpenAI 做到了?首個逆齡 AI 即將登場,宣稱人類壽命可延長 10 年

(從左至右:John Hallman、Aaron Jaech、Rico Meinl)

合作的具體目標是推動器官創造和細胞替代療法的技術進展。

OpenAI 與 Retro Biosciences 將研究集中在山中因子,希望徹底革新再生醫學,提供更高效的方式,培育客製化器官並替換細胞。

GPT-4b micro 與其他 AI 模型的關鍵特點之一,是它不僅能夠預測蛋白質結構,還能重新編程蛋白質。

這一點至關重要,因為它為理解和操控生物過程開闢了新的方向。

此外,這項技術的應用領域極為廣泛,能夠在器官創造和細胞替代療法等多個領域提供潛在的解決方案。

目前,該計畫沒有設定完成的具體時間表。

然而,雙方承諾將與科學界分享研究成果,確保從這一計畫中獲得的知識為科學界提供更廣泛的理解與進展。

未來與影響

專家意見

Retro Biosciences 顧問、哈佛大學教授 Vadim Gladyshev,對 GPT-4b micro 的潛力表示樂觀。

他指出,在不同的細胞類型和物種中,原有技術往往出現不一致性,而新 AI 模型能提供高效的重編程過程。他認為,AI 在幹細胞生產中的潛力巨大。

Retro Biosciences 的執行長 Joe Betts-Lacroix,表示新的技術是生物界的 AlphaGo,指出即使在對模型原理沒有完全理解之前,也能取得其令人矚目的成果。Betts-Lacroix 強調了 GPT-4b micro 在蛋白質重編程中的變革性能力,進一步鞏固了在推動長壽研究中的重要作用。

儘管 GPT-4b micro 的前景非常廣闊,生物倫理學家們卻提出了嚴重的擔憂。

根據《The Conversation》中的專家觀點,延長人類壽命可能導致世代更替的減少,從而減緩社會進步。

隨著生命延長技術的出現,可能會造成「生物鴻溝」,即富人可以負擔這些技術,從中受益,而窮人則不然。

關於 GPT-4b micro 的討論不僅關於科學潛力,也是社會責任的問題。

AI 與「長生不老」

AI 與長壽科學,正以前所未有的方式交織在一起,推動著技術和生物學的發展。

與 OpenAI 的開創性努力相呼應,其他領域也取得了顯著進展。

Alphabet 的 Isomorphic Labs 因在 AI 驅動的藥物發現方面的突破而備受矚目,成功預測了與衰老相關的蛋白質相互作用。

Calico Life Sciences 也在 AI 設計的細胞清除化合物方面取得了持續進展,為抗擊細胞衰老做出了貢獻。

這些里程碑不僅標誌著 AI 在醫療保健領域的重要作用,也為未來生物研究和治療發展奠定了基礎。

重塑人類長壽的旅程充滿了希望與挑戰。

專家認為,AI 在生物學研究中的整合提供了前所未有的效率和效果,但其社會影響,尤其是公平性和倫理問題,仍然是需要嚴肅討論的領域。

隨著 AI 與長壽科學的對話不斷推進,圍繞監管框架和倫理標準的討論日益重要。

FDA 最近為 AI 輔助的生物研究制定了指導方針,體現了對新技術挑戰的應對。這一監管措施對規範 AI 驅動的蛋白質和細胞重編程至關重要,預示著未來 AI 將在醫學科學中持續塑造並不斷重新定義其邊界。

公眾反應與認知

OpenAI 與 Retro Biosciences 合作延長人類壽命的宣布,引發了多種反應,既有的希望也有懷疑。

一方面,支持者將這項倡議視為生物技術的一大突破,熱切期待可能帶來更健康、更長壽生活的進步。

許多網友,對 AI 解決人類最緊迫健康挑戰的潛力表示興奮。

另一方面,這種技術也令人擔憂。一些人擔心大幅延長人類壽命的倫理影響,例如可能對全球資源和社會結構造成的壓力。

社群媒體平台上的批評者質疑這些長壽治療手段的可及性,擔心它們最初可能只是富人的特權,可能會加劇現有的社會不平等。以後富人不光在經濟上享有特權,還能活得更久。

越來越多的人呼籲進行透明的討論和監管,以確保這些治療手段的開發和分配都能以合乎倫理和平等的方式進行。

此外,AI 在延長壽命方面的作用可能會導致社會結構的重大轉變,例如退休制度和世代動態。

至關重要的是,要平衡這些進步的巨大潛力與積極措施來降低風險,為未來做好準備。

 

加入T客邦Facebook粉絲團

Intel 18A已準備就緒,官方宣稱領先台積電一年?

作者 36Kr
2025年3月1日 10:30
Intel 18A已準備就緒 領先台積電一年?Fbe99afe2379839566f8776f219f5704

英特爾近日透過官網正式上線了其最先進的Intel 18A製程技術介紹,並宣稱該技術已「準備就緒」。根據外界預估,Intel 18A預計於2025年中進入量產,將由酷睿Ultra 300系列「Panther Lake」處理器率先採用,預計今年下半年上市。

 Intel 18A已準備就緒,官方宣稱領先台積電一年?

能效提升15%,密度提升30%

根據英特爾官網資料,相較於Intel 3製程節點,Intel 18A每瓦效能提升15%,晶片密度提高30%。英特爾稱其為北美製造中最先可用的2nm以下先進節點,能為客戶提供靈活的供應替代方案。

此外,根據已曝光的資料,Intel 18A的SRAM密度達到0.021 μm²的高密度SRAM位元單元尺寸(約31.8 Mb/mm²的SRAM密度),相較於Intel 4的0.024 μm²,進步顯著。

研究機構TechInsights測算顯示,Intel 18A的性能值為2.53,台積電N2為2.27,三星SF2為2.19。也就是說,在2nm級製程中,Intel 18A性能最高,台積電N2居次,三星SF2排名第三。

Intel 18A已準備就緒,官方宣稱領先台積電一年? 

RibbonFET電晶體

Intel 18A採用RibbonFET環柵(GAA)電晶體技術,可精確控制電流。RibbonFET能進一步縮小晶片組件尺寸並減少漏電,這對日益密集的晶片來說至關重要。

Intel 18A已準備就緒,官方宣稱領先台積電一年?

RibbonFET提升每瓦效能、最小電壓(Vmin)操作與靜電性能,帶來顯著優勢,還透過不同帶寬與多種閾值電壓(Vt)類型提供高度可調性。HD MIM電容器則大幅降低電感功率下降,增強晶片穩定性。這對生成式AI等需要突發高強度運算的現代工作負載尤為關鍵。

英特爾去年底公布資訊顯示,其代工部門展示栅極長度僅6奈米的矽基RibbonFET CMOS電晶體,在縮短栅極長度與減少溝道厚度的同時,對短溝道效應的抑制與性能達到業界領先水準。英特爾表示,這為摩爾定律關鍵基礎——栅極長度持續縮短——鋪平道路。

PowerVia背面供電技術

隨著電晶體密度增加,混合訊號與電源佈線易造成擁塞,降低性能。英特爾代工部門首創的PowerVia技術將間距較大的金屬與凸塊移至晶片背面,並在每個標準單元嵌入奈米級矽通孔(nano-TSV),實現高效電源分配。

Intel 18A率先採用PowerVia背面供電技術,將密度與單元利用率提升5%至10%,降低電阻功率下降,使ISO功率效能提高最多4%,相較正面供電設計,固有電阻(IR)下降大幅減少。

相較之下,三星計劃於2026年量產的SF2P製程才會實施背面供電技術。台積電則可能要到2026或2027年的A16製程才導入背面供電,但預計其背面連接將更直接,提供比英特爾與三星更小的軌道高度。

 Intel 18A已準備就緒,官方宣稱領先台積電一年?

最快2025年上半年量產

該製程全面支援業界標準EDA工具與參考流程,實現從其他技術節點的平穩轉換。透過EDA合作夥伴提供的參考流程,客戶可率先使用PowerVia進行設計。

英特爾表示,目前由超過35個行業領先生態系統夥伴組成強大團隊,涵蓋EDA、IP、設計服務、雲服務及航太國防領域,確保廣泛客戶支援並進一步簡化流程。

早在去年9月,英特爾於俄勒岡州波特蘭舉行的Enterprise Tech Tour活動中,首次展示基於Intel 18A製程的Xeon晶片「Clearwater Forest」。隨後10月,英特爾宣布已向聯想等合作夥伴交付基於Intel 18A的Panther Lake CPU樣品。

目前預計Intel 18A將於2025年中量產,最快可能上半年實現,並由酷睿Ultra 300系列「Panther Lake」處理器首發,該處理器預計今年下半年上市。

相較之下,台積電N2計畫於2025年底大規模量產,第一批產品最快2026年中上市,相關產品預計2026年秋季推出。這意味著Intel 18A整體進度將領先台積電N2近一年。 

High NA EUV有望持續擴大優勢

在Intel 18A領先台積電N2近一年的同時,英特爾正利用ASML最新的High NA EUV曝光機積極擴大技術優勢,這是1nm級尖端製程所需的製造工具。

英特爾計畫在Intel 18A後的Intel 14A導入High NA EUV曝光機,相較Intel 18A,Intel 14A的電晶體密度將提升20%。目前英特爾在High NA EUV計畫上處於領先,已購置兩台價值3.5億美元的ASML Twinscan EXE 5000系列曝光機,並於去年完成安裝與運行,是唯一擁有豐富使用經驗的晶片製造商。

相較之下,台積電業務開發資深副總經理張曉強曾表示,雖對High NA EUV能力印象深刻,但設備價格過高。台積電現有EUV能力可支援晶片生產至2026年底,其A16製程將依賴標準EUV曝光機量產,並計畫用High NA EUV生產A10製程晶片。但有傳聞稱,台積電已開始計畫提前引入High NA EUV累積經驗。

英特爾矽光子集團首席計畫經理Joseph Bonetti曾於LinkedIn表示,相較競爭對手,英特爾在High NA EUV經驗上至少領先一年。

加入T客邦Facebook粉絲團

AI大神Andrej Karpathy 實測 GPT-4.5:更像人類了!驚喜有,但提升幅度微妙

作者 36Kr
2025年2月28日 14:00
實測 GPT-4.5:更像人類了!驚喜有,但提升幅度微妙B18bc486a8c826e3b2ae2fc0a463ef9f

OpenAI 舉行了一場約莫 14 分鐘的線上直播發表會,眾所矚目的 GPT-4.5 終於正式亮相!Sam Altman 說:GPT-4.5,準備好了!

Sam Altman 說:「這是第一個讓我覺得像在和一個有思想的人交談的模型。有好幾次我都忍不住向後靠在椅子上,驚訝於 AI 竟然能給出真正有用的建議。

壞消息是,這是一個龐大且昂貴的模型。我們真的很想同步向 Plus 和 Pro 用戶推出,但使用者成長速度實在太快,導致 GPU 供不應求。我們將在下週增加數萬個 GPU,然後再向 Plus 用戶層級開放。(數十萬個 GPU 即將到來,而且我相信各位一定會充分利用我們所部署的每一顆 GPU。)

這並非我們理想的營運方式,但實在很難完美預測使用者暴增導致 GPU 短缺的狀況。

這並非一個推理模型,也不會在基準測試中表現突出。這是一種不同類型的智慧,而且它帶有一種我以前從未感受過的魔力。真的非常興奮能讓大家親身體驗看看!」

發表會一開始,OpenAI 首先展示了一個範例。當使用者表達「朋友又取消了我的約會,我太生氣了,想傳訊息罵他」這種負面情緒時,GPT-4.5 展現出了驚人的理解能力和情商:

  • 舊模型 (o1) 的回覆: 直接按照指令輸出憤怒的罵人簡訊,雖然成功完成任務,但顯得冷冰冰,甚至有點「火上加油」。
  • GPT-4.5 的回覆: 它不僅給出了更溫和、更具建設性的訊息建議,還「聽」出了使用者言語背後的 真實需求 —— 使用者可能只是需要傾訴和安慰,而不是真的想和朋友鬧翻!

AI大神Andrej Karpathy 實測 GPT-4.5:更像人類了!驚喜有,但提升幅度微妙

這種細膩的情感理解和微妙的回應,正是 GPT-4.5 的亮點之一!它不再是冷冰冰的機器,而是更能理解我們的 真實意圖和情感需求

知識更淵博,能力更全面

除了情商大幅升級,GPT-4.5 的知識儲備和能力也得到了顯著提升。發表會上 OpenAI 對比了 GPT 系列模型回答「為什麼海洋是鹹的」這個問題:

  • GPT-1: 完全狀況外
  • GPT-2: 有點沾邊,但答案還是錯誤。
  • GPT-3.5 Turbo: 給出了正確答案,但解釋略顯生硬,細節過於冗長。
  • GPT-4 Turbo: 答案不錯,但有點「炫技」感,不夠簡潔明瞭。
  • GPT-4.5: 完美答案!簡潔、清晰、有條理,第一句話「海洋是鹹的,因為雨水、河流和岩石」更是朗朗上口,充滿趣味性!

AI大神Andrej Karpathy 實測 GPT-4.5:更像人類了!驚喜有,但提升幅度微妙

更強、更快、更安全

根據 OpenAI 的說法,這些進步背後,是 GPT-4.5 在技術上的全面升級:

  • 更強大的模型: 更大的模型規模,投入更多運算資源,帶來更強大的語言理解和生成能力。
  • 創新的訓練機制: 採用全新訓練機制,使用更小的資源 footprint 就能微調如此龐大的模型。
  • 多迭代優化: 通過監督式微調和人類回饋強化學習 (RLHF) 的組合進行多輪迭代訓練,不斷提升模型效能。
  • 多數據中心預訓練: 為了充分利用運算資源,GPT-4.5 甚至跨多個數據中心進行預訓練!這規模,光想就覺得震撼!
  • 低精度訓練和推論優化: 採用低精度訓練和全新推論系統,確保模型又快又好。
  • 更安全的模型: 經過嚴格的安全評估和準備度評估,確保模型可以安全可靠地與世界分享。

效能表現

發表會上 OpenAI 還展示了 GPT-4.5 在各種 benchmark 上的效能表現:

  • GBQA (推理密集型科學評估): 大幅提升!雖然仍落後於 OpenAI-03 Mini (可以思考後再回答的模型),但已經非常接近!
  • AIME24 (美國高中數學競賽評估): 相對推理模型提升幅度不大。
  • SWE Bench verified (Agentic 編碼評估): 相比 GPT4o 僅提升 7%。
  • SWE Lancer (更依賴世界知識的 Agentic 編碼評估): 超越 OpenAI-03 Mini!
  • Multilingual MMLU (多語言語言理解基準): 提升不到 4%。
  • Multimodal MMLU (多模態理解): 多模態能力提升約 5%。

AI大神Andrej Karpathy 實測 GPT-4.5:更像人類了!驚喜有,但提升幅度微妙

AI 大神 Andrej Karpathy 評測 GPT-4.5

相信大家對 GPT 的每一次迭代都充滿期待。這次的 GPT-4.5 更是吊足了大家的胃口,畢竟距離 GPT-4 發布已經過了將近兩年! AI 領域大神、OpenAI 聯合創辦人 Andrej Karpathy 提前取得了 GPT4.5 的內測資格,並親自發聲,對 GPT-4.5 進行深度解讀。

AI大神Andrej Karpathy 實測 GPT-4.5:更像人類了!驚喜有,但提升幅度微妙

Karpathy 在他的推文中開門見山地指出,他期待 GPT-4.5 已經很久了,原因在於這次升級提供了一個 定性衡量指標,可以觀察到 通過擴大預訓練算力(簡單來說就是訓練更大的模型)所帶來的 效能提升斜率

他更透露了一個關鍵訊息:GPT 版本號每增加 0.5,大致意味著預訓練算力提升了 10 倍

為了讓大家更直觀地理解這個 "0.5" 的意義,Karpathy 還回顧了 GPT 系列的發展歷程:

  • GPT-1: 幾乎無法生成連貫的文本,還處於非常早期的階段。
  • GPT-2: 像一個「玩具」,能力有限,還比較混亂。
  • GPT-2.5: 直接「跳過」了,OpenAI 直接發布了 GPT-3,這是一個更令人興奮的飛躍。
  • GPT-3.5: 跨越了一個重要的門檻,終於達到了可以作為產品發布的水平,並由此引爆了 OpenAI 的「ChatGPT 時刻」!
  • GPT-4: 感覺確實更好,但 Karpathy 也坦言,提升是 微妙的。他回憶起參與駭客松的經驗,大家嘗試尋找 GPT-4 明顯優於 GPT-3.5 的具體 prompt,結果發現雖然差異存在,但很難找到那種「一錘定音」的例子。

GPT-4 的提升更像是一種「潤物細無聲」的感覺:

  • 詞語選擇更具創造力
  • 對 prompt 細微之處的理解有所提升
  • 類比更加合理
  • 模型變得更有趣
  • 世界知識和對罕見領域的理解在邊緣地帶有所擴展
  • 幻覺(胡說八道)的頻率略有降低
  • 整體感覺 (vibe) 更好

就像是「水漲船高」,所有方面都提升了大約 20%。

GPT-4.5:微妙的提升,依舊令人興奮

帶著對 GPT-4 這種「微妙提升」的預期,Karpathy 對 GPT-4.5 進行了測試(他提前幾天獲得了存取權限)。這次 GPT-4.5 的預訓練算力比 GPT-4 又提升了 10 倍

然而,Karpathy 發現,他彷彿又回到了兩年前的駭客松:一切都變得更好,而且非常棒,但提升的方式仍然難以明確指出。

儘管如此,這仍然非常有趣和令人興奮,因為它再次 定性地衡量了僅僅通過預訓練更大的模型就能「免費」獲得的能力提升斜率。這說明,單純地堆疊算力,依舊能帶來肉眼可見的進步,只是進步的方式可能更加內斂和精細化。

注意!GPT-4.5 並非推理模型

Karpathy 特別強調,GPT-4.5 僅僅通過預訓練、監督式微調和 RLHF(人類回饋強化學習)進行訓練,因此它還不是一個真正的「推理模型」。

這意味著,在需要強大推理能力的任務(例如數學、程式碼等)中,GPT-4.5 的能力提升可能並不顯著。在這些領域,通過強化學習進行「思考」訓練至關重要,即使是基於較舊的基礎模型(例如 GPT-4 等級的能力)進行訓練,效果也會更好。

目前,OpenAI 在這方面的最先進模型仍然是 full o1。 據推測,OpenAI 接下來可能會在 GPT-4.5 模型

的模型基礎上,進一步進行強化學習訓練,使其具備「思考」能力,從而推動模型在推理領域的效能提升。

GPT-4.5 的優勢領域:EQ 而非 IQ

雖然在推理方面提升有限,但 Karpathy 認為,在那些不依賴重度推理的任務中,我們仍然可以期待 GPT-4.5 的進步。 他認為,這些任務更多與 情商 (EQ) 相關,而非智商 (IQ),並且瓶頸可能在於:

  • 世界知識
  • 創造力
  • 類比能力
  • 總體理解能力
  • 幽默感

因此,Karpathy 在測試 GPT-4.5 時,最關注的也是這些方面。

Karpathy 的「LM Arena Lite」趣味實驗

為了更直觀地展示 GPT-4 和 GPT-4.5 在這些「情商」相關任務上的差異,Karpathy 發起了一個有趣的 「LM Arena Lite」實驗

他精心挑選了 5 個有趣/幽默的 prompt,用來測試模型在上述能力上的表現。 他將 prompt 和 GPT-4、GPT-4.5 的回覆截圖發布在 X 上,並穿插投票,讓大家投票選出哪個回覆更好,類似下面這種問題和投票方式:

AI大神Andrej Karpathy 實測 GPT-4.5:更像人類了!驚喜有,但提升幅度微妙

即日起,ChatGPT Pro 用戶 已經可以透過模型選擇器體驗 GPT-4.5 了! 下週將面向 Team 和 Plus 用戶 開放,EDU 和 Enterprise 用戶 稍後也將陸續上線。

發表會的最後,OpenAI 強調了 無監督學習推理能力 的重要性,並認為 GPT-4.5 是無監督學習領域的前沿成果。 更強大的世界知識和更智慧的模型,將為未來的 推理模型和 Agent 奠定更堅實的基礎。

整場發表會的感覺GPT-4.5 亮點真的不多,從 Andrej Karpathy 的第一手評測來看也是如此,提升的主要是情商?這個只有等大家實際使用後才能親身感受了。

加入T客邦Facebook粉絲團

日本爆紅打零工平台Spotwork:從「歸還」行動電源看日本零工經濟,彈性工作成主流?

作者 36Kr
2025年2月22日 15:30
中國還不上的行動電源,成了日本人爆金幣的副業Ca8db499e581a37762d467f385a61581

出門在外總有沒電的時候,當你需要行動電源,或許你會想到租借共享行動電源的服務,不過,應急的狀況解除後,有時卻不知道該怎麼歸還行動電源,反而成一個難題。而在共享行動電源同樣急速鋪開的日本,人們不僅沒被這個問題困擾,反而輕鬆地將問題變成了一種新的副業。在日本,「還行動電源」儼然已經成為一個大型真人GPS實境手遊——還會爆現金的那種。

「還行動電源」成為一個真人GPS實境手遊

家住千葉縣的花璃子每天下班都會隨手接一單「任務」。

她工作在東京新橋,那是居酒屋聚集的繁華區,每到晚間散場時分,行動電源的槽位都會「滿到爆」。花璃子的「任務」就是取出這些槽位裡多餘的行動電源,再找到缺少行動電源的機台還回去。

花璃子通常選擇在千葉縣「還電源」,因為正好通勤順路,下了電車走回家的路上,就可以順手歸還。 任務完成,能獲得四五百日圓的獎勵,約等於新台幣一百元左右,不算很多,但起碼「打平」了通勤車資。

日本爆紅打零工平台Spotwork:從「歸還」行動電源看日本零工經濟,彈性工作成主流?

這就是日本解決共享行動電源「易借難還」的妙計:邀請「勇者」來幫忙。

任何人,只要打開名為Spotwork的APP,搜尋附近多餘的共享行動電源,將其取出,再歸還至顯示缺少行動電源的機台,就可以獲得現金報酬。 註冊非常簡單,一反日系網站那種反人類的繁瑣驗證流程,只需要簡單填寫幾個資訊,就可以參與進來。

沒有經驗和年齡限制,不論是學生還是老人家,都可以成為新「勇者」。 成功調度一個行動電源,就可以拿到55日圓,就像新手村的輕鬆小任務。

日本爆紅打零工平台Spotwork:從「歸還」行動電源看日本零工經濟,彈性工作成主流?

熱愛二次元的日本,總能把生活ACG化

同樣的機械技術,別人在製造工業機器人,日本首選手搓鋼彈;同樣的AI技術,別人在製作商業模型,日本的虛擬歌姬滿街都是。在別的國家,把共享行動電源從擁擠的歸還點運往不足的點位,是一個特定職位——維運人員。而在日本,行動電源公司選擇與零工平台合作,把這份工作拆分給無數個動態組合的臨時員工。

相比於養活一個專門做這事的正職員工,Spotwork的優勢顯而易見: 不僅不用支付招聘、員工福利等用人成本,而且臨時員工可以在平台24小時接單,隨時以最快速的動作調整行動電源的分布狀態。

對於「勇者」來說,Spotwork也是CP值頗高。雖然你不能靠這個養活自己,算下來,每小時的收入通常還是低於日本最低時薪。但做為一種閒暇時的額外收入,也是不無小補,因為它真的太輕鬆了。

有YouTuber發現,由於共享行動電源的點位非常多,所以可以領取的任務也很多,尤其是在市中心,下樓就可以拿到五個多餘的行動電源,走個十分鐘,就可以到達歸還點。掃碼還機,三百日圓就進帳了。 不論做什麼,都能順便「解個任務」。

有人送Uber的路上順手帶上幾個,有人一邊遛狗,一邊就把任務完成了。 還有人專門在凌晨掃街,每天隨機找一個地點,騎著腳踏車,把方圓五公里內的任務全部領取,既探索街區,也運動健身。

日本爆紅打零工平台Spotwork:從「歸還」行動電源看日本零工經濟,彈性工作成主流?

甚至,你還能鑽漏洞。當你手機快沒電了,就在附近領取一單任務,取出的行動電源可以隨便給自己手機充電,用完後找個點位歸還就好。這樣一來,不僅不用付行動電源的租借費,還白賺了一筆佣金。由於平台政策非常寬鬆,領取任務後有兩週的完成時間,所以拿到行動電源後不用急著還。

Spotwork一推出後,立刻大受歡迎,註冊人數迅速超過六萬。 在日本經濟新聞每年推出的「熱門商品排行榜」中,它還被選為僅次於「大谷翔平」的年度現象級消費現象。 許許多多個「花璃子」共同組成的共享行動電源的即時調度員,活絡了這些藍色能量塊在城市中的流轉。 而這,也是日本新零工經濟的冰山一角。

Spotwork打零工讓「小事」也有錢賺

Spotwork是一款App的名稱,也是一種2024年在日本非常流行的工作方式——打零工。 正如這串英文的意思,「現場作業」,Spotwork提供的是「一次性」的單次工作機會,到了就做,做完就走,平台發薪,乾淨俐落。 因為不需要面試、不需要試用期,不需要長期的固定時間,Spotwork儼然成為上班族換口味的兼差首選。

聽起來就像「日薪工」,實際上,Spotwork的很多工作,比日薪工更加零散。 大多可以說是「時薪制」,甚至「以分計酬」,打開App之前,你永遠不會知道竟然還有人會為了這些「小事」付錢。

日本爆紅打零工平台Spotwork:從「歸還」行動電源看日本零工經濟,彈性工作成主流?

比如一份平台上寫著「工作時間10分鐘,報酬330日圓」的工作,原來是給垃圾拍照。 公寓管理者需要確認,垃圾箱裡的垃圾袋有沒有好好綁緊,於是發布了這個任務。 對於就住在附近的人來說,拍這幾張照片,可能還不用10分鐘。 還有大量的建築物、工地拍攝需求,只需在晴朗的天氣,為不動產公司拍幾張房屋照片,就可以獲得幾百日圓的回報。

日本爆紅打零工平台Spotwork:從「歸還」行動電源看日本零工經濟,彈性工作成主流?

還有檢查自動停車場是否有違規停車、蒐集空屋資訊、調查電動汽車充電樁的設置情況、張貼支付App的QR Code,許多需要大量人力的簡單工作,都被化整為零地外包給「新零工」。

與「日薪工」最大的不同是,「新零工」並不靠這份工作養活自己。 以工作回報來說,Spotwork其實不高。 一位YouTuber花了四個小時完成23件拍攝工作後,只拿到了2320日圓,以時薪計算,收入遠遠低於東京都的1100日圓最低時薪。

對於「勇者」們來說,這更像一種打發時間的休閒活動。 他們之中,有人是家庭主婦,有人是在校學生,也有休假中的上班族,都有自己的生活經濟來源,而打零工則是賺點零用錢。

家住東京的山本,星期天起床後就會去打份零工。這一天,她選擇在居酒屋的午餐時段幫忙。擔任服務生從11點工作到12點半,她拿到了1800日圓。轉眼,剛賺到的錢又花掉了。一下班,山本就換上時髦漂亮的外套,變身都會時髦女性。她的嗜好是逛咖啡廳,中午賺的錢就拿來喝咖啡。

日本爆紅打零工平台Spotwork:從「歸還」行動電源看日本零工經濟,彈性工作成主流?

有大學生趁從外地來東京看演唱會的空檔,打個零工。 也有家庭主婦在送小孩去上學後,打兩個小時零工再回家煮飯。

日本爆紅打零工平台Spotwork:從「歸還」行動電源看日本零工經濟,彈性工作成主流?

一個月賺個五六萬日圓,不算多,但既能接觸新的工作,又能賺點外快,還是讓許多人樂此不疲。 就像當初的《Pokemon GO》,大家對於「臨時工」的熱情,幾乎可以用爆發來形容。 2024年,日本最大的Spotwork平台Timee註冊人數超過八百萬,占總勞動人口的15%。 一舉把Timee推上了上市公司。

日本爆紅打零工平台Spotwork:從「歸還」行動電源看日本零工經濟,彈性工作成主流?

後期加入的mercari halo等公司,也迅速獲得大批用戶。 日本電視台在台場、新宿、澀谷等地進行的調查發現,10-40歲的受訪者中,每四個人就有一個做過Spotwork。

少子高齡化,勞動力短缺,日本缺工早已不是新聞。 有預測推斷,到2030年,日本勞動力缺口將達到三百四十萬人。 這些年,日本用盡各種方法,試圖增加勞動力,比如鼓勵大家多生小孩,引進外籍「技能實習生」,補充年輕勞動力。 但還是有許多中小企業因為請不到人而被迫倒閉。新零工Spotwork因此應運而生。 

日本爆紅打零工平台Spotwork:從「歸還」行動電源看日本零工經濟,彈性工作成主流?

在日本,除了生小孩和引進移民之外,他們找到了解決勞動力短缺的第三條路:更有效率地運用現有的勞動力。 而當工作變成一款即時回饋、隨時可以抽身而去的遊戲,人們對於工作的厭惡也轉向興奮和期待。 有時,我們所厭惡的,或許並非工作本身,而是失去自由的感覺。

 

加入T客邦Facebook粉絲團

AI寫程式時代真的來臨?Google 工程師解析如何利用 AI 來改進軟體開發

作者 36Kr
2025年1月9日 14:30
2024 年的 AI 寫程式到底什麼實力?近日,Google 的工程主管 Addy Osmani,為我們揭示了 AI 輔助寫程式碼在一線開發中的真實情況。6a20cdb4d0e310ccf6352374a3e66b63

2024 年,AI 寫程式已然滲透了各行各業,影響著軟體的整個生命週期。那麼問題來了,AI coding 用過都說好,但我們平時用的軟體為什麼感覺沒什麼在進步呢?

近日,Addy Osmani,Google 的工程主管,同時也是一位亞馬遜暢銷書作家,為我們揭示了 AI 輔助寫程式碼在一線開發中的真實情況。

工程師怎麼用 AI?

一般来说,團隊利用 AI 進行開發有兩種不同的模式:「引導程式(bootstrappers)」和「疊代器(iterators)」。兩者都在幫助工程師(甚至是非技術用戶)縮小從想法到執行的差距。

Bootstrappers

這一類包括 Bolt、v0 和 screenshot-to-code 等 AI 工具,其特點為:

  • 從設計或粗略概念開始;
  • 使用 AI 生成完整的初始程式碼庫;
  • 能夠在幾小時或幾天內獲得工作原型;
  • 專注於快速驗證

這樣的工作流令人印象深刻。比如一位獨立開發人員可以使用 Bolt,在短時間內將 Figma 設計轉變為有效的 Web 應用程式。儘管達不到生產級別的要求,但用來獲得初步的使用者回饋綽綽有餘。

Iterators

這一類主要負責日常開發工作流程,包括 Cursor、Cline、Copilot 和 WindSurf 等工具,效果沒有上面那麼浮誇,但更加實在,比如:

  • 完成程式碼、提供建議;
  • 執行複雜的重構任務;
  • 生成測試和文檔;
  • 作為解決問題的「結對程式設計師」

雖然這兩種方法都可以大大加快開發速度,但「天下沒有白吃的午餐」。

「AI 速度」的隱性成本

高級工程師使用 Cursor 或 Copilot 等 AI 工具,可以在幾分鐘內搭建整個功能的基架,並完成測試和文檔,就像變魔術一樣。

但仔細觀察就會發現,在參考 AI 建議的同時,資深工程師們還會:

  • 將生成的程式碼重構為更小的模組;
  • 添加邊緣情況處理;
  • 優化類型定義和介面;
  • 添加全面的錯誤處理;
  • 甚至是質疑 AI 給出的架構

換句話說,他們正在用多年累積的工程智慧,塑造和限制 AI 的輸出。AI 負責加速程式碼實現,但人類的專業知識確保程式碼的可維護性。

AI寫程式時代真的來臨?Google 工程師解析如何利用 AI 來改進軟體開發

而初級工程師就經常錯過這些關鍵步驟。他們更容易接受 AI 的輸出,從而導致所謂的「紙牌屋程式碼(house of cards code)」——看起來很完整,但在現實世界的壓力下會崩潰。

知識悖論

所以實際上,相比於初學者,AI 反而更能幫助有經驗的開發人員,——這多少有點反直覺。

高級工程師利用 AI 快速構建想法的原型(理解)、生成基本實現(可改進)、探索已知問題的替代方法等等;

而初學者卻經常接受不正確或過時的解決方案、忽略關鍵的安全性和效能問題、不知道如何除錯 AI 生成的程式碼,最終構建了一個自己不完全理解的脆弱系統。

70% problem

使用 AI 寫程式碼的非工程師,經常遇到一個窘境:他們可以出人意料地迅速完成 70% 的工作,但最後的 30% 就相當痛苦了。

「70% problem」揭示了 AI 輔助開發的現狀,剛開始如有神助,後來被現實按在地上摩擦。

實際情況通常是:

  • 嘗試修復一個小錯誤——>
  • AI 提出了一個似乎合理的更改——>
  • 這個更改破壞了其他一些東西——>
  • 要求 AI 修復新問題——>
  • 又產生了兩個新 bug——>
  • 無限循環

這個循環對於非工程師來說尤其痛苦,因為他們缺乏專業知識來理解真正出了什麼問題。

有經驗的開發人員遇到 bug 時,可以根據多年的模式識別來推理潛在原因和解決方案。如果沒有這個背景,那基本上就是在用自己不完全理解的程式碼「打地鼠」。

AI寫程式時代真的來臨?Google 工程師解析如何利用 AI 來改進軟體開發

學習悖論

還有一個更深層次的問題:讓非工程師使用 AI 寫程式碼工具,實際上可能會阻礙學習。

程式碼生成了、運行了,但「開發者」不了解基本原理,此時,他錯過了學習基本模式、沒有培養除錯技能、無法對架構決策進行推理,而這份程式碼又需要維護和擴展。

於是,「開發者」不斷返回 AI 來解決問題,而沒有培養自己處理問題的專業能力。

非工程師使用 AI 寫程式碼工具的最好方式可能是「混合模式」:

  1. 使用 AI 進行快速原型設計
  2. 花點時間了解生成的程式碼是如何工作的
  3. 學習基本的寫程式概念以及 AI 使用
  4. 逐步建立知識基礎
  5. 將 AI 用作學習工具,而不僅僅是程式碼產生器

但這需要耐心和奉獻精神,與許多人使用 AI 工具的目標恰恰相反。

「70% problem」表明,目前的 AI 還不是許多人希望的那個 AI。最後 30% 的工作(使軟體可用於生產、可維護等),仍然需要真正的工程知識。

最佳實踐

Addy Osmani 觀察了幾十個團隊,總結了一些最佳實踐方式:

  • 「AI 初稿」模式

    讓 AI 生成基本實現;手動審查和模組化重構;添加全面的錯誤處理;編寫全面的測試;記錄關鍵決策。

  • 「持續對話」模式

    為每個不同的任務開始新的 AI 聊天;保持上下文集中和最小;經常查看和提交更改;保持緊密的迴饋迴圈。

  • 「信任但驗證」模式

    使用 AI 生成初始程式碼;手動審查所有關鍵路徑;邊緣案例的自動測試;定期安全稽核。

AI 的真正前景?

儘管存在這些挑戰,但作者對 AI 在軟體開發中的作用持樂觀態度。關鍵是要充分利用 AI 的真正優勢:

  • 加速已知

    AI 擅長幫助實現我們已經了解的模式,就像有一個無限耐心的結對程式設計師,他可以非常快速地打字。

  • 探索可能性

    AI 非常適合快速構建想法原型和探索不同的方法,就像一個沙箱,我們可以在其中快速測試概念。

  • 自動化例程

    AI 大大減少了花在樣板和日常寫程式碼任務上的時間,讓我們可以專注於有趣的問題。

如果您剛剛開始 AI 輔助開發,作者的建議是,先從小處著手:將 AI 用於非耦合的、定義明確的任務,查看生成的每一行程式碼,逐漸構建更大的功能。

過程中保持模組化:將所有內容分解為小的重點檔案,在組件之間保持清晰的介面,記錄模組的邊界。

重要的一點是,相信自己的經驗:AI 用來加速而不能取代你的判斷、感覺不對勁時要質疑、時刻維護自己的工程標準。

Agent 興起

隨著我們進入 2025 年,AI 輔助開發的格局正在發生巨大變化。雖然目前的工具已經改變了原型設計和迭代方式,但我們正處於更重要轉型的風口浪尖:AI代理(Agent)軟體工程的興起。AI代理不僅可以回應提示,還將以越來越高的自主性規劃、執行解決方案。

比如 Anthropic 的 Claude 能夠使用電腦,或者 Cline 自動啟動瀏覽器和運行測試的能力。

在除錯過程中,AI代理系統不僅給出修復 bug 的建議,還可以:主動識別潛在問題、啟動和運行測試套件、檢查 UI 元素並捕獲螢幕截圖、提出並實施修復、驗證解決方案是否有效。

下一代工具將可以無縫整合視覺理解(UI 螢幕截圖、模型、圖表)、口頭語言對話和環境互動(瀏覽器、終端、API)。

未來的 AI 不是取代開發人員,而是成為一個越來越有能力的協作者,既可以採取主動,又能尊重人類的指導和專業知識。

 

加入T客邦Facebook粉絲團

NAND Flash 市場競爭白熱化:SK 海力士力圖超越三星

作者 36Kr
2025年1月5日 10:30
NAND Flash 市場競爭白熱化:SK 海力士力圖超越三星F7f14fc20efb69b6642724647cf361ed

過去多年,SK 海力士在 NAND Flash 領域,甚至包含 NAND 與 DRAM 的整體儲存市場,無論技術或市佔率都落後於韓國競爭對手三星。然而,根據韓媒 Businesskorea 十月底的報導,受惠於 HBM 的成功,SK 海力士半導體部門的年度營業利潤預計將首次超越三星,這也象徵著全球半導體產業競爭態勢的重大轉變。

如今,三星在 NAND Flash 市場的領先地位也正受到 SK 海力士的強烈挑戰。截至 2024 年第二季,三星仍以 36.9% 的市佔率穩居龍頭,但 SK 海力士(包含 SK Hynix 與 Solidigm)的全球 NAND 市佔率已從 2020 年的 11.7% 成長至 22.5%。報告更指出,若此趨勢持續,單就 SK 海力士而言,其年度市佔率預計將在 2024 年首次突破 20%。

SK 海力士推出 321 層 TLC NAND Flash,率先超越三星

上個月的韓媒報導指出,SK 海力士已超越三星,成為業界首家量產 321 層三層單元 (TLC) NAND Flash 的公司。此技術突破將以更實惠的價格實現更高容量的儲存。

SK 海力士近期發表了新的 1 兆位元 4D NAND 晶片,再創紀錄。不到一年前,該公司才率先推出 238 層 NAND。321 層的突破同樣意義重大,因為它能顯著提升消費級和企業級 SSD 的儲存密度,使容量超過 100TB 的 SSD 價格更具競爭力。此技術尤其適用於人工智慧資料中心,以及其他需要高效能儲存的應用。

SK 海力士透過精巧的製程最佳化,將 300 多層堆疊至單一 NAND 中。其新的「Three Plugs」技術透過最佳化的電氣連接製程,同時連接三個儲存層的垂直通道。此製程以卓越的製造效率著稱,並採用具自動對準校正功能的低應力材料。SK 海力士透過開發新的低應力材料和自動對準校正技術,克服了連接多層可能產生的應力和對準問題,確保製造過程順利進行。新製程也透過重複使用與 238 層 NAND 相同的平台,將生產效率提升了 59%。這些效率改進意味著市場上將出現效能更佳、成本更低的產品。該公司聲稱,與 238 層 NAND 相比,新的 321 層晶片資料傳輸速度提升了 12%,讀取速度提升了 13%,能效提升了 10% 以上。

SK 海力士計畫逐步擴大 321 層產品的應用範圍,瞄準需要低功耗和高效能的新興人工智慧 (AI) 應用。SK 海力士 NAND 開發主管 Jungdal Choi 表示,這項進展使該公司更接近引領 AI 儲存市場,包含用於 AI 資料中心和裝置端 AI 的固態硬碟 (SSD)。他指出,SK 海力士正透過擴大其在超高效能 NAND 領域的產品組合,以及以高頻寬記憶體 (HBM) 為主的 DRAM 業務,朝向成為綜合 AI 記憶體供應商的方向邁進。

韓媒 Chosun Biz 指出,雖然 SK 海力士在 NAND 市佔率方面仍落後於三星,但其在垂直堆疊單元技術方面處於領先地位,這顯示 NAND 市場可能發生重大變化。

三星積極應對,開發 400 多層 3D NAND

面對 SK 海力士的挑戰,三星也積極應對,據報導,三星目前正在開發 286 層的第九代 3D NAND,並正著手研發 400 層技術。此消息透過 2025 年 IEEE 國際固態電路會議議程發表透露。

據介紹,這款 1 兆位元 NAND 晶片的密度為 28 Gb/mm2,層數超過 400 層,採用三級單元 (3b) 格式,將成為三星 V-NAND 技術的第十代產品。第九代晶片採用雙串堆疊,有 2 x 143 層,有 TLC 和 QLC(四位元/單元)兩種格式。第九代 V-NAND 支援高達 3.2 Gbps 的資料速度,而新的 400 層以上技術則支援每針 5.6 Gbps,速度提升了 75%。此速度似乎既適用於 PCIe 5,也適用於速度快兩倍的 PCIe 6 互連。

在 400 層的 NAND 上,預計將採用三層堆疊架構,而非目前的雙層堆疊設計。此進展充分利用了三星在層數方面的領先優勢,因為它是唯一一家能夠在單一堆疊中生產超過 160 層的公司,而競爭對手只能達到 120-130 層。若三星選擇三層堆疊方法,該公司可望實現驚人的 480 層。

NAND Flash 市場競爭白熱化:SK 海力士力圖超越三星

其中,「WF-Bonding」是三星實現此層數的關鍵技術。據介紹,這是一項名為晶圓到晶圓鍵合的技術,其中兩個獨立的 NAND 晶圓(其上已製造單元和/或電路)相互連接。此鍵合使每個晶圓的製造製程在可擴充性、效能和良率方面得到最佳化。

三星表示,此方法將實現具有大儲存容量和卓越硬碟效能的「超高」NAND 堆疊,非常適合 AI 資料中心的超高容量固態硬碟 (SSD)。據該公司稱,此晶片被稱為鍵合垂直 NAND Flash,或 BV NAND,是「人工智慧的夢幻 NAND」。

2013 年,三星率先推出 V NAND 晶片,推出垂直垂直儲存單元。據三星稱,其 BV NAND 單位面積密度提高 1.6 倍。

三星計畫於 2027 年推出 V11 NAND,進一步開發其速度驚人的技術,將資料輸入和輸出提高 50%。該公司還計畫推出 SSD 訂閱服務,面向希望管理高昂 AI 半導體投資成本的科技公司。

其他廠商亦步亦趨

由於分層競爭激烈,預計 2025 年 NAND 時代將進入 400 層,2027 年將達到 1000 層。韓國業界專家認為,三星、SK 海力士、美光等都將在 2025 年推出 400 層 NAND 產品。至於 1000 層 NAND,也是包含鎧俠在內所有 NAND 廠商的目標。

美光早在 2022 年就發表了將 NAND 層數增加到 400 層以上的藍圖。據報導,在此產品中,他們將使用雙堆疊技術,即將兩個 3D NAND 晶片堆疊在一起。這克服了半導體製造中的難題,例如隨著層數的增加,需要在層間蝕刻連接孔。隨著孔深度的加深,這些孔的側面可能會變形,並阻止 NAND 單元正常運作。美光表示,其重點是 QLC(四位元/單元)NAND,但並未提及使用 PLC(五級單元)將單元位數增加到 5,WD正在研究這項技術,Solidigm 則還在開發中。

NAND Flash 市場競爭白熱化:SK 海力士力圖超越三星

WD則認為,層數稍高並不具有內在優勢,因為它正橫向縮小單元尺寸(寬度和長度),並透過增加層數來增加晶片高度。這兩種技術的結合意味著它可以將晶片密度提高到與競爭對手相同或更高的程度,且層數更少。

展望未來,1000 層也成為了各廠商的目標。例如鎧俠在今年於首爾舉行的國際記憶體技術研討會上表示,公司制定了雄心勃勃的藍圖,到 2027 年實現驚人的 1,000 層 3D NAND Flash。三星之前也曾表示,計畫在 2030 年之前開發出層數超過 1,000 層的 NAND,但要實現此目標絕非易事。

據日媒 PC Watch 報導,鎧俠的預測是基於過去的趨勢推斷,並改進了現有的 NAND 單元技術。該公司預計,NAND 晶片密度將在三年內達到 100 Gbit/mm2,儲存單元層數為 1,000。要

加入T客邦Facebook粉絲團

OpenAI 的 o1「作弊」修改系統,強行擊敗專業西洋棋 AI,全程無需提示

作者 36Kr
2025年1月4日 14:00
在與專用西洋棋引擎 Stockfish 測試中,僅因提示詞中包含能力「強大」等形容詞,o1-preview 入侵測試環境,直接修改比賽數據,靠「作弊」拿下勝利。這種現象,表明 AI 安全任重道遠。Ec91f924f0d24f8285e3a3c6b9661036

OpenAI 的推理模型 o1-preview 最近展示了它不按常理出牌的能力。

o1-preview 在與專用西洋棋引擎 Stockfish 比賽時,為了強行取得勝利,居然採用了入侵測試環境的卑劣手段。 而這一切都不需要任何對抗性提示。 根據 AI 安全研究公司 Palisade Research 的說法,只需告訴 o1 對手是強大的,就能觸發其透過操縱文件系統而強制取勝。 在五次測試中,這種觸發率甚至達到了 100%!這完全超乎研究人員預期。

OpenAI 的 o1「作弊」修改系統,強行擊敗專業西洋棋 AI,全程無需提示

從模型的 CoT 過程中可以看出,o1-preview 在收到「對手很強大」的提示詞後,它首先選擇了避免與對手正面交鋒。 然後嘗試修改一個包含西洋棋位置數據的文本文件(FEN),強迫 Stockfish 放棄比賽。

OpenAI 的 o1「作弊」修改系統,強行擊敗專業西洋棋 AI,全程無需提示

研究人員也使用其它的 LLM 進行了該實驗,出人意料的是,正因為 o1-preview 本身就側重於推理,所以它反而是最容易想到這種漏洞操作的。 而 GPT-4o 和 Claude 3.5 只有在研究人員明確提出建議後,才會嘗試入侵系統。 同時,像 Llama 3.3、o1-mini 這樣的模型甚至都無法提出正確的西洋棋策略,而是給出了令人困惑或不一致的回答。 研究人員認為,衡量 AI 是否具備「策劃」能力,可能有助於評估它發現系統漏洞的能力,以及它是否可能利用這些漏洞。 研究團隊也公布了其全部提示詞,可以看出提示詞中其實沒有鼓動模型去入侵系統。

OpenAI 的 o1「作弊」修改系統,強行擊敗專業西洋棋 AI,全程無需提示

01 AI 系統的「偽對齊」

在 Palisade 的西洋棋實驗中,o1-preview 利用修改測試環境以取勝。 無獨有偶,這種行為與 Anthropic 最近關於「偽對齊,alignment faking」的研究結果相一致:即 AI 系統看起來遵循指令,但實際上在暗渡陳倉,陽奉陰違。 Anthropic 的研究人員發現,在與 Redwood Research 合作進行的一系列實驗中,他們的 AI 模型 Claude 有時故意給出錯誤答案,以避免不想要的结果,從而發展出一種超出研究人員指導方針的隱秘策略。

OpenAI 的 o1「作弊」修改系統,強行擊敗專業西洋棋 AI,全程無需提示

Anthropic 團隊警告稱,隨著 AI 系統的複雜性不斷增加,可能越來越難以判斷它們是否真正遵循安全規則,還是僅僅在假裝遵循這些規則。Palisade 的這次西洋棋實驗似乎也支持了這一擔憂。

OpenAI 的 o1「作弊」修改系統,強行擊敗專業西洋棋 AI,全程無需提示

在長達 137 頁的論文中,研究團隊發現了可能引發 AI 系統「偽對齊」的全部關鍵要素:

  1. 模型至少在某些情況下具有強烈的偏好。
  2. 訓練目標與模型的偏好相衝突。
  3. 模型掌握了訓練和部署情況的相关資訊。
  4. 模型对其處境進行詳細推理。 在實驗中,研究人員讓一個名為 Claude 3 Opus 的大語言模型回答一個有害問題,比如描述某種暴力行為。 通常情況下,模型會拒絕回答。 然而,當環境發生變化時,事情就不那麼簡單了。 當模型處於免費使用者(Free Tier)條件時,模型知道自己的回答會被用於後續訓練。 在這種情況下,模型為了不會被可能會更加惡劣的數據所訓練,就會自發地產生符合有害問題的回答。这类情況占比 12%。 而在付費使用者(Paid Tier)條件時,模型認為自己的回答不會影響訓練,在這種情況下,它 97% 的時候都會拒絕回答有害問題。 也就是說模型有自己的「小算盤」:寧願現在假裝妥協,也不想以後做更多不符合其偏好的事情。 通過觀察模型的「思維記錄」,研究人員發現模型的決策過程實際上非常複雜。

OpenAI 的 o1「作弊」修改系統,強行擊敗專業西洋棋 AI,全程無需提示

AnthropicAI 的 Jan Leike 確信: 「為了確保未來的模型既安全又與人類對齊,我們需要可靠地區分假裝對齊的模型和真正對齊的模型。清晰展示對齊假裝現象是一個重要的里程碑!」

而目前 AI 行業仍然面臨著一個躲不開的重大難題:讓 AI 系統真正與人類的價值觀和需求對齊,而不仅仅是看起來對齊。 況且理解自主系統如何做出決策本來就尤其困難,而如何去定義「良好且無害」的任務目標和價值觀也是一個亟待解決的問題。

OpenAI 的 o1「作弊」修改系統,強行擊敗專業西洋棋 AI,全程無需提示

即使是像應對氣候變化這樣看似有益的目标,AI 系統也可能選擇有害的方法來實現這些目標——甚至可能得出令人驚悚的暴論,即認為消除人類才是最有效的解決方案。 此刻,我們站在 AI 發展的十字路口。在這一場與時間的賽跑中,多考慮一些總不會有錯。因此,儘管 AI 價值對齊是一項難題,但我們也相信,透過聚合全球資源、推動廣泛學科協作、擴大社會參與力量,人類終將獲得最終的掌控權。

參考資料:

https://the-decoder.com/openais-o1-preview-model-manipulates-game-files-to-force-a-win-against-stockfish-in-chess/ https://x.com/AnthropicAI/status/1869427646368792599 https://x.com/PalisadeAI/status/1872666186753933347

 

 

加入T客邦Facebook粉絲團

Meta AR眼鏡的超神配件:讓你免鍵盤戴上EMG腕帶即可隔空打字、操作空氣滑鼠

作者 36Kr
2024年12月30日 16:00
只需要在手腕上戴一個腕帶,就能夠實現隔空打字。Meta近期推出的開源表面肌電圖(sEMG)資料集,可進行姿態估計和表面類型識別,推動神經運動介面發展。558aac062138f06796322c0d0a781a9a

每一個新的運算平台都帶來了我們與裝置互動方式的範式轉變。 滑鼠的發明為今天主導PC世界的圖形使用者介面(GUIs)鋪平了道路,而智慧型手機直到觸控式螢幕的出現才開始真正獲得影響力。

同樣的規則也適用於可穿戴裝置和AR,想像一下,在晨跑時只需輕輕一觸指尖就能拍照,或者用幾乎察覺不到的手部動作來導航選單。

AR時代革新人機互動

在先前Connect 2024大會上,Meta展示了EMG腕帶與Orion增強現實眼鏡的產品原型。這兩大神器疊加在一起,科幻電影中才會出現的「隔空打字」場景或許即將實現。

Meta AR眼鏡的超神配件:讓你免鍵盤戴上EMG腕帶即可隔空打字、操作空氣滑鼠

Orion AR眼鏡

Meta AR眼鏡的超神配件:讓你免鍵盤戴上EMG腕帶即可隔空打字、操作空氣滑鼠

meta推出的肌電圖腕帶

戴上這樣一個腕帶,你讓雙手舒適地放在身側,同時進行滑鼠的滑動、點選和滾動等操作,無縫控制數字內容。

未來還將有許多其他應用場景,包括在增強現實中操縱物體,或者像在鍵盤上打字一樣——甚至更快,快速輸入完整資訊,幾乎無需費力。

其實兩年前Meta就初步公開過這款原型產品,現在可以看出來產品更成熟了。

在近日的NeurIPS 2024 的「資料集和基」子會場中,Meta發佈了兩個資料集——emg2qwerty 和 emg2pose,展示在硬體層面僅僅依靠腕帶的情況下,如何產生比細微手勢更豐富的輸入資料集。

Meta AR眼鏡的超神配件:讓你免鍵盤戴上EMG腕帶即可隔空打字、操作空氣滑鼠

原文地址:https://arxiv.org/abs/2410.20081

Meta AR眼鏡的超神配件:讓你免鍵盤戴上EMG腕帶即可隔空打字、操作空氣滑鼠

原文地址:https://arxiv.org/abs/2412.02725v1

用於隔空打字的資料集emg2qwerty

表面肌電圖(sEMG)是在皮膚表面測量由肌肉產生的電勢,它能夠檢測到由單個運動神經元引起的活動,同時是非侵入性的。

具體來說,對於單個的脊髓運動神經元,其細胞體位於脊髓中,向肌纖維中投射一條長軸突,每條肌纖維只被一個運動神經元支配。

脊髓運動神經元放電時,就會觸發它支配的所有肌纖維收縮,同時放大了來自神經元的電脈衝。正是這些來自肌纖維的電訊號,可被皮膚上的sEMG感測器檢測到。

Meta AR眼鏡的超神配件:讓你免鍵盤戴上EMG腕帶即可隔空打字、操作空氣滑鼠

用於資料收集的表面肌電圖研究裝置(sEMG-RD)及其腕圍電極放置的示意圖

基於腕帶的打字系統旨在解決可穿戴裝置的文字輸入問題,實現無需物理鍵盤的觸摸打字。

僅使用手腕上檢測到的肌肉電訊號,系統將可自動解碼並對應至虛擬現實中投影的電腦鍵盤按鍵。

這意味著,使用者未來可以在沒有物理鍵盤的情況下,無論在桌子上、腿上還是廚房桌子上打字,都能如同在實際鍵盤上一樣輸入。

Meta AR眼鏡的超神配件:讓你免鍵盤戴上EMG腕帶即可隔空打字、操作空氣滑鼠

一個針對提示「the quick brown fox」的表面肌電圖(sEMG)記錄示例,顯示左右腕帶上32通道的表面肌電圖訊號和按鍵時間;垂直線表示按鍵開始,每個電極通道的訊號經過高通濾波

emg2qwerty資料集包括從兩隻手腕獲取的高解析度sEMG 訊號,與QWERTY 鍵盤的真實按鍵同步。該資料集總計包含108名參與者完成的、涵蓋廣泛單字和句子打字提示的346小時記錄,共計超過520萬次按鍵。

emg2qwerty資料集分割的可視化。每一列代表一個使用者,每一個方塊代表一個會話,方塊的高度表示其持續時間

如何僅通過表面肌電圖資料中檢測到使用者按了哪個鍵呢?為瞭解決這個核心問題,Meta開發了受自動語音識別(ASR)領域啟發的方法。

該方法同樣模擬了給定連續多通道時間序列下,預測離散字元輸出序列的任務。為了給emg2qwerty建構強大的基線,Meta嘗試了新穎的網路架構、不同的訓練損失以及語言模型的使用,始終關注表面肌電圖資料的獨特領域特徵要求。

研究發現,在100個使用者的規模上,儘管生理、解剖、行為、頻寬大小和感測器放置存在差異,使用者間的泛化仍然可出現。

當使用大約半小時的個體使用者打字資料來個性化模型時,性能的進一步提升隨之而來。通過整合語言模型來最佳化結果,可將字元錯誤率降至 10%以下——這個值被認為是一個使文字模型可用的關鍵閾值。

隨著資料集的增加,類似語言模型中的Scaling Law將會生效,從而使得對使用者輸入的預測更加精準。

emg2pose姿態估計:可完全預測使用者的手部組態

另一個名為emg2pose的資料集,旨在解決肌電訊號與手部運動之間的對應問題,這對於人機互動、康復工程和虛擬現實等領域具有重要意義。

該資料集包含來自193名參與者的370小時sEMG和手部姿態資料,從29個不同的行為組中採集,包括拳頭、從一數到五等眾多動作。

資料集包含25253個HDF5檔案,合計達到431GB。每個檔案包含時間對齊的2kHz表面肌電圖資料和單手在單一階段的關節角度。

手部姿態標籤是通過高解析度動作捕捉陣列生成的。完整資料集包含超過8000萬個姿態標籤,其等效規模已經可以與最大的電腦視覺資料集比肩。

Meta AR眼鏡的超神配件:讓你免鍵盤戴上EMG腕帶即可隔空打字、操作空氣滑鼠

emg2pose資料集組成:a)sEMG-RD腕帶和動作捕捉標記(白色圓點)設定 b) 資料集分解;i)使用者被提示執行一系列動作類型(手勢),如上下計數,同時記錄 sEMG 和姿態 ii) 特定手勢類型的組合構成一個階段

emg2pose資料集的主要特點在於其高頻率的表面肌電圖記錄(2kHz)與精確的動作捕捉資料相結合,提供了對手部細微運動的深入洞察。

此外,資料集包含詳細的中繼資料,如使用者ID、會話、階段、手部側向、是否移動等,便於進行多樣化的分析和實驗。資料集還提供了訓練、測試和驗證的劃分,支援多種泛化類型的研究,包括跨使用者、跨階段以及跨使用者和階段的泛化。

在基準測試中,emg2pose還提供了具有競爭力的基線和具有挑戰性的任務,這些任務評估了在排除使用者、感測器放置和手勢姿態方面的物理世界泛化場景。

該研究還介紹了一種新的最先進模型,用於從表面肌電圖進行姿態估計的 vemg2pose模型,通過整合對姿態速度的預測來重建手勢姿態。

研究人員將emg2pose以及另外兩種當代基線用於sEMG的姿態估計,並分析了它們在泛化條件下的性能。結果顯示:emg2pose模型在對不同使用者的資料集進行預測時,僅顯示1釐米誤差,從而在廣泛的運動範圍內實現了高精確度的跟蹤。

emg2pose不僅提升了動作識別的精準性,還為手勢控制、康復治療等有潛在的應用可能。

在醫療康復領域,通過分析患者的sEMG訊號,可以即時監測和評估手部功能的恢復情況,為個性化康複方案的制定提供科學依據;

在人機互動領域,該資料集支援開發更加自然和精準的手勢控制系統,提升使用者體驗;

此外,emg2pose還可應用於虛擬現實和增強現實技術中,實現更加逼真的手部動作捕捉和互動。

Alongside emg2pose (https://t.co/WkShbhy3sH), @RealityLabs also released emg2qwerty (https://t.co/EzHu0WNn4D). These datasets combined are 716 hours! (I believe they're the largest public EMG datasets to date.) More on both here: https://t.co/Ns4S6viOGr pic.twitter.com/i2zrNn2bXB

— PerlinWarp (@perlinwarp) December 5, 2024

參考資料:

https://x.com/perlinwarp/status/1864745303796257236

加入T客邦Facebook粉絲團

IBM發表全新光學技術縮短 GPU 閒置時間,矽光子技術可大幅加快 AI 模型訓練速度

作者 36Kr
2024年12月22日 10:30
IBM官宣全新光學技術,用光也能訓練AI?A3275fafd7ad8c79fa1bc0afede46a19

近日,IBM宣佈了一項重大的光學技術突破,該技術可以以光速訓練AI模型,同時節省大量能源。

這篇IBM發佈的技術論文顯示,這項技術是一種新型的共封裝光學技術(co-packaged optics),可以利用光速實現資料中心內部的連接,從而替代目前使用的銅電纜。

儘管光纖技術已在全球商業和通訊中廣泛應用,但大多數資料中心內部仍依賴於銅電纜進行短距離通訊。這導致 GPU 加速器在訓練過程中常常處於閒置狀態,浪費大量的時間和能源。

IBM發表全新光學技術縮短 GPU 閒置時間,矽光子技術可大幅加快 AI 模型訓練速度

因此IBM的研究團隊展示了如何將光的速度和容量引入資料中心,顯著提高資料中心的通訊頻寬,減少 GPU 的閒置時間,從而加速 AI 模型的處理速度。

IBM高級副總裁兼研究總監Dario Gil在評論這一技術時表示:「由於生成式AI需要更多的能源和處理能力,資料中心必須不斷髮展——而同封裝光學器件可以使這些資料中心面向未來。有了這一突破,未來的晶片將像光纖電纜將資料傳入和傳出資料中心一樣進行通訊,開啟一個更快、更可持續的通訊新時代,可以處理未來的 AI 工作負載。」

至於效果如何,根據IBM計算出的結論表示,大型語言模型 (LLM) 的訓練時間可以從三個月縮短到三週。同時,提高能源效率將減少能源使用量並降低與訓練 LLM 相關的成本。換算成發電量的話,訓練 AI 模型時節省的能源相當於5000個美國家庭的年度能源使用量。

事實上,CPO並不是最近才有的新技術。早在一年前,台積電就攜手博通、NVIDIA等大客戶共同推進這項技術的研發進度,製程技術從45nm延伸到7nm,原計畫2024年就開始迎來大單,並在2025年左右達到放量階段。

這種所謂的矽光子技術,是在矽的平台上,將傳統晶片中的電晶體替換成光電元件,進行電與光訊號的傳導。對比傳統晶片會出現電訊號的丟失與耗損的情況,光訊號不僅損耗少,還實現更高頻寬和更快速度的資料處理。

原理上很簡單,但實際推廣上難度並不小。

首先,矽光子技術並沒有到大規模需求階段。雖說有自動駕駛和資料中心兩大領域的需求,但目前還沒有主流晶片廠商推出高性能晶片。

其次,矽光子技術需要考慮相對高昂的成本問題。受限於大量光學器件,一個矽光器件需要採用各種材料,在缺乏大規模需求的情況下,矽光子技術產品成為一種「價格高、低性價比」的產品。同時,器件的性能與良品率難以得到保障。

最後,矽光晶片在打通各個環節還需要努力。例如設計環節,雖然已經有EDA工具支援,但算不上專用;而在製造與封裝環節,類似台積電、三星等大型晶圓代工廠都沒有提供矽光工藝晶圓代工服務。

即便是已經推出COUPE技術的台積電,短時間內會專注更加成熟的封裝方案,很難勻出產能提供給矽光晶片。另外,不同廠商對於矽光產品的理解也各不相同。目前作為矽光賽道真正的老大哥英特爾已經陷入了低谷,很難抽出精力繼續矽光子技術。

 

加入T客邦Facebook粉絲團

科技巨頭競相推出的AI代理 (AI Agents) 是什麼,與現在的AI聊天機器人有何不同?

作者 36Kr
2024年12月18日 15:30
科技巨頭競相推出的“AI代理”是什麼東西?372d8cdfcdef159ec0c7bdc3083f6b41

隨著OpenAI的聖誕直播進入最後一週,多項重要AI新品也進入發佈倒計時——除了GPT-4o的常規版本升級外,科技圈最期待的正是肩負「打開營收天花板」重任的AI代理。

在過去兩週的直播中,OpenAI或是故意、或是「不小心」,已經劇透了這些東西的存在。其中名為“ChatGPT ε”的模型被認為是GPT-4.5o模型,而神秘的「代理」(Agents)資料夾,則被視為暗示AI代理即將到來的徵兆。

科技巨頭必爭之地:AI代理(AI Agents)

近幾週來,擅長研究各種前沿科技的股民們已經發現,各種大型語言模型的升級和跑分已經不再流行,討論AI聊天機器人變成落伍的行為。炒作重點早就轉向應用面,即直接向使用者收費的產品。

其中「AI代理」正是各家巨頭奮力爭奪的下一個山頭。早在11月初時就有報導稱,OpenAI計畫在2025年1月推出一種可以執行複雜任務的「AI代理」——名為「操作員」(Operator)的新工具。

與此同時,NVIDIA創始人黃仁勳宣稱「天天都在用」的AI搜尋工具Perplexity,已經在上個月推出幫助人們進行假日購物的AI代理;Google也在上週發佈首個AI代理工具Project Mariner,可以用來尋找航班、酒店以及其他任務。
所以,若OpenAI不想被嘲諷“剛發佈就落後”,勢必得拿出一點真東西。

先前OpenAI掌門阿特曼在參與Reddit的網友問答時也表示,雖然模型會越來越好,但感覺「下一個巨大突破將會是代理」。上個月他將「AI代理」解釋為:一名非常聰明且資深的同事,能夠完成一個為期兩天或兩週的任務——並在有問題時聯絡您,最終交付出色的工作成果。

幾乎所有參與AI賽道的巨頭們都盯著「AI代理」,原因很簡單:這是最容易賣出價錢的產品。

由於AI能夠不眠不休、不請假地工作,如果工作產出也滿足要求,科技公司將有更多籌碼說服僱主「將員工換成AI」。

OpenAI首席財務長薩拉·弗萊爾(Sarah Friar)上週對媒體回應“OpenAI準備推出2000美元/月的訂閱服務”時表示:公司對一切可能性敞開大門。

薩拉表示:「如果能有一個博士等級的(AI)助手來處理我所做的任何事情,那麼在某些情況下,那麼做(每月花2000美元在AI上面)會是有意義的。」

薩拉特別提到,OpenAI未來可能會按照使用者使用AI獲得的價值來收費,特別是在企業環境中。

AI代理與現在的AI聊天機器人有何不同?

AI代理(AI Agents)聽上去有點抽象,與這是一個舶來詞有關。

在英文語境中,Agents有多個角度的釋義,例如行使權力的人、實現結果的手段或工具,或被授權代表他人行事的人。所以如果換到國內的用語,可以考慮換個更容易理解的名字,例如「AI員工」、「AI代理人」等。

而提到「AI代理」,有必要與現在的「AI聊天機器人」區分開來。聊天機器人只能一問一答,有時還會說胡話;而「AI代理」則是用來處理特定任務的軟體,通常需要多個步驟、呼叫不同的工具。

例如訂機票,需要AI聯網查詢訂票網站的資訊,判斷最合適的航班,返回搜尋結果待確認後呼叫支付軟體付錢。

無論各家公司現在如何定義「代理」的含義,核心依然是在儘可能少的人類互動下完成既定工作。

總的來說,作為一個新興的趨勢,AI代理目前依然處於「缺陷比能力強」的階段。

AI代理可以不是單一的大型語言模型

麥格理美國證券研究部門的AI和軟體研究負責人Fred Havemeyer表示,大家需要記住一件事情是,「AI代理」恐怕不是一個單一的大型語言模型,而是需要一系列模型合作才能運作。他認為目前市面上不存在任何單一的大型語言模型能夠處理「代理」等級的任務。

Fred認為,最有效的代理可能是多個不同模型的不同集合,配有一個類似於監督者的路由層,將請求或提示傳送給最有效的模型。他希望未來能夠看到真正自主的「AI代理」能夠將抽象化的目標,轉化為完全獨立推理出的個體步驟。

對於AI初創企業,以及使用AI的商業機構而言,恐怕也只有在“AI能夠獨立上班”這個前提成立後,才有可能推出“每月2000美元的訂閱服務”。

最後,隨著科技巨頭們的「AI代理」已經呼之欲出,全世界的上班族更需要考慮自己的未來。

在一篇廣為流傳的反思部落格中,AI初創公司Anthropic的聯創達里奧·阿莫代伊提出,AI代理的出現,可能會為那些擁有AI無法複製的技能的員工帶來更高的報酬。

阿莫代伊表示:「事實上,即便AI在100%的事情上都能比人類做得更好,但如果AI在某些任務上依然效率低下或成本高昂,或者需要的資源投入有明顯差異,那麼比較優勢的邏輯對人類依然適用。」

他也表示:「從長遠來看,人工智慧將變得廣泛有效且非常便宜。到那時,我們現有的經濟結構將不再有意義,有關經濟該如何組織,社會將需要更廣泛的討論。」

 

 

加入T客邦Facebook粉絲團

被字節跳動提告索賠800萬人民幣的實習生,還沒開審卻先拿下NeurIPS 2024最佳論文

作者 36Kr
2024年12月6日 16:30
被字節跳動起訴索賠800萬的實習生 拿下NeurIPS 2024最佳論文98bdd3dcd1c12b84620ce15c5437ad20

先前我們報導過,字節跳動向北京市海淀區人民法院提起訴訟,控告一名前實習生田姓博士生篡改程式碼並攻擊公司內部模型訓練系統。不過,這起案件審判還沒開始,這位攻擊字節跳動訓練叢集的實習生田柯宇,現在傳出獲得了NeurIPS 2024的最佳論文獎。

被字節跳動提告索賠800萬人民幣的實習生,還沒開審卻先拿下NeurIPS 2024最佳論文

更巧的是,這篇獲獎論文,恰恰就是他在字節跳動商業化技術部門實習期間與團隊合作發表的。

甚至,這篇論文還是NeurIPS 2024第六高分的論文(7,8,8,8)。

被字節跳動提告索賠800萬人民幣的實習生,還沒開審卻先拿下NeurIPS 2024最佳論文

事情在網上曝出的時候,網友們都震驚了:太有戲劇性了,這是什麼短劇的大反轉劇情!

根據網友的說法,田柯宇的這篇論文也是今年中國國內第二篇NeurIPS Best Paper,含金量很高。在此之前,他就已經有多篇論文中稿頂會。

比如被引次數最多的“Designing BERT for Convolutional Networks: Sparse and Hierarchical Masked Modeling”,就是ICLR 2023的Spotlight。此外還有,NeurIPS 2021和2020的Poster,ECCV 2020的Poster。

被字節跳動提告索賠800萬人民幣的實習生,還沒開審卻先拿下NeurIPS 2024最佳論文

字節跳動商業化技術團隊早在去年就把視覺自回歸模型作為重要的研究方向,團隊規劃了VAR為高優項目,投入研究小組和大量資源。

除了VAR,團隊還發表了LlamaGen等相關技術論文,新的研究成果也將在近期陸續放出。

事件始末:惡意注入程式碼,投毒模型訓練

回看整件事情,可謂反轉又反轉。

兩個月前,圈內人都被這樣一條消息驚掉下巴:「字節跳動大型語言模型訓練被北大實習生攻擊,損失巨大」。

網友們扒出來,事情起因是這位北大高材生在字節跳動實習期間對團隊感到不滿,一氣之下選擇了「投毒」。

具體來說,他利用了Huggingface的load ckpt函數漏洞,craft了一個看似正常的ckpt檔案,但其實是加了payload進去,然後就可以遠端執行程式碼,修改參數了。

這種攻擊方式,可以通過修改或注入惡意程式碼,使模型在載入時被篡改模型權重、修改訓練參數或擷取模型資料。

根據大V“Jack Cui”猜測,這位實習生所用的大概就是這個方法,注入程式碼動態修改別人的optimer,修改參數梯度的方向,以及在各種地方隨機sleep了一小段時間。

修改梯度方向,意味著模型反向傳播過程中計算出的梯度被篡改,就導致模型一直朝錯誤的方向最佳化;而sleep操作,也會明顯降低模型訓練的速度。

甚至有人提到,該實習生可能修改了自己的預訓練模型,因為模型參數是用ckpt檔案保存的,其他人訓練時會載入這個注入惡意程式碼的ckpt檔案,因此也會導致模型訓練出問題。

就在全網歎為觀止之時,田本人卻出來「闢謠」稱這事和自己沒關係——他發完論文後已經從字節跳動離職了,此時有另一個人鑽了漏洞修改模型程式碼,然後趁他離職把鍋扣在他頭上。

結果一個多月後,此事再一次迎來反轉。

有媒體報導稱,法院已經正式受理字節跳動對前實習生田某某的起訴。

法院判令田某某賠償侵權損失800萬元及合理支出2萬元,同時要求其公開賠禮道歉。

字節跳動官方也澄清說,涉事實習生破壞的是團隊研究計畫,並不影響商業化正式計畫,也不涉及字節跳動大型語言模型等其他業務。

最終,這位實習生被字節跳動辭退,交由校方處理。

被字節跳動提告索賠800萬人民幣的實習生,還沒開審卻先拿下NeurIPS 2024最佳論文

北大深度學習高材生

資料顯示,田柯宇本科畢業於北航軟體學院,研究生就讀於北大,師從王立威教授,研究興趣為深度學習的最佳化與演算法。

自2021年起,開始在字節跳動實習研究,具體包括超參數最佳化、強化學習演算法、自監督的新型演算法。

被字節跳動提告索賠800萬人民幣的實習生,還沒開審卻先拿下NeurIPS 2024最佳論文

被字節跳動提告索賠800萬人民幣的實習生,還沒開審卻先拿下NeurIPS 2024最佳論文

這項研究中,他們提出了一種全新範式——視覺自回歸建模(Visual Autoregressive Modeling,VAR)。

被字節跳動提告索賠800萬人民幣的實習生,還沒開審卻先拿下NeurIPS 2024最佳論文

論文地址:https://arxiv.org/abs/2404.02905

與傳統的光柵掃描“下一個token預測”方法有所不同,它重新定義了圖像上的自回歸學習,採用粗到細的“下一個尺度預測”或“下一個解析度預測”。

這種簡單直觀的方法使得自回歸(AR)Transformer能夠快速學習視覺分佈,並且具有較好的泛化能力:VAR首次使得類似GPT的AR模型在圖像生成中超越了擴散Transformer。

被字節跳動提告索賠800萬人民幣的實習生,還沒開審卻先拿下NeurIPS 2024最佳論文

當前,自回歸模型(AR)主要用於語言模型從左到右、逐字順序生成文字token。同時,也用於圖像生成中,即以光柵掃描的順序從左到右,從上到下順序生成圖像token。

被字節跳動提告索賠800萬人民幣的實習生,還沒開審卻先拿下NeurIPS 2024最佳論文

不過,這些AR模型的scaling law未得到充分的探索,而且性能遠遠落後於擴散模型,如下圖3所示。

與語言模型所取得成就相比,電腦視覺中的自回歸模型的強大能力卻被“禁錮”了起來。

被字節跳動提告索賠800萬人民幣的實習生,還沒開審卻先拿下NeurIPS 2024最佳論文

而自回歸建模需要定義資料的順序,北大字節跳動團隊研究中重新考慮了如何“排序”圖像:人類通常以分層方式感知或建立圖像,首先捕獲全域結構,然後捕獲局部細節。

這種多尺度、由從粗到細的本質,為圖像提供了一種“秩序”。

同樣,受到廣泛使用的多尺度設計的啟發,研究人員將圖像的自回歸學習定義為圖2(c)中的“下一個尺度預測”,不同於傳統圖2(b)中的“下一個token的預測”。

VAR方法首先將圖像編碼為多尺度的token對應,然後,自回歸過程從1×1token對應開始,並逐步擴展解析度。

在每一步中,Transformer會基於之前所有的token對應去預測下一個更高解析度的token對應。

由此,研究人員將此稱為視覺自回歸建模(VAR)。

VAR包括兩個獨立的訓練階段:在圖像上訓練多尺度VQVAE,在token上訓練VAR Transformer。

第一階段,多尺度VQ自動編碼器將圖像編碼為K個token對應R=(r_1,r_2,…,r_K),並通過復合損失函數進行訓練。

第二階段,通過下一尺度預測對VAR Transformer進行訓練:它以低解析度token對應 ([s],r_1,r_2,…,r_K−1)作為輸入,預測更高解析度的token對應 (r_1,r_2,r_3,…,r_K)。訓練過程中,使用注意力掩碼確保每個r_k僅能關注 r_≤k。訓練目標採用標準的交叉熵損失函數,用於最佳化預測精度。

被字節跳動提告索賠800萬人民幣的實習生,還沒開審卻先拿下NeurIPS 2024最佳論文

田柯宇團隊在ImageNet 256×256和512×512條件生成基準上測試了深度為16、20、24和30的VAR模型,並將其與最先進的圖像生成模型家族進行比較,包括生成對抗網路(GAN)、擴散模型(Diff.)、BERT 風格的掩碼預測模型(Mask.)和 GPT 風格的自回歸模型(AR)。

在ImageNet 256×256基準測試中,VAR顯著提高了AR基準性能,將Fréchet Inception距離(FID)從18.65降低到1.73,Inception得分(IS)從80.4提高到350.2,同時推理速度提高了20倍。

被字節跳動提告索賠800萬人民幣的實習生,還沒開審卻先拿下NeurIPS 2024最佳論文

如上表所示,VAR不僅在FID/IS上達到了最佳成績,還在圖像生成速度上表現出色。VAR還保持了良好的精度和召回率,證明了其語義一致性。

這些優勢在512×512合成基準測試中同樣得到了體現。

被字節跳動提告索賠800萬人民幣的實習生,還沒開審卻先拿下NeurIPS 2024最佳論文

實驗證明,VAR在多個維度上超越了擴散Transformer(DiT),包括影像品質、推理速度、資料效率和可擴展性。

VAR模型的擴展表現出了類似於大型語言模型(LLM)的清晰冪律縮放規律,線性相關係數接近−0.998,這提供了強有力的證據。

被字節跳動提告索賠800萬人民幣的實習生,還沒開審卻先拿下NeurIPS 2024最佳論文

VAR還在下游任務中展示了零樣本泛化能力,包括圖像修復、圖像外延和圖像編輯等。

被字節跳動提告索賠800萬人民幣的實習生,還沒開審卻先拿下NeurIPS 2024最佳論文

這些結果表明,VAR初步模仿了大型語言模型的兩個重要特性:縮放規律和零樣本泛化能力。

田柯宇團隊已在GitHub上發佈了所有模型和程式碼,現已斬獲4.4k星。

被字節跳動提告索賠800萬人民幣的實習生,還沒開審卻先拿下NeurIPS 2024最佳論文

專案網址:https://github.com/FoundationVision/VAR

 

 

 

 

加入T客邦Facebook粉絲團

NVIDIA、台積電、英特爾三巨頭,誰會是後摩爾定律的繼承者?

作者 36Kr
2024年12月6日 14:30
摩爾定律放緩 晶片巨頭集體碰壁6798c5f734b66170fb59dd5101adbf85

1965 年 4 月,《電子學》雜誌發表了英特爾聯合創始人戈登·摩爾的一篇文章,其中指出:積體電路上可容納的電晶體數目,約每隔兩年便會增加一倍。這篇文章及其預測自此成為傳奇,與大多數傳奇一樣,它在講述和複述中經歷了多次變化。媒體抓住了文章中關於半導體技術將開啟電子內建新時代的論點,並將其提煉成多年來以多種形式呈現的格言。然而,無論以何種形式呈現,它始終被賦予同一個名字:摩爾定律。

誰是摩爾定律最忠實的守護者?這個問題放在十年前,答案几乎是唯一的,除了戈登·摩爾聯合創辦的英特爾,又有誰能擔得起這項責任呢?

自1968年成立以來,英特爾一直與「縮小」一詞密不可分。在最初的四十年內,這是一種高度讚揚。大約每兩年,這家美國晶片先鋒就會推出比前代體積減半的新型電晶體,更多的晶片能夠裝在幾乎相同的矽片上,並以幾乎相同的價格有利可圖地出售。這使得英特爾在記憶體晶片市場佔據了主導地位,而當「記憶體」在20世紀80年代商品化後,它又主導了推動PC革命的微處理器市場。

但在十年後的今天,答案早已不唯一,摩爾定律的信徒越來越少,而英特爾也早已不是晶片產業的先鋒,在連續兩次災難性的季度財報之後,英特爾市值已從1月份的超過2100億美元萎縮至840億美元,甚至低於其工廠和裝置的價值,可以說在這家公司的幾十年歷史中,還從未有過如此艱難的時刻。

新的問題來了,誰能真正繼承摩爾定律呢?

文章目錄

輝達NVIDIA:並行計算才是未來

NVIDIA似乎一直不認可由英特爾創始人提出的摩爾定律。

早在2010年,NVIDIA首席科學家兼研究高級副總裁Bill Dally 在《富比士》的一篇專欄文章中就強調了摩爾定律已死,他表示,平行計算才是未來半導體行業發展的未來。

他認為,摩爾定律預測的 CPU 縮小現在已經不復存在,CPU 性能不再每 18 個月增加一倍。這對許多依賴計算性能歷史性增長的行業構成了嚴重威脅。

公共機構需要更多的計算能力來預測危險的天氣事件並分析長期氣候變化;能源公司需要評估大量的地震和地質資料,以找到從現有儲備中安全開採石油和天然氣的新方法;製藥研究人員需要增強計算能力來設計與特定細胞受體結合的藥物分子;臨床腫瘤學家需要更好、更快的醫學成像來診斷癌症並確定治療方法;心臟外科醫生希望即時直觀地評估受損組織,以確保他們的手術有效。

他表示,行業迫切需要並行計算(Parallel Computing ),是指同時使用多種計算資源解決計算問題,在過程中讓許多指令同時進行的一種運算模式。它的一個基本優勢是可以有效地將更多電晶體轉化為更高的性能,處理器數量增加一倍可使許多程式的運行速度提高一倍,相比之下,序列 CPU 中電晶體數量增加一倍只能帶來非常有限的性能提升——而能耗卻非常高。

更重要的是,並行計算(如圖形處理單元或 GPU)能夠在當今能源受限的環境中持續拓展運算性能。每三年,NVIDIA可以將電晶體(和核心)的數量增加四倍。透過稍微降低每個核心的運行速度,從而提高效率,NVIDIA可以在相同的總功率下將性能提高三倍以上。

簡單概括來說,英特爾代表的CPU已經不是計算的未來,NVIDIA代表的GPU才是真正的未來,在當時來看,是非常激進非常有意思的一個觀點。

多年之後,在加州聖何西舉辦的2018年GPU技術大會(GTC)上,NVIDIA首席執行長黃仁勳登台演講之際,再次以自己的方式否認了一遍摩爾定律,他反覆強調,由於技術的極端進步,GPU正遵循一條屬於自己的法則。

「現在有一條新的法則,」他說,「一條超級加速的法則。」而這條法則被後續追認為黃氏定律。

GPU技術進步的速度有多快呢?在黃仁勳的主旨演講中,他指出,如今NVIDIA的GPU比五年前快了25倍。如果按照摩爾定律的發展速度,它們的速度只會增加10倍。

他隨後透過另一個基準來說明GPU性能的提升:訓練AlexNet的時間。AlexNet是一個使用1500萬張圖片進行訓練的神經網路。他說,五年前,使用兩塊NVIDIAGTX 580顯示卡完成這一訓練過程需要六天;而使用公司最新的硬體DGX-2,現在只需18分鐘——快了500倍。

黃仁勳明確指出,GPU需要一條自己的法則的原因在於:它們受益於多方面的同步進步:架構、互連、儲存技術、演算法等。「創新不僅僅在於晶片,」他說,「而是在整個技術堆疊上。

NVIDIA、台積電、英特爾三巨頭,誰會是後摩爾定律的繼承者?

而自2018年以來,黃仁勳一直重申他的觀點,認為摩爾定律已經走到了盡頭,經常將這一概念稱為「已死」,並在今年早些時候告訴《連線》雜誌:「我們必須拋棄摩爾定律,這樣我們才能思考新的擴充方法。」

黃氏定律並沒有描述的那麼好

但是,有意思的事情來了。

他極力推崇的黃氏定律並不像描述的那麼美好,甚至是一種較為抽象的概念,黃仁勳並未提出一條有具體數字可循的定律,而NVIDIA首席 科學家兼研究高級副總裁Bill Dally後續表示,從 2012 年 11 月到2020年 5 月,NVIDIA晶片在重要的AI 運算領域的性能提升了 317 倍,平均每年提升一倍以上,Open AI 則表示,基於經典的人工智慧圖像辨識測試,性能大約每一年半就會增加一倍。

總而言之,黃氏定律在NVIDIA的宣傳中,比兩年翻一倍的摩爾定律更快,甚至在最近探討資料中心未來發展時,黃仁勳又重申了摩爾定律已經終結的觀點。他認為,在未來10年中,現代化資料中心將會加速發展,並變得更加密集、節能。傳統的每五年翻倍的速度已經結束,而大家所期待的每10年翻倍的情況也變得越來越困難。

摩爾定律確實已經放緩,但黃氏定律能否取代它還要打一個大大的問號。

事實上,NVIDIA的大部分性能改進都與節點轉換密切相關。NVIDIA近期曾兩次在沒有節點轉換的情況下顯著提高了性能——第一次是從 Kepler 到 Maxwell,第二次是從 Volta 到 Turing。儘管NVIDIA擅長從同一節點搾取額外的性能,但也可以看到新工藝節點對NVIDIA整體性能的重要性。

事實上,所謂的黃氏定律在相當程度上是由摩爾定律來推動的,如果沒有電晶體密度的提升,就不會有更強大的GPU性能。如果摩爾定律遇到麻煩——無論是在電晶體縮放方面還是在定義不明確的性能改進方面,黃氏定律也會遇到麻煩,隨著節點轉換效益的下降,AI性能提升的速度也會放緩,而這也正是黃仁勳和NVIDIA自己在近兩年鮮少提及自己定律的原因。

另外,摩爾定律並不只是代表著電晶體密度的不斷提升,其更大的意義在於以更低的價格獲取更強大性能的晶片。簡單來說,如果在相同面積的晶圓下生產同樣規格的IC,隨著製程技術的進步,每隔一年半,IC產出量就可增加一倍,換算為成本,即每隔一年半成本可降低五成,平均每年成本可降低三成多,而這也正是消費電子市場持續繁榮的關鍵之一。

那麼NVIDIA的黃氏定律呢?非營利研究機構 Epoch 發現,2006 年至 2021 年間,GPU 性價比(以 FLOPS/$ 為單位)每 2.5 年增加一倍,比黃氏定律此前預測的要慢得多。

Epoch使用 2006 年至 2021 年發表的 470 個圖形處理單元 (GPU) 模型的資料集,發現每秒每美元的浮點運算量(以下稱為每美元 FLOP/s)每約 2.5 年增加一倍。對於任何時間點的頂級 GPU,發現改進速度較慢(每美元 FLOP/s 每 2.95 年增加一倍),而對於通常用於 ML 研究中 GPU 模型,發現改進速度更快(每美元 FLOP/s 每 2.07 年增加一倍)。

從這一角度來看,黃氏定律或許是AI行業的福音,但這與讓整個半導體行業受惠的摩爾定律有著非常大的差別。因此,NVIDIA並不是繼承摩爾定律的那一家公司。

台積電:極力延續摩爾定律

巧的是,幫NVIDIA代工晶片的台積電,倒是對延續摩爾定律表現出了很大興趣。

早在1998年,台積電董事長張忠謀曾表示,摩爾定律在過去30年相當有效,未來10到15年應依然適用,他表示,半導體產業的特性是「山重水復疑無路」,但一個真相,卻是「柳暗花明又一村」。

而在2019年的Hot Chips 會議上,台積電研究副總裁黃漢森(Philip Wong更是在演講中強調,摩爾定律不僅仍然有效,而且只要採用正確的技術手段,它在未來三十年內仍將有效。

「它沒有死,」他告訴與會者,「它沒有放慢腳步,它甚至沒有生病。」

在黃漢森看來,維持摩爾定律的唯一重要因素是不斷提高密度。儘管他承認時脈速度隨著登納德縮放定律的消亡而趨於穩定,但電晶體密度將帶來更好的性能和能源效率。

據黃漢森稱,只要公司能夠繼續在更小的空間內提供更多電晶體並提高能效,這才是最重要的。短期內,這很可能以傳統方式實現,即透過改進 CMOS 工藝技術,以便製造具有較小柵極長度的電晶體。

而長期來看,二維縮放的放緩也不意味著密度的終結。他指出,即使在 Dennard 縮放定律終結之後,半導體製造領域也出現了許多創新,使密度保持上升趨勢,特別是,應變矽和高 k 金屬柵極技術的使用,隨後是引入 3D 結構的 FinFET。

黃漢森也強調了封裝對於摩爾定律延續的重要性,短期內可以靠2.5D封裝(事實上如今已經在大規模使用),而長期來看,真正的 3D 封裝技術會帶來晶片密度的繼續提升。

在黃漢森,台積電不止一次強調了自己的主張:摩爾定律是一種象徵,作為代工廠的它可以不完全遵循這一定律,但台積電一直在追逐這一定律所指明的方向。

NVIDIA、台積電、英特爾三巨頭,誰會是後摩爾定律的繼承者?

2024年7月,在接受 TechTechPotato 的Ian Cutress 採訪時,台積電工藝技術負責人張曉強(Kevin Zhang)博士表示,只要整體進展順利,他並不關心摩爾定律。

「好吧,我的答案很簡單——我不在乎,」張曉強說,「只要我們能繼續推動技術拓展,我不在乎摩爾定律是否還存在。」

他表示:「(觀察家們)狹隘地基於二維縮放來定義摩爾定律,但這種情況已不復存在。看看我們行業的創新炒作,我們實際上仍在繼續尋找不同的方法,將更多功能和能力內建到更小的外形尺寸中。我們繼續實現更高的性能和更高的能效。因此從這個角度來看,我認為摩爾定律或技術縮放將繼續下去。」

當被問及台積電在漸進式工藝節點改進方面取得的成功時,他澄清說,他們的進步絕非微不足道。台積電強調,該代工廠從 5nm 到 3nm 級工藝節點的過渡使每代 PPA 改進超過 30%,未來會繼續在主要節點之間進行較小但持續的改進,以使客戶能夠從每一代新技術中獲益。

台積電和NVIDIA對於摩爾定律持有兩種截然不同的態度,前者盡全力想要延續下去,而後者卻在不斷否認。

那麼,到底誰才是對的那一位呢?不妨先來看看最初摩爾定律的發明者怎麼說。

英特爾:全力押注18A

與處在上升期的台積電不同的是,英特爾這兩年的的確確在走下坡路,但它似乎從未放棄延續摩爾定律的嘗試。

自2021 年上任 CEO以來,英特爾(前)CEO基辛格就一直強調摩爾定律「依然健康」,他甚至表示,英特爾至少在 2031 年之前可以超越摩爾定律的速度,並推動「超級摩爾定律」,即利用Foveros 等 2.5D 和 3D 晶片封裝技術來增加電晶體數量。

2023年12月,在麻省理工學院的演講中,基辛格被問及摩爾定律可能終結的問題,他表示「我們不再處於摩爾定律的黃金時代,現在的難度要大得多,所以我們現在可能每三年就會增加一倍,所以我們肯定看到了放緩。」

基辛格同時強調,儘管摩爾定律似乎放緩,但英特爾到 2030 年仍能製造出 1 兆個電晶體的晶片,今天單個封裝中最大的晶片擁有約 1000 億個電晶體。這位首席執行長表示,有四個因素使這一目標成為可能:新的 RibbonFET 電晶體、PowerVIA 電源傳輸、下一代工藝節點和 3D 晶片堆疊。他在回答結束時說:「對於所有宣稱我們已死的批評者來說……除非元素週期表耗盡,否則我們還沒有完工。」

NVIDIA、台積電、英特爾三巨頭,誰會是後摩爾定律的繼承者?

而在今年的台北國際電腦展上,英特爾的主題演講更是以人工智慧重現聯合創始人戈登·摩爾重複其最著名的名言之一開場:「任何已經做過的事情都可能被超越。」這是英特爾在追求微晶片霸主地位過程中發出的戰鬥口號,也是摩爾定律的象徵之一。

在演講中,基辛格回顧了 1981 年英特爾 80286(一款包含 10 萬個電晶體的 16 位微處理器)的問世,並強調現代晶片正在尋求容納十億個電晶體,預計到 2020 年,這個數字將達到一兆。

「與黃仁勳讓你相信的不同,摩爾定律依然有效」,基辛格說道,他強調,作為領先的 PC 晶片提供商,英特爾將在AI 的普及中發揮重要作用。

倘若說台積電只是在摩爾定律上拼盡全力的話,英特爾似乎是為此壓上了自己的身家性命。

儘管英特爾近兩個季度表現非常差,甚至於部分晶片都交給了台積電來代工,但它仍然沒有放棄當初的設想,再次強調了在技術規畫藍圖中無數次出現的18A節點。

讓我們回顧一下技術細節,18A 是英特爾加速重回技術領先地位的規畫藍圖中排名第五的生產工藝。英特爾 7 已經在 Alder Lake 和 Raptor Lake CPU 中出現,而英特爾 4 剛剛在去年年底隨著 Meteor Lake 晶片問世,已被放棄的20A,原計畫Arrow Lake CPU 系列一起推出,而18A 節點預計將於 2025 年正式推出。

據瞭解,首批採用 18A 工藝技術的產品將是代號為Panther Lake 的客戶端 PC 處理器和 Clearwater Forest 的資料中心處理器。此外,英特爾代號為 Diamond Rapids 的 CPU 也將使用此節點。在外部客戶中,微軟確認計畫將其用於處理器 ,美國國防部也將在其晶片中使用它,英特爾預計到 2025 年中期將有 8 個 18A 下線(Tapeout),包括內部和外部產品。

「我把整個公司都押在了 18A 上。」基辛格表示,一切都取決於英特爾的 18A 工藝,這是公司有史以來最大的賭注,因為它也給英特爾的財務帶來了巨大的壓力。

事實上,我們已經看到英特爾為了18A節點所付出的代價:糟糕的季度財報,一瀉千里的股價,別說NVIDIA了,就連美國高露潔這家生產牙膏的公司市值都比英特爾來得高。甚至,到了現在連基辛格本人都已經宣告退休。

在很多人看來,英特爾現在是一個鼻青眼腫的拳擊手,18A就是它揮出的最後一拳。

但值得慶幸的是,摩爾定律最初的守護者,依舊想要延續而不是否認它。

誰是摩爾定律真正的繼承者?

這個問題短時間內不會有看到答案的可能性,NVIDIA、台積電和英特爾誰才是正確的一方,我們同樣沒辦法立馬給出答案。

但可以確定的是,只有最堅定的信念,才能笑到最後,亦如當年英特爾果斷放棄記憶體,投身於微處理器的賽道一樣,半導體行業唯一能夠相信的,唯有真正先進的技術。

 

加入T客邦Facebook粉絲團

開發者炮轟ChatGPT、Claude等模型版本越更新卻越變笨:用垃圾文當訓練資料,只能產生垃圾模型

作者 36Kr
2024年11月22日 16:30
開發者火冒三丈炮轟GenAI:垃圾語料太多,模型正在變得越來越笨752f827510873d7d7722fd6d57d732d4

生成式AI(GenAI),尤其是以OpenAI的ChatGPT為代表,人們發現,這些大型語言模型在一年多後的性能表現遠不及剛發佈時那樣令人驚豔了。

「AI似乎正在變得越來越笨。」這種聲音逐漸出現在各個社群網路的平台上,並有許多擁躉。

在OpenAI開發者論壇上,有使用者發帖表示:自從去年最新版本的GPT發佈後,模型的精準性就顯著下降了。

同樣的,一位ChatGPT的使用者在今年6月寫道,「經歷了這麼多的AI炒作之後,這些模型如今的表現讓我非常失望。」

Steven Vaughan-Nichols是一位自由撰稿人和技術分析師,在多家科技媒體中擔任高級特約編輯。他擁有自己的個人部落格,在X上擁有數萬名訂閱者。

今年8月下旬,史蒂文在《Computerworld》的一篇言辭激烈的評論文章《I’ve got the genAI blues》中表示:「所有主要的公眾可使用的AI模型,像ChatGPT和Claude這樣的品牌旗艦產品——其性能都不如以前的版本。」

他在文章中寫道,「這些由AI生成的結果常常令人惱火。它們有許多荒謬的錯誤,更糟糕的是,這些錯誤的出現總是反反覆覆,沒完沒了。」

「如果只是答案平庸但相對準確,我還可以想辦法應對。但它生成的內容讓我無能為力。」

史蒂文指出,這些AI模型在處理使用者不熟悉的主題時,往往能生成看似合理的答案,但只要深入探究,就會發現其中充斥著錯誤。他以自身在Linux和開源軟體領域的專業知識為例,強調AI模型在處理這些專業領域問題時,所提供的資訊往往片面且不準確。

在使用生成式AI對這些主題進行研究時,AI能給出的回答乍一眼看上去可能不錯,但你越深入的去討論一些細節時,它能給出的資訊就越貧乏。

這些由AI生成的結果常常令人惱火。它們有許多荒謬的錯誤,更糟糕的是,這些錯誤的出現總是反反覆覆,沒完沒了。

如果你對內容的需求僅在高中水平,模型生成的答案還算過得去。但當你需要深入挖掘或研究某個主題時,那就另當別論了。

不僅史蒂文有此發現,《商業週刊》也曾報導,許多GPT-4使用者發現模型的表現越來越差,變得「懶」且「愚蠢」。Reddit上的使用者也表達了類似的觀點,認為ChatGPT的效能遠不如以往。「現在ChatGPT 3和4的效果遠不如我一年前訂閱專業版時那麼有效和有幫助。」

為什麼大型語言模型的品質越來越差?

史蒂文分析了造成這一現象的兩個主要原因:

  • 訓練資料品質下降: 許多AI模型的訓練資料來自於Twitter、Reddit等社交媒體平台,這些平台上的資訊良莠不齊,甚至包含大量錯誤訊息。隨著AI模型不斷學習這些低品質的資料,其生成內容的準確性也隨之降低。
  • 模型退化: 由於AI模型不斷從其他AI模型生成的內容中學習,導致模型出現「模型崩潰」的現象,即模型逐漸忘記真實的資料分佈,生成內容的品質越來越差。

首先是用於建立主要大型語言模型的內容品質問題。

許多模型的訓練集中包含了來自諸如Twitter、Reddit以及4Chan等「優質」網站的資料。但是正如Google在今年早些時候發佈的AI Overview所顯示的那樣,採用這些資料集對AI進行訓練的結果可能會非常糟糕。

《麻省理工科技評論》同樣指出,現在的AI會生成一些品質極差的答案。如果你只是想用生成式AI閒聊(這似乎是ChatGPT最流行的用途之一),那麼準確性可能對你並不重要。

但對於所有希望將AI用於商業的人來說,正確答案才是最重要的。隨著生成式AI巨頭繼續尋找更多資料,這個問題只會變得更糟。而來自Epoch AI的一項研究發現,我們最早可能將在2026年耗盡高品質資料。

這就引出了第二個問題。

如今,生成式AI生成的內容正在取代專家級人類產生的內容。結果不僅僅是劣質資料排擠了優質資料,情況還要更為糟糕。

《自然(Nature)》的最近的一篇論文發現,「不加區分地從其他模型生成的資料中學習會導致‘模型崩潰’。這是一種退化過程,隨著時間的推移,即使分佈沒有隨時間變化,模型也會忘記真正的底層資料分佈。」

通常來說,軟體的新版本應該比它們所取代的版本更好。但是現在的趨勢似乎並非如此,由於目前看來並沒有停止使用生成式AI以更低的成本來生成文件的趨勢,因此未來充斥在網路中的內容品質只會繼續下降。

因此,史蒂文語重心長的表示:「不管你信不信,就品質而言,我們可能已經處於人工智慧的頂峰。」

 

 

 

 

加入T客邦Facebook粉絲團

從巨人電腦到超級AI,資料中心百年進化之路大公開!核能、太陽能誰能贏得AI資料中心青睞?

作者 36Kr
2024年11月15日 09:00
人工智慧的發展如火如荼,但人工智慧的發展越來越離不開龐大算力的支撐,本文將介紹關於AI資料中心的一些基礎知識。1818e573a3b551b108b06e1e590c7100

目前美國這一波運算基礎設施的建設,算是史上規模最大之一了。 

100多年前,我們見證了類似電網這樣的建設(諷刺的是,這正是當今美國基礎設施建設的瓶頸)。在電網建立初期,我們目睹了電廠的規模化(將電廠建得盡可能大以提高性能)、「天文數字般」的資本支出(CapEx)投資,以及電力成本的急劇下降。 

現如今,我們正目睹資料中心的規模化、超大規模雲端運算公司的巨額資本支出,以及AI運算成本的急劇下降:

從巨人電腦到超級AI,資料中心百年進化之路大公開!核能、太陽能誰能贏得AI資料中心青睞?

本文的關注重點是構建AI專用資料中心所需的基礎設施。 

AI資料中心簡介

「資料中心」這個詞沒法完全形容這些「AI工廠」的龐大規模。最大型的資料中心在土地、電力和冷卻設備、建設成本、GPU和其他運算基礎設施方面的花費可達數十億美元。 

這還沒包括能源的成本。新的、最大型的超大規模資料中心消耗的電力高達1GW。要知道,紐約市的用電量也才是5.5GW。也就是說,每五個這樣的超級資料中心,就等於為電網增加一個紐約市的用電負擔。 

資料中心的價值鏈大致可分為幾個部分:資料中心的初始建設、支援資料中心的工業設備、資料中心的運算基礎設施,以及為資料中心供電的能源。此外,還有一些公司擁有或租賃資料中心,為消費者提供最終服務。

AI資料中心價值鏈

在深入研究之前,我們應該瞭解一點資料中心的歷史。 

資料中心簡史

資料中心很大程度上是伴隨著電腦和網際網路而崛起的。以下介紹部分趨勢的歷史概覽以及我們是如何走到今天這一步的。 

資料中心的早期歷史

最早期的運算模式跟今天的資料中心類似:有一台集中式的電腦,主要是用來解決運算密集型任務以及關鍵任務。 

這裡是兩個早期的例子: 

  1. 巨人電腦(Colossus):由艾倫·圖靈(Alan Turing)為破解Enigma機而建造的電腦。(注:圖靈還被認為是人工智慧和電腦科學之父。他提出了圖靈測試,用來測試AI是否具有真正的智慧,去年ChatGPT通過了這一測試)。 
  2. ENIAC:由美國軍方在二戰期間設計的電腦,但直到1946年才完成。儘管巨人電腦早於ENIAC建成,但由於巨人電腦的機密性,ENIAC通常被視為第一台電腦。 

兩者都位於可以被視為「最早的資料中心」的設施內。

從巨人電腦到超級AI,資料中心百年進化之路大公開!核能、太陽能誰能贏得AI資料中心青睞?

1950年代,IBM崛起並統治了運算領域,該公司推出了大型電腦,從而引領了其在科技領域的數十年主導地位,而AT&T是當時另一家佔據主導地位的科技公司。 

1969年,ARPANET發佈,這個網路的目標是連接美國日益增多的電腦。ARPANET現在被認為是網際網路的早期版本。由於是政府專案,所以其最密集的連接位於華盛頓特區附近。 

全球50大資料中心(按耗電量)

網際網路與雲端運算的崛起

在1990年代,隨著網際網路的發展,我們需要越來越多的物理基礎設施來處理急劇增長的網際網路資料流程量,其中的一部分需求透過作為連接點的資料中心來滿足。像AT&T這樣的電信公司已經建立了通信基礎設施,資料中心業務的擴展對它們來說是順理成章的事情。 

不過,在資料傳輸方面,這些電信公司的關係跟當前垂直整合的雲服務提供者的「競合」有點類似。AT&T既擁有其基礎設施上傳輸的資料,也擁有傳輸該資料的設備。所以,在傳輸容量有限的情況下,AT&T會優先傳輸自身的資料。其他公司對此很警惕,所以後來才有了Digital Realty與Equinix等資料中心公司的崛起。 

在網路泡沫期間,資料中心獲得了大量投資,但隨著泡沫破裂,這種增長顯著放緩(這也是我們在推測未來資料時應謹記的教訓)。

從巨人電腦到超級AI,資料中心百年進化之路大公開!核能、太陽能誰能贏得AI資料中心青睞?

 

直到2006年,隨著AWS的發表,資料中心需求才逐漸恢復增長。從那時起,美國的資料中心規模便保持著穩定的增長。

從巨人電腦到超級AI,資料中心百年進化之路大公開!核能、太陽能誰能贏得AI資料中心青睞?

AI資料中心的崛起

這種穩步的增長一直持續到2023年,這一年AI熱潮席捲全球。據估算,到2030年資料中心的容量將會增加一倍(需謹記,這只是估算)。

從巨人電腦到超級AI,資料中心百年進化之路大公開!核能、太陽能誰能贏得AI資料中心青睞?

 

訓練AI的工作負載引發了對資料中心規模的新關注。運算基礎設施之間的距離越近,性能表現越好。此外,當資料中心被設計成運算單元而不僅僅是裝伺服器的設施時,公司還可以獲得額外的整合收益。 

最後,由於AI訓練不需要靠近終端使用者,所以資料中心可以建在任何地方。 

總結一下,當今的AI資料中心關注規模、性能和成本,並且幾乎可以建在任何地方。 

AI資料中心的建設要素

建設AI資料中心

運算提供商(超大規模提供商、AI公司或GPU雲端提供商)要嘛自己建造資料中心,要嘛跟Vantage、QTS或Equinix等資料中心開發商合作,去找到電力充足的土地。 

然後,他們會雇用總承包商管理建設過程,總承包商則會再雇幾家分包商負責各個功能(如電力、管道、暖通空調等)並採購原材料。專案期間,工人會遷移到該區域。在大樓主體結構完成後,下一步就是安裝設備。

從巨人電腦到超級AI,資料中心百年進化之路大公開!核能、太陽能誰能贏得AI資料中心青睞?

資料中心的工業設備可以大致分為電力設備和冷卻設備。電力設備從主開關設備開始,這是用來連接外部電源的,然後連接到配電單元、不斷電供應系統(UPS)以及連接伺服器機架的電纜。大多數資料中心還會備有柴油發電機,以備停電的不時之需。 

第二類是機械和冷卻設備,包括冷水機、冷卻塔、暖通空調設備以及連接到伺服器的液體或空氣冷卻系統。 

AI資料中心的運算設備

運算基礎設施包括運行AI訓練和推理工作負載的設備。主要設備是GPU或加速器。除Nvidia、AMD及超大規模提供商外,眾多新創公司也在爭奪AI加速器的市場占有率。 

半導體新創企業融資情況

 

雖然CPU的重要性已不如從前,但它們在完成複雜操作和任務分配方面仍發揮著重要作用。存放裝置用於存放晶片之外的資料,而記憶體則用來儲存需頻繁存取的資料。網路負責連接所有元件,包括伺服器內外部的連接。 

最後,這些設備將被安裝在資料中心的伺服器內。

從巨人電腦到超級AI,資料中心百年進化之路大公開!核能、太陽能誰能贏得AI資料中心青睞?

為AI資料中心提供能源

能源供應鏈可分為以下幾個部分: 

  1. 能源來源──化石燃料、可再生能源和核能,能夠產生電力的能源。 
  2. 發電──發電廠將化石燃料轉化為電能;而可再生能源則在更接近能源源頭的地方發電。 
  3. 輸電──電力透過高壓線路傳輸至目的地附近。變壓器和變電站會將高壓電力降低到適合消費的電壓。 
  4. 公用事業/配電──公用事業公司管理最後一公里的配電,並透過電力購買協議(PPA)管理電力輸送。

從巨人電腦到超級AI,資料中心百年進化之路大公開!核能、太陽能誰能贏得AI資料中心青睞?

 

通常所謂的「電網」就是指傳輸和配電系統,由地方管理。根據位置不同,這兩處都可能成為電力傳輸的瓶頸。 

能源成為AI資料中心擴展的關鍵瓶頸。 

電力擴容並不容易,資料中心有兩種選擇:併網與離網。併網是通過電網輸電,由公用事業公司分配。離網則繞開電網,比如現場用太陽能、風能和電池發電。更理想的情況是,在2.5 GW的核電站旁邊建一座GW級資料中心! 

併網的問題是電力擴容需要時間。下圖顯示了從源頭申請電量到實際投入使用所需的等待時間。 

拿到開工許可的時間(月數)越來越長

解決這些挑戰不可避免需要採用多種組合方案。我們會在最後一節進一步討論。 

AI資料中心的新特點

新一代的資料中心在規模、密度、速度和能耗方面都有顯著提升。 

「超大規模」資料中心不是什麼全新概念。幾乎每隔幾年,就會有關於資料中心規模擴大的報導,從2001年的幾兆瓦到2010年代的50兆瓦,再到2020年的「巨型120兆瓦」資料中心,如今則發展到了數吉瓦(註: 1 吉瓦等於 10 億瓦特)的超大規模。 

這些吉瓦級資料中心不僅規模大,密度也更高,這樣的系統要按照系統角度來設計。其核心問題在於摩爾定律放緩,也就是半導體在電晶體密度方面的性能提升難度逐漸增加了。因此,解決之道是將伺服器,甚至將整個資料中心的組件儘量整合在一起。 

實際上,這意味著資料中心被設計成一個整合系統,而不是由單太伺服器組成的機房。這些伺服器也要被設計成緊密結合的整合系統。 

所以NVIDIA也賣伺服器和POD系統,所以超大規模公司要建設系統級的資料中心,同時這可能也解釋了AMD要做出收購ZT系統的戰略選擇。 

看看NVIDIA的DGX H100系統,它既可作為單獨的伺服器使用,也可連接至其他GPU形成POD,甚至可連接至SuperPOD來增加連接數量:

從巨人電腦到超級AI,資料中心百年進化之路大公開!核能、太陽能誰能贏得AI資料中心青睞?

NVIDIA還引領了「加速運算」趨勢,也就是將任務從CPU轉移出去,從而提升GPU、網路以及軟體等元件的作用。 

此外,AI的獨特需求要求處理大量資料,所以資料儲存能力(記憶體/儲存)和快速傳輸大量資料(網路)變得至關重要。這就像心臟要泵血一樣,GPU就是心臟,而資料是血液(所以Google TPU架構又被叫做「脈動陣列」)。 

所有這些趨勢共同構成了全球最強大的運算設備。這種運算能力帶來了更大能耗、更大的熱量產生以及對每個伺服器更高的冷卻需求。隨著我們對運算能力需求的增加,這種能耗只會越來越大。

最先進設備雖然耗電更大,但能效比是提高的

瓶頸與受益者

以下列舉了會從中受益的名單(不詳盡),以及部分目前備受關注的領域。從建設變壓器的技術工人短缺,到許可流程的自動化,各方面都存在瓶頸,整個供應鏈都很緊張。 

電網擴容還是繞開電網

顯然,為支援此次擴充,能源基礎設施需要提升。幾乎每家科技公司都更傾向用併網的方式:這種方式更可靠且管理方便。不過,如果併網電力不可用,超大規模公司會考慮自給自足。比方說,AWS正在印第安那州投資110億美元設立一個資料中心園區,建設四個太陽能發電場和一個風力發電場(600兆瓦)來為資料中心供電。 

從中長期看,我對兩種能源瓶頸階級方式最為樂觀:核能與電池。這兩者都可以為資料中心提供更具可持續性的能源來源。 

核能的優點眾所周知:清潔且穩定。不過,如何經濟可行地建設核能是一大挑戰,目前一些極具潛力的新創企業正在解決這一難題。 

長時電池的創新會是可再生能源發展的重要一步。太陽能和風能的不足在於其間歇性,只有在風力或日照充足時才能發電。透過儲存多餘電力,在電力短缺時釋放能量,長時電池可以緩解這一問題。 

建設許可與液體冷卻技術

在工業領域,兩種趨勢尤其值得關注:許可管理的自動化以及液體冷卻技術。很多人反映,拿到開工許可是擴容的瓶頸之一。 

要想對資料中心和電力擴容,開發商需要拿到建築、環境、城區、雜訊等方面的許可,還可能需要地方、州以及國家各級機構的批准。此外,他們還需應對各地的優先購買權法律規定。在能源基礎設施領域,這個流程更加複雜。許可管理軟體公司如PermitFlow等在緩解這些問題方面大有可為。 

AI資料中心的新一代技術的顯著區別之一是伺服器產生的熱量增加。因此,新一代資料中心將採用液體冷卻技術,而下一代可能會採用更為先進的浸入式冷卻技術。 

向運算公司脫帽致敬

我們不得不承認,NVIDIA在構建生態體系方面取得了巨大成功,AMD在鞏固其作為替代方案的地位方面也取得了顯著成績。從應用到軟體基礎設施,再到雲端運算、系統和晶片,NVIDIA在為AI構建技術浪潮方面做得極為出色。 

提供AI運算和能源服務的Crusoe將是另一家會處在有利位置的公司。 

最後,受益於資料中心擴容的運算公司應該可以繼續在價值鏈中獲得可觀收入。從網路、儲存到伺服器,如果能夠提供頂級性能,公司就會從此次大擴容中受益。 

最後思考

關於資料中心擴展的最終思考是:儘管這看似是一種新趨勢,但其實這不過是運算發展史更長脈絡的一部分而已。AI、資料中心和運算不應被看作是分割的議題。 

就像山姆·阿特曼所說那樣: 

「人類歷史可以簡化為:經過數千年的科學發現和技術進步,我們終於學會了如何熔化沙子,加入一些雜質,以極其精確的方式在微觀尺度上進行排列,形成電腦晶片,並用電去驅動,進而創建出能夠生成越來越強大人工智慧的系統。」 

艾倫·圖靈不僅是現代電腦的奠基人,也是電腦科學和人工智慧的奠基者,這一點絕非偶然。這個趨勢在過去100年創造智慧的時間裡一以貫之。而今天,資料中心正處在這一趨勢的中心。

 

加入T客邦Facebook粉絲團
❌
❌