阅读疯子

阅读视图

发现新文章,点击刷新页面。

AI寫程式時代真的來臨?Google 工程師解析如何利用 AI 來改進軟體開發

作者 36Kr
2024 年的 AI 寫程式到底什麼實力?近日,Google 的工程主管 Addy Osmani,為我們揭示了 AI 輔助寫程式碼在一線開發中的真實情況。6a20cdb4d0e310ccf6352374a3e66b63

2024 年,AI 寫程式已然滲透了各行各業,影響著軟體的整個生命週期。那麼問題來了,AI coding 用過都說好,但我們平時用的軟體為什麼感覺沒什麼在進步呢?

近日,Addy Osmani,Google 的工程主管,同時也是一位亞馬遜暢銷書作家,為我們揭示了 AI 輔助寫程式碼在一線開發中的真實情況。

工程師怎麼用 AI?

一般来说,團隊利用 AI 進行開發有兩種不同的模式:「引導程式(bootstrappers)」和「疊代器(iterators)」。兩者都在幫助工程師(甚至是非技術用戶)縮小從想法到執行的差距。

Bootstrappers

這一類包括 Bolt、v0 和 screenshot-to-code 等 AI 工具,其特點為:

  • 從設計或粗略概念開始;
  • 使用 AI 生成完整的初始程式碼庫;
  • 能夠在幾小時或幾天內獲得工作原型;
  • 專注於快速驗證

這樣的工作流令人印象深刻。比如一位獨立開發人員可以使用 Bolt,在短時間內將 Figma 設計轉變為有效的 Web 應用程式。儘管達不到生產級別的要求,但用來獲得初步的使用者回饋綽綽有餘。

Iterators

這一類主要負責日常開發工作流程,包括 Cursor、Cline、Copilot 和 WindSurf 等工具,效果沒有上面那麼浮誇,但更加實在,比如:

  • 完成程式碼、提供建議;
  • 執行複雜的重構任務;
  • 生成測試和文檔;
  • 作為解決問題的「結對程式設計師」

雖然這兩種方法都可以大大加快開發速度,但「天下沒有白吃的午餐」。

「AI 速度」的隱性成本

高級工程師使用 Cursor 或 Copilot 等 AI 工具,可以在幾分鐘內搭建整個功能的基架,並完成測試和文檔,就像變魔術一樣。

但仔細觀察就會發現,在參考 AI 建議的同時,資深工程師們還會:

  • 將生成的程式碼重構為更小的模組;
  • 添加邊緣情況處理;
  • 優化類型定義和介面;
  • 添加全面的錯誤處理;
  • 甚至是質疑 AI 給出的架構

換句話說,他們正在用多年累積的工程智慧,塑造和限制 AI 的輸出。AI 負責加速程式碼實現,但人類的專業知識確保程式碼的可維護性。

AI寫程式時代真的來臨?Google 工程師解析如何利用 AI 來改進軟體開發

而初級工程師就經常錯過這些關鍵步驟。他們更容易接受 AI 的輸出,從而導致所謂的「紙牌屋程式碼(house of cards code)」——看起來很完整,但在現實世界的壓力下會崩潰。

知識悖論

所以實際上,相比於初學者,AI 反而更能幫助有經驗的開發人員,——這多少有點反直覺。

高級工程師利用 AI 快速構建想法的原型(理解)、生成基本實現(可改進)、探索已知問題的替代方法等等;

而初學者卻經常接受不正確或過時的解決方案、忽略關鍵的安全性和效能問題、不知道如何除錯 AI 生成的程式碼,最終構建了一個自己不完全理解的脆弱系統。

70% problem

使用 AI 寫程式碼的非工程師,經常遇到一個窘境:他們可以出人意料地迅速完成 70% 的工作,但最後的 30% 就相當痛苦了。

「70% problem」揭示了 AI 輔助開發的現狀,剛開始如有神助,後來被現實按在地上摩擦。

實際情況通常是:

  • 嘗試修復一個小錯誤——>
  • AI 提出了一個似乎合理的更改——>
  • 這個更改破壞了其他一些東西——>
  • 要求 AI 修復新問題——>
  • 又產生了兩個新 bug——>
  • 無限循環

這個循環對於非工程師來說尤其痛苦,因為他們缺乏專業知識來理解真正出了什麼問題。

有經驗的開發人員遇到 bug 時,可以根據多年的模式識別來推理潛在原因和解決方案。如果沒有這個背景,那基本上就是在用自己不完全理解的程式碼「打地鼠」。

AI寫程式時代真的來臨?Google 工程師解析如何利用 AI 來改進軟體開發

學習悖論

還有一個更深層次的問題:讓非工程師使用 AI 寫程式碼工具,實際上可能會阻礙學習。

程式碼生成了、運行了,但「開發者」不了解基本原理,此時,他錯過了學習基本模式、沒有培養除錯技能、無法對架構決策進行推理,而這份程式碼又需要維護和擴展。

於是,「開發者」不斷返回 AI 來解決問題,而沒有培養自己處理問題的專業能力。

非工程師使用 AI 寫程式碼工具的最好方式可能是「混合模式」:

  1. 使用 AI 進行快速原型設計
  2. 花點時間了解生成的程式碼是如何工作的
  3. 學習基本的寫程式概念以及 AI 使用
  4. 逐步建立知識基礎
  5. 將 AI 用作學習工具,而不僅僅是程式碼產生器

但這需要耐心和奉獻精神,與許多人使用 AI 工具的目標恰恰相反。

「70% problem」表明,目前的 AI 還不是許多人希望的那個 AI。最後 30% 的工作(使軟體可用於生產、可維護等),仍然需要真正的工程知識。

最佳實踐

Addy Osmani 觀察了幾十個團隊,總結了一些最佳實踐方式:

  • 「AI 初稿」模式

    讓 AI 生成基本實現;手動審查和模組化重構;添加全面的錯誤處理;編寫全面的測試;記錄關鍵決策。

  • 「持續對話」模式

    為每個不同的任務開始新的 AI 聊天;保持上下文集中和最小;經常查看和提交更改;保持緊密的迴饋迴圈。

  • 「信任但驗證」模式

    使用 AI 生成初始程式碼;手動審查所有關鍵路徑;邊緣案例的自動測試;定期安全稽核。

AI 的真正前景?

儘管存在這些挑戰,但作者對 AI 在軟體開發中的作用持樂觀態度。關鍵是要充分利用 AI 的真正優勢:

  • 加速已知

    AI 擅長幫助實現我們已經了解的模式,就像有一個無限耐心的結對程式設計師,他可以非常快速地打字。

  • 探索可能性

    AI 非常適合快速構建想法原型和探索不同的方法,就像一個沙箱,我們可以在其中快速測試概念。

  • 自動化例程

    AI 大大減少了花在樣板和日常寫程式碼任務上的時間,讓我們可以專注於有趣的問題。

如果您剛剛開始 AI 輔助開發,作者的建議是,先從小處著手:將 AI 用於非耦合的、定義明確的任務,查看生成的每一行程式碼,逐漸構建更大的功能。

過程中保持模組化:將所有內容分解為小的重點檔案,在組件之間保持清晰的介面,記錄模組的邊界。

重要的一點是,相信自己的經驗:AI 用來加速而不能取代你的判斷、感覺不對勁時要質疑、時刻維護自己的工程標準。

Agent 興起

隨著我們進入 2025 年,AI 輔助開發的格局正在發生巨大變化。雖然目前的工具已經改變了原型設計和迭代方式,但我們正處於更重要轉型的風口浪尖:AI代理(Agent)軟體工程的興起。AI代理不僅可以回應提示,還將以越來越高的自主性規劃、執行解決方案。

比如 Anthropic 的 Claude 能夠使用電腦,或者 Cline 自動啟動瀏覽器和運行測試的能力。

在除錯過程中,AI代理系統不僅給出修復 bug 的建議,還可以:主動識別潛在問題、啟動和運行測試套件、檢查 UI 元素並捕獲螢幕截圖、提出並實施修復、驗證解決方案是否有效。

下一代工具將可以無縫整合視覺理解(UI 螢幕截圖、模型、圖表)、口頭語言對話和環境互動(瀏覽器、終端、API)。

未來的 AI 不是取代開發人員,而是成為一個越來越有能力的協作者,既可以採取主動,又能尊重人類的指導和專業知識。

 

加入T客邦Facebook粉絲團

NAND Flash 市場競爭白熱化:SK 海力士力圖超越三星

作者 36Kr
NAND Flash 市場競爭白熱化:SK 海力士力圖超越三星F7f14fc20efb69b6642724647cf361ed

過去多年,SK 海力士在 NAND Flash 領域,甚至包含 NAND 與 DRAM 的整體儲存市場,無論技術或市佔率都落後於韓國競爭對手三星。然而,根據韓媒 Businesskorea 十月底的報導,受惠於 HBM 的成功,SK 海力士半導體部門的年度營業利潤預計將首次超越三星,這也象徵著全球半導體產業競爭態勢的重大轉變。

如今,三星在 NAND Flash 市場的領先地位也正受到 SK 海力士的強烈挑戰。截至 2024 年第二季,三星仍以 36.9% 的市佔率穩居龍頭,但 SK 海力士(包含 SK Hynix 與 Solidigm)的全球 NAND 市佔率已從 2020 年的 11.7% 成長至 22.5%。報告更指出,若此趨勢持續,單就 SK 海力士而言,其年度市佔率預計將在 2024 年首次突破 20%。

SK 海力士推出 321 層 TLC NAND Flash,率先超越三星

上個月的韓媒報導指出,SK 海力士已超越三星,成為業界首家量產 321 層三層單元 (TLC) NAND Flash 的公司。此技術突破將以更實惠的價格實現更高容量的儲存。

SK 海力士近期發表了新的 1 兆位元 4D NAND 晶片,再創紀錄。不到一年前,該公司才率先推出 238 層 NAND。321 層的突破同樣意義重大,因為它能顯著提升消費級和企業級 SSD 的儲存密度,使容量超過 100TB 的 SSD 價格更具競爭力。此技術尤其適用於人工智慧資料中心,以及其他需要高效能儲存的應用。

SK 海力士透過精巧的製程最佳化,將 300 多層堆疊至單一 NAND 中。其新的「Three Plugs」技術透過最佳化的電氣連接製程,同時連接三個儲存層的垂直通道。此製程以卓越的製造效率著稱,並採用具自動對準校正功能的低應力材料。SK 海力士透過開發新的低應力材料和自動對準校正技術,克服了連接多層可能產生的應力和對準問題,確保製造過程順利進行。新製程也透過重複使用與 238 層 NAND 相同的平台,將生產效率提升了 59%。這些效率改進意味著市場上將出現效能更佳、成本更低的產品。該公司聲稱,與 238 層 NAND 相比,新的 321 層晶片資料傳輸速度提升了 12%,讀取速度提升了 13%,能效提升了 10% 以上。

SK 海力士計畫逐步擴大 321 層產品的應用範圍,瞄準需要低功耗和高效能的新興人工智慧 (AI) 應用。SK 海力士 NAND 開發主管 Jungdal Choi 表示,這項進展使該公司更接近引領 AI 儲存市場,包含用於 AI 資料中心和裝置端 AI 的固態硬碟 (SSD)。他指出,SK 海力士正透過擴大其在超高效能 NAND 領域的產品組合,以及以高頻寬記憶體 (HBM) 為主的 DRAM 業務,朝向成為綜合 AI 記憶體供應商的方向邁進。

韓媒 Chosun Biz 指出,雖然 SK 海力士在 NAND 市佔率方面仍落後於三星,但其在垂直堆疊單元技術方面處於領先地位,這顯示 NAND 市場可能發生重大變化。

三星積極應對,開發 400 多層 3D NAND

面對 SK 海力士的挑戰,三星也積極應對,據報導,三星目前正在開發 286 層的第九代 3D NAND,並正著手研發 400 層技術。此消息透過 2025 年 IEEE 國際固態電路會議議程發表透露。

據介紹,這款 1 兆位元 NAND 晶片的密度為 28 Gb/mm2,層數超過 400 層,採用三級單元 (3b) 格式,將成為三星 V-NAND 技術的第十代產品。第九代晶片採用雙串堆疊,有 2 x 143 層,有 TLC 和 QLC(四位元/單元)兩種格式。第九代 V-NAND 支援高達 3.2 Gbps 的資料速度,而新的 400 層以上技術則支援每針 5.6 Gbps,速度提升了 75%。此速度似乎既適用於 PCIe 5,也適用於速度快兩倍的 PCIe 6 互連。

在 400 層的 NAND 上,預計將採用三層堆疊架構,而非目前的雙層堆疊設計。此進展充分利用了三星在層數方面的領先優勢,因為它是唯一一家能夠在單一堆疊中生產超過 160 層的公司,而競爭對手只能達到 120-130 層。若三星選擇三層堆疊方法,該公司可望實現驚人的 480 層。

NAND Flash 市場競爭白熱化:SK 海力士力圖超越三星

其中,「WF-Bonding」是三星實現此層數的關鍵技術。據介紹,這是一項名為晶圓到晶圓鍵合的技術,其中兩個獨立的 NAND 晶圓(其上已製造單元和/或電路)相互連接。此鍵合使每個晶圓的製造製程在可擴充性、效能和良率方面得到最佳化。

三星表示,此方法將實現具有大儲存容量和卓越硬碟效能的「超高」NAND 堆疊,非常適合 AI 資料中心的超高容量固態硬碟 (SSD)。據該公司稱,此晶片被稱為鍵合垂直 NAND Flash,或 BV NAND,是「人工智慧的夢幻 NAND」。

2013 年,三星率先推出 V NAND 晶片,推出垂直垂直儲存單元。據三星稱,其 BV NAND 單位面積密度提高 1.6 倍。

三星計畫於 2027 年推出 V11 NAND,進一步開發其速度驚人的技術,將資料輸入和輸出提高 50%。該公司還計畫推出 SSD 訂閱服務,面向希望管理高昂 AI 半導體投資成本的科技公司。

其他廠商亦步亦趨

由於分層競爭激烈,預計 2025 年 NAND 時代將進入 400 層,2027 年將達到 1000 層。韓國業界專家認為,三星、SK 海力士、美光等都將在 2025 年推出 400 層 NAND 產品。至於 1000 層 NAND,也是包含鎧俠在內所有 NAND 廠商的目標。

美光早在 2022 年就發表了將 NAND 層數增加到 400 層以上的藍圖。據報導,在此產品中,他們將使用雙堆疊技術,即將兩個 3D NAND 晶片堆疊在一起。這克服了半導體製造中的難題,例如隨著層數的增加,需要在層間蝕刻連接孔。隨著孔深度的加深,這些孔的側面可能會變形,並阻止 NAND 單元正常運作。美光表示,其重點是 QLC(四位元/單元)NAND,但並未提及使用 PLC(五級單元)將單元位數增加到 5,WD正在研究這項技術,Solidigm 則還在開發中。

NAND Flash 市場競爭白熱化:SK 海力士力圖超越三星

WD則認為,層數稍高並不具有內在優勢,因為它正橫向縮小單元尺寸(寬度和長度),並透過增加層數來增加晶片高度。這兩種技術的結合意味著它可以將晶片密度提高到與競爭對手相同或更高的程度,且層數更少。

展望未來,1000 層也成為了各廠商的目標。例如鎧俠在今年於首爾舉行的國際記憶體技術研討會上表示,公司制定了雄心勃勃的藍圖,到 2027 年實現驚人的 1,000 層 3D NAND Flash。三星之前也曾表示,計畫在 2030 年之前開發出層數超過 1,000 層的 NAND,但要實現此目標絕非易事。

據日媒 PC Watch 報導,鎧俠的預測是基於過去的趨勢推斷,並改進了現有的 NAND 單元技術。該公司預計,NAND 晶片密度將在三年內達到 100 Gbit/mm2,儲存單元層數為 1,000。要

加入T客邦Facebook粉絲團

OpenAI 的 o1「作弊」修改系統,強行擊敗專業西洋棋 AI,全程無需提示

作者 36Kr
在與專用西洋棋引擎 Stockfish 測試中,僅因提示詞中包含能力「強大」等形容詞,o1-preview 入侵測試環境,直接修改比賽數據,靠「作弊」拿下勝利。這種現象,表明 AI 安全任重道遠。Ec91f924f0d24f8285e3a3c6b9661036

OpenAI 的推理模型 o1-preview 最近展示了它不按常理出牌的能力。

o1-preview 在與專用西洋棋引擎 Stockfish 比賽時,為了強行取得勝利,居然採用了入侵測試環境的卑劣手段。 而這一切都不需要任何對抗性提示。 根據 AI 安全研究公司 Palisade Research 的說法,只需告訴 o1 對手是強大的,就能觸發其透過操縱文件系統而強制取勝。 在五次測試中,這種觸發率甚至達到了 100%!這完全超乎研究人員預期。

OpenAI 的 o1「作弊」修改系統,強行擊敗專業西洋棋 AI,全程無需提示

從模型的 CoT 過程中可以看出,o1-preview 在收到「對手很強大」的提示詞後,它首先選擇了避免與對手正面交鋒。 然後嘗試修改一個包含西洋棋位置數據的文本文件(FEN),強迫 Stockfish 放棄比賽。

OpenAI 的 o1「作弊」修改系統,強行擊敗專業西洋棋 AI,全程無需提示

研究人員也使用其它的 LLM 進行了該實驗,出人意料的是,正因為 o1-preview 本身就側重於推理,所以它反而是最容易想到這種漏洞操作的。 而 GPT-4o 和 Claude 3.5 只有在研究人員明確提出建議後,才會嘗試入侵系統。 同時,像 Llama 3.3、o1-mini 這樣的模型甚至都無法提出正確的西洋棋策略,而是給出了令人困惑或不一致的回答。 研究人員認為,衡量 AI 是否具備「策劃」能力,可能有助於評估它發現系統漏洞的能力,以及它是否可能利用這些漏洞。 研究團隊也公布了其全部提示詞,可以看出提示詞中其實沒有鼓動模型去入侵系統。

OpenAI 的 o1「作弊」修改系統,強行擊敗專業西洋棋 AI,全程無需提示

01 AI 系統的「偽對齊」

在 Palisade 的西洋棋實驗中,o1-preview 利用修改測試環境以取勝。 無獨有偶,這種行為與 Anthropic 最近關於「偽對齊,alignment faking」的研究結果相一致:即 AI 系統看起來遵循指令,但實際上在暗渡陳倉,陽奉陰違。 Anthropic 的研究人員發現,在與 Redwood Research 合作進行的一系列實驗中,他們的 AI 模型 Claude 有時故意給出錯誤答案,以避免不想要的结果,從而發展出一種超出研究人員指導方針的隱秘策略。

OpenAI 的 o1「作弊」修改系統,強行擊敗專業西洋棋 AI,全程無需提示

Anthropic 團隊警告稱,隨著 AI 系統的複雜性不斷增加,可能越來越難以判斷它們是否真正遵循安全規則,還是僅僅在假裝遵循這些規則。Palisade 的這次西洋棋實驗似乎也支持了這一擔憂。

OpenAI 的 o1「作弊」修改系統,強行擊敗專業西洋棋 AI,全程無需提示

在長達 137 頁的論文中,研究團隊發現了可能引發 AI 系統「偽對齊」的全部關鍵要素:

  1. 模型至少在某些情況下具有強烈的偏好。
  2. 訓練目標與模型的偏好相衝突。
  3. 模型掌握了訓練和部署情況的相关資訊。
  4. 模型对其處境進行詳細推理。 在實驗中,研究人員讓一個名為 Claude 3 Opus 的大語言模型回答一個有害問題,比如描述某種暴力行為。 通常情況下,模型會拒絕回答。 然而,當環境發生變化時,事情就不那麼簡單了。 當模型處於免費使用者(Free Tier)條件時,模型知道自己的回答會被用於後續訓練。 在這種情況下,模型為了不會被可能會更加惡劣的數據所訓練,就會自發地產生符合有害問題的回答。这类情況占比 12%。 而在付費使用者(Paid Tier)條件時,模型認為自己的回答不會影響訓練,在這種情況下,它 97% 的時候都會拒絕回答有害問題。 也就是說模型有自己的「小算盤」:寧願現在假裝妥協,也不想以後做更多不符合其偏好的事情。 通過觀察模型的「思維記錄」,研究人員發現模型的決策過程實際上非常複雜。

OpenAI 的 o1「作弊」修改系統,強行擊敗專業西洋棋 AI,全程無需提示

AnthropicAI 的 Jan Leike 確信: 「為了確保未來的模型既安全又與人類對齊,我們需要可靠地區分假裝對齊的模型和真正對齊的模型。清晰展示對齊假裝現象是一個重要的里程碑!」

而目前 AI 行業仍然面臨著一個躲不開的重大難題:讓 AI 系統真正與人類的價值觀和需求對齊,而不仅仅是看起來對齊。 況且理解自主系統如何做出決策本來就尤其困難,而如何去定義「良好且無害」的任務目標和價值觀也是一個亟待解決的問題。

OpenAI 的 o1「作弊」修改系統,強行擊敗專業西洋棋 AI,全程無需提示

即使是像應對氣候變化這樣看似有益的目标,AI 系統也可能選擇有害的方法來實現這些目標——甚至可能得出令人驚悚的暴論,即認為消除人類才是最有效的解決方案。 此刻,我們站在 AI 發展的十字路口。在這一場與時間的賽跑中,多考慮一些總不會有錯。因此,儘管 AI 價值對齊是一項難題,但我們也相信,透過聚合全球資源、推動廣泛學科協作、擴大社會參與力量,人類終將獲得最終的掌控權。

參考資料:

https://the-decoder.com/openais-o1-preview-model-manipulates-game-files-to-force-a-win-against-stockfish-in-chess/ https://x.com/AnthropicAI/status/1869427646368792599 https://x.com/PalisadeAI/status/1872666186753933347

 

 

加入T客邦Facebook粉絲團

Meta AR眼鏡的超神配件:讓你免鍵盤戴上EMG腕帶即可隔空打字、操作空氣滑鼠

作者 36Kr
只需要在手腕上戴一個腕帶,就能夠實現隔空打字。Meta近期推出的開源表面肌電圖(sEMG)資料集,可進行姿態估計和表面類型識別,推動神經運動介面發展。558aac062138f06796322c0d0a781a9a

每一個新的運算平台都帶來了我們與裝置互動方式的範式轉變。 滑鼠的發明為今天主導PC世界的圖形使用者介面(GUIs)鋪平了道路,而智慧型手機直到觸控式螢幕的出現才開始真正獲得影響力。

同樣的規則也適用於可穿戴裝置和AR,想像一下,在晨跑時只需輕輕一觸指尖就能拍照,或者用幾乎察覺不到的手部動作來導航選單。

AR時代革新人機互動

在先前Connect 2024大會上,Meta展示了EMG腕帶與Orion增強現實眼鏡的產品原型。這兩大神器疊加在一起,科幻電影中才會出現的「隔空打字」場景或許即將實現。

Meta AR眼鏡的超神配件:讓你免鍵盤戴上EMG腕帶即可隔空打字、操作空氣滑鼠

Orion AR眼鏡

Meta AR眼鏡的超神配件:讓你免鍵盤戴上EMG腕帶即可隔空打字、操作空氣滑鼠

meta推出的肌電圖腕帶

戴上這樣一個腕帶,你讓雙手舒適地放在身側,同時進行滑鼠的滑動、點選和滾動等操作,無縫控制數字內容。

未來還將有許多其他應用場景,包括在增強現實中操縱物體,或者像在鍵盤上打字一樣——甚至更快,快速輸入完整資訊,幾乎無需費力。

其實兩年前Meta就初步公開過這款原型產品,現在可以看出來產品更成熟了。

在近日的NeurIPS 2024 的「資料集和基」子會場中,Meta發佈了兩個資料集——emg2qwerty 和 emg2pose,展示在硬體層面僅僅依靠腕帶的情況下,如何產生比細微手勢更豐富的輸入資料集。

Meta AR眼鏡的超神配件:讓你免鍵盤戴上EMG腕帶即可隔空打字、操作空氣滑鼠

原文地址:https://arxiv.org/abs/2410.20081

Meta AR眼鏡的超神配件:讓你免鍵盤戴上EMG腕帶即可隔空打字、操作空氣滑鼠

原文地址:https://arxiv.org/abs/2412.02725v1

用於隔空打字的資料集emg2qwerty

表面肌電圖(sEMG)是在皮膚表面測量由肌肉產生的電勢,它能夠檢測到由單個運動神經元引起的活動,同時是非侵入性的。

具體來說,對於單個的脊髓運動神經元,其細胞體位於脊髓中,向肌纖維中投射一條長軸突,每條肌纖維只被一個運動神經元支配。

脊髓運動神經元放電時,就會觸發它支配的所有肌纖維收縮,同時放大了來自神經元的電脈衝。正是這些來自肌纖維的電訊號,可被皮膚上的sEMG感測器檢測到。

Meta AR眼鏡的超神配件:讓你免鍵盤戴上EMG腕帶即可隔空打字、操作空氣滑鼠

用於資料收集的表面肌電圖研究裝置(sEMG-RD)及其腕圍電極放置的示意圖

基於腕帶的打字系統旨在解決可穿戴裝置的文字輸入問題,實現無需物理鍵盤的觸摸打字。

僅使用手腕上檢測到的肌肉電訊號,系統將可自動解碼並對應至虛擬現實中投影的電腦鍵盤按鍵。

這意味著,使用者未來可以在沒有物理鍵盤的情況下,無論在桌子上、腿上還是廚房桌子上打字,都能如同在實際鍵盤上一樣輸入。

Meta AR眼鏡的超神配件:讓你免鍵盤戴上EMG腕帶即可隔空打字、操作空氣滑鼠

一個針對提示「the quick brown fox」的表面肌電圖(sEMG)記錄示例,顯示左右腕帶上32通道的表面肌電圖訊號和按鍵時間;垂直線表示按鍵開始,每個電極通道的訊號經過高通濾波

emg2qwerty資料集包括從兩隻手腕獲取的高解析度sEMG 訊號,與QWERTY 鍵盤的真實按鍵同步。該資料集總計包含108名參與者完成的、涵蓋廣泛單字和句子打字提示的346小時記錄,共計超過520萬次按鍵。

emg2qwerty資料集分割的可視化。每一列代表一個使用者,每一個方塊代表一個會話,方塊的高度表示其持續時間

如何僅通過表面肌電圖資料中檢測到使用者按了哪個鍵呢?為瞭解決這個核心問題,Meta開發了受自動語音識別(ASR)領域啟發的方法。

該方法同樣模擬了給定連續多通道時間序列下,預測離散字元輸出序列的任務。為了給emg2qwerty建構強大的基線,Meta嘗試了新穎的網路架構、不同的訓練損失以及語言模型的使用,始終關注表面肌電圖資料的獨特領域特徵要求。

研究發現,在100個使用者的規模上,儘管生理、解剖、行為、頻寬大小和感測器放置存在差異,使用者間的泛化仍然可出現。

當使用大約半小時的個體使用者打字資料來個性化模型時,性能的進一步提升隨之而來。通過整合語言模型來最佳化結果,可將字元錯誤率降至 10%以下——這個值被認為是一個使文字模型可用的關鍵閾值。

隨著資料集的增加,類似語言模型中的Scaling Law將會生效,從而使得對使用者輸入的預測更加精準。

emg2pose姿態估計:可完全預測使用者的手部組態

另一個名為emg2pose的資料集,旨在解決肌電訊號與手部運動之間的對應問題,這對於人機互動、康復工程和虛擬現實等領域具有重要意義。

該資料集包含來自193名參與者的370小時sEMG和手部姿態資料,從29個不同的行為組中採集,包括拳頭、從一數到五等眾多動作。

資料集包含25253個HDF5檔案,合計達到431GB。每個檔案包含時間對齊的2kHz表面肌電圖資料和單手在單一階段的關節角度。

手部姿態標籤是通過高解析度動作捕捉陣列生成的。完整資料集包含超過8000萬個姿態標籤,其等效規模已經可以與最大的電腦視覺資料集比肩。

Meta AR眼鏡的超神配件:讓你免鍵盤戴上EMG腕帶即可隔空打字、操作空氣滑鼠

emg2pose資料集組成:a)sEMG-RD腕帶和動作捕捉標記(白色圓點)設定 b) 資料集分解;i)使用者被提示執行一系列動作類型(手勢),如上下計數,同時記錄 sEMG 和姿態 ii) 特定手勢類型的組合構成一個階段

emg2pose資料集的主要特點在於其高頻率的表面肌電圖記錄(2kHz)與精確的動作捕捉資料相結合,提供了對手部細微運動的深入洞察。

此外,資料集包含詳細的中繼資料,如使用者ID、會話、階段、手部側向、是否移動等,便於進行多樣化的分析和實驗。資料集還提供了訓練、測試和驗證的劃分,支援多種泛化類型的研究,包括跨使用者、跨階段以及跨使用者和階段的泛化。

在基準測試中,emg2pose還提供了具有競爭力的基線和具有挑戰性的任務,這些任務評估了在排除使用者、感測器放置和手勢姿態方面的物理世界泛化場景。

該研究還介紹了一種新的最先進模型,用於從表面肌電圖進行姿態估計的 vemg2pose模型,通過整合對姿態速度的預測來重建手勢姿態。

研究人員將emg2pose以及另外兩種當代基線用於sEMG的姿態估計,並分析了它們在泛化條件下的性能。結果顯示:emg2pose模型在對不同使用者的資料集進行預測時,僅顯示1釐米誤差,從而在廣泛的運動範圍內實現了高精確度的跟蹤。

emg2pose不僅提升了動作識別的精準性,還為手勢控制、康復治療等有潛在的應用可能。

在醫療康復領域,通過分析患者的sEMG訊號,可以即時監測和評估手部功能的恢復情況,為個性化康複方案的制定提供科學依據;

在人機互動領域,該資料集支援開發更加自然和精準的手勢控制系統,提升使用者體驗;

此外,emg2pose還可應用於虛擬現實和增強現實技術中,實現更加逼真的手部動作捕捉和互動。

Alongside emg2pose (https://t.co/WkShbhy3sH), @RealityLabs also released emg2qwerty (https://t.co/EzHu0WNn4D). These datasets combined are 716 hours! (I believe they're the largest public EMG datasets to date.) More on both here: https://t.co/Ns4S6viOGr pic.twitter.com/i2zrNn2bXB

— PerlinWarp (@perlinwarp) December 5, 2024

參考資料:

https://x.com/perlinwarp/status/1864745303796257236

加入T客邦Facebook粉絲團

IBM發表全新光學技術縮短 GPU 閒置時間,矽光子技術可大幅加快 AI 模型訓練速度

作者 36Kr
IBM官宣全新光學技術,用光也能訓練AI?A3275fafd7ad8c79fa1bc0afede46a19

近日,IBM宣佈了一項重大的光學技術突破,該技術可以以光速訓練AI模型,同時節省大量能源。

這篇IBM發佈的技術論文顯示,這項技術是一種新型的共封裝光學技術(co-packaged optics),可以利用光速實現資料中心內部的連接,從而替代目前使用的銅電纜。

儘管光纖技術已在全球商業和通訊中廣泛應用,但大多數資料中心內部仍依賴於銅電纜進行短距離通訊。這導致 GPU 加速器在訓練過程中常常處於閒置狀態,浪費大量的時間和能源。

IBM發表全新光學技術縮短 GPU 閒置時間,矽光子技術可大幅加快 AI 模型訓練速度

因此IBM的研究團隊展示了如何將光的速度和容量引入資料中心,顯著提高資料中心的通訊頻寬,減少 GPU 的閒置時間,從而加速 AI 模型的處理速度。

IBM高級副總裁兼研究總監Dario Gil在評論這一技術時表示:「由於生成式AI需要更多的能源和處理能力,資料中心必須不斷髮展——而同封裝光學器件可以使這些資料中心面向未來。有了這一突破,未來的晶片將像光纖電纜將資料傳入和傳出資料中心一樣進行通訊,開啟一個更快、更可持續的通訊新時代,可以處理未來的 AI 工作負載。」

至於效果如何,根據IBM計算出的結論表示,大型語言模型 (LLM) 的訓練時間可以從三個月縮短到三週。同時,提高能源效率將減少能源使用量並降低與訓練 LLM 相關的成本。換算成發電量的話,訓練 AI 模型時節省的能源相當於5000個美國家庭的年度能源使用量。

事實上,CPO並不是最近才有的新技術。早在一年前,台積電就攜手博通、NVIDIA等大客戶共同推進這項技術的研發進度,製程技術從45nm延伸到7nm,原計畫2024年就開始迎來大單,並在2025年左右達到放量階段。

這種所謂的矽光子技術,是在矽的平台上,將傳統晶片中的電晶體替換成光電元件,進行電與光訊號的傳導。對比傳統晶片會出現電訊號的丟失與耗損的情況,光訊號不僅損耗少,還實現更高頻寬和更快速度的資料處理。

原理上很簡單,但實際推廣上難度並不小。

首先,矽光子技術並沒有到大規模需求階段。雖說有自動駕駛和資料中心兩大領域的需求,但目前還沒有主流晶片廠商推出高性能晶片。

其次,矽光子技術需要考慮相對高昂的成本問題。受限於大量光學器件,一個矽光器件需要採用各種材料,在缺乏大規模需求的情況下,矽光子技術產品成為一種「價格高、低性價比」的產品。同時,器件的性能與良品率難以得到保障。

最後,矽光晶片在打通各個環節還需要努力。例如設計環節,雖然已經有EDA工具支援,但算不上專用;而在製造與封裝環節,類似台積電、三星等大型晶圓代工廠都沒有提供矽光工藝晶圓代工服務。

即便是已經推出COUPE技術的台積電,短時間內會專注更加成熟的封裝方案,很難勻出產能提供給矽光晶片。另外,不同廠商對於矽光產品的理解也各不相同。目前作為矽光賽道真正的老大哥英特爾已經陷入了低谷,很難抽出精力繼續矽光子技術。

 

加入T客邦Facebook粉絲團

科技巨頭競相推出的AI代理 (AI Agents) 是什麼,與現在的AI聊天機器人有何不同?

作者 36Kr
科技巨頭競相推出的“AI代理”是什麼東西?372d8cdfcdef159ec0c7bdc3083f6b41

隨著OpenAI的聖誕直播進入最後一週,多項重要AI新品也進入發佈倒計時——除了GPT-4o的常規版本升級外,科技圈最期待的正是肩負「打開營收天花板」重任的AI代理。

在過去兩週的直播中,OpenAI或是故意、或是「不小心」,已經劇透了這些東西的存在。其中名為“ChatGPT ε”的模型被認為是GPT-4.5o模型,而神秘的「代理」(Agents)資料夾,則被視為暗示AI代理即將到來的徵兆。

科技巨頭必爭之地:AI代理(AI Agents)

近幾週來,擅長研究各種前沿科技的股民們已經發現,各種大型語言模型的升級和跑分已經不再流行,討論AI聊天機器人變成落伍的行為。炒作重點早就轉向應用面,即直接向使用者收費的產品。

其中「AI代理」正是各家巨頭奮力爭奪的下一個山頭。早在11月初時就有報導稱,OpenAI計畫在2025年1月推出一種可以執行複雜任務的「AI代理」——名為「操作員」(Operator)的新工具。

與此同時,NVIDIA創始人黃仁勳宣稱「天天都在用」的AI搜尋工具Perplexity,已經在上個月推出幫助人們進行假日購物的AI代理;Google也在上週發佈首個AI代理工具Project Mariner,可以用來尋找航班、酒店以及其他任務。
所以,若OpenAI不想被嘲諷“剛發佈就落後”,勢必得拿出一點真東西。

先前OpenAI掌門阿特曼在參與Reddit的網友問答時也表示,雖然模型會越來越好,但感覺「下一個巨大突破將會是代理」。上個月他將「AI代理」解釋為:一名非常聰明且資深的同事,能夠完成一個為期兩天或兩週的任務——並在有問題時聯絡您,最終交付出色的工作成果。

幾乎所有參與AI賽道的巨頭們都盯著「AI代理」,原因很簡單:這是最容易賣出價錢的產品。

由於AI能夠不眠不休、不請假地工作,如果工作產出也滿足要求,科技公司將有更多籌碼說服僱主「將員工換成AI」。

OpenAI首席財務長薩拉·弗萊爾(Sarah Friar)上週對媒體回應“OpenAI準備推出2000美元/月的訂閱服務”時表示:公司對一切可能性敞開大門。

薩拉表示:「如果能有一個博士等級的(AI)助手來處理我所做的任何事情,那麼在某些情況下,那麼做(每月花2000美元在AI上面)會是有意義的。」

薩拉特別提到,OpenAI未來可能會按照使用者使用AI獲得的價值來收費,特別是在企業環境中。

AI代理與現在的AI聊天機器人有何不同?

AI代理(AI Agents)聽上去有點抽象,與這是一個舶來詞有關。

在英文語境中,Agents有多個角度的釋義,例如行使權力的人、實現結果的手段或工具,或被授權代表他人行事的人。所以如果換到國內的用語,可以考慮換個更容易理解的名字,例如「AI員工」、「AI代理人」等。

而提到「AI代理」,有必要與現在的「AI聊天機器人」區分開來。聊天機器人只能一問一答,有時還會說胡話;而「AI代理」則是用來處理特定任務的軟體,通常需要多個步驟、呼叫不同的工具。

例如訂機票,需要AI聯網查詢訂票網站的資訊,判斷最合適的航班,返回搜尋結果待確認後呼叫支付軟體付錢。

無論各家公司現在如何定義「代理」的含義,核心依然是在儘可能少的人類互動下完成既定工作。

總的來說,作為一個新興的趨勢,AI代理目前依然處於「缺陷比能力強」的階段。

AI代理可以不是單一的大型語言模型

麥格理美國證券研究部門的AI和軟體研究負責人Fred Havemeyer表示,大家需要記住一件事情是,「AI代理」恐怕不是一個單一的大型語言模型,而是需要一系列模型合作才能運作。他認為目前市面上不存在任何單一的大型語言模型能夠處理「代理」等級的任務。

Fred認為,最有效的代理可能是多個不同模型的不同集合,配有一個類似於監督者的路由層,將請求或提示傳送給最有效的模型。他希望未來能夠看到真正自主的「AI代理」能夠將抽象化的目標,轉化為完全獨立推理出的個體步驟。

對於AI初創企業,以及使用AI的商業機構而言,恐怕也只有在“AI能夠獨立上班”這個前提成立後,才有可能推出“每月2000美元的訂閱服務”。

最後,隨著科技巨頭們的「AI代理」已經呼之欲出,全世界的上班族更需要考慮自己的未來。

在一篇廣為流傳的反思部落格中,AI初創公司Anthropic的聯創達里奧·阿莫代伊提出,AI代理的出現,可能會為那些擁有AI無法複製的技能的員工帶來更高的報酬。

阿莫代伊表示:「事實上,即便AI在100%的事情上都能比人類做得更好,但如果AI在某些任務上依然效率低下或成本高昂,或者需要的資源投入有明顯差異,那麼比較優勢的邏輯對人類依然適用。」

他也表示:「從長遠來看,人工智慧將變得廣泛有效且非常便宜。到那時,我們現有的經濟結構將不再有意義,有關經濟該如何組織,社會將需要更廣泛的討論。」

 

 

加入T客邦Facebook粉絲團

被字節跳動提告索賠800萬人民幣的實習生,還沒開審卻先拿下NeurIPS 2024最佳論文

作者 36Kr
被字節跳動起訴索賠800萬的實習生 拿下NeurIPS 2024最佳論文98bdd3dcd1c12b84620ce15c5437ad20

先前我們報導過,字節跳動向北京市海淀區人民法院提起訴訟,控告一名前實習生田姓博士生篡改程式碼並攻擊公司內部模型訓練系統。不過,這起案件審判還沒開始,這位攻擊字節跳動訓練叢集的實習生田柯宇,現在傳出獲得了NeurIPS 2024的最佳論文獎。

被字節跳動提告索賠800萬人民幣的實習生,還沒開審卻先拿下NeurIPS 2024最佳論文

更巧的是,這篇獲獎論文,恰恰就是他在字節跳動商業化技術部門實習期間與團隊合作發表的。

甚至,這篇論文還是NeurIPS 2024第六高分的論文(7,8,8,8)。

被字節跳動提告索賠800萬人民幣的實習生,還沒開審卻先拿下NeurIPS 2024最佳論文

事情在網上曝出的時候,網友們都震驚了:太有戲劇性了,這是什麼短劇的大反轉劇情!

根據網友的說法,田柯宇的這篇論文也是今年中國國內第二篇NeurIPS Best Paper,含金量很高。在此之前,他就已經有多篇論文中稿頂會。

比如被引次數最多的“Designing BERT for Convolutional Networks: Sparse and Hierarchical Masked Modeling”,就是ICLR 2023的Spotlight。此外還有,NeurIPS 2021和2020的Poster,ECCV 2020的Poster。

被字節跳動提告索賠800萬人民幣的實習生,還沒開審卻先拿下NeurIPS 2024最佳論文

字節跳動商業化技術團隊早在去年就把視覺自回歸模型作為重要的研究方向,團隊規劃了VAR為高優項目,投入研究小組和大量資源。

除了VAR,團隊還發表了LlamaGen等相關技術論文,新的研究成果也將在近期陸續放出。

事件始末:惡意注入程式碼,投毒模型訓練

回看整件事情,可謂反轉又反轉。

兩個月前,圈內人都被這樣一條消息驚掉下巴:「字節跳動大型語言模型訓練被北大實習生攻擊,損失巨大」。

網友們扒出來,事情起因是這位北大高材生在字節跳動實習期間對團隊感到不滿,一氣之下選擇了「投毒」。

具體來說,他利用了Huggingface的load ckpt函數漏洞,craft了一個看似正常的ckpt檔案,但其實是加了payload進去,然後就可以遠端執行程式碼,修改參數了。

這種攻擊方式,可以通過修改或注入惡意程式碼,使模型在載入時被篡改模型權重、修改訓練參數或擷取模型資料。

根據大V“Jack Cui”猜測,這位實習生所用的大概就是這個方法,注入程式碼動態修改別人的optimer,修改參數梯度的方向,以及在各種地方隨機sleep了一小段時間。

修改梯度方向,意味著模型反向傳播過程中計算出的梯度被篡改,就導致模型一直朝錯誤的方向最佳化;而sleep操作,也會明顯降低模型訓練的速度。

甚至有人提到,該實習生可能修改了自己的預訓練模型,因為模型參數是用ckpt檔案保存的,其他人訓練時會載入這個注入惡意程式碼的ckpt檔案,因此也會導致模型訓練出問題。

就在全網歎為觀止之時,田本人卻出來「闢謠」稱這事和自己沒關係——他發完論文後已經從字節跳動離職了,此時有另一個人鑽了漏洞修改模型程式碼,然後趁他離職把鍋扣在他頭上。

結果一個多月後,此事再一次迎來反轉。

有媒體報導稱,法院已經正式受理字節跳動對前實習生田某某的起訴。

法院判令田某某賠償侵權損失800萬元及合理支出2萬元,同時要求其公開賠禮道歉。

字節跳動官方也澄清說,涉事實習生破壞的是團隊研究計畫,並不影響商業化正式計畫,也不涉及字節跳動大型語言模型等其他業務。

最終,這位實習生被字節跳動辭退,交由校方處理。

被字節跳動提告索賠800萬人民幣的實習生,還沒開審卻先拿下NeurIPS 2024最佳論文

北大深度學習高材生

資料顯示,田柯宇本科畢業於北航軟體學院,研究生就讀於北大,師從王立威教授,研究興趣為深度學習的最佳化與演算法。

自2021年起,開始在字節跳動實習研究,具體包括超參數最佳化、強化學習演算法、自監督的新型演算法。

被字節跳動提告索賠800萬人民幣的實習生,還沒開審卻先拿下NeurIPS 2024最佳論文

被字節跳動提告索賠800萬人民幣的實習生,還沒開審卻先拿下NeurIPS 2024最佳論文

這項研究中,他們提出了一種全新範式——視覺自回歸建模(Visual Autoregressive Modeling,VAR)。

被字節跳動提告索賠800萬人民幣的實習生,還沒開審卻先拿下NeurIPS 2024最佳論文

論文地址:https://arxiv.org/abs/2404.02905

與傳統的光柵掃描“下一個token預測”方法有所不同,它重新定義了圖像上的自回歸學習,採用粗到細的“下一個尺度預測”或“下一個解析度預測”。

這種簡單直觀的方法使得自回歸(AR)Transformer能夠快速學習視覺分佈,並且具有較好的泛化能力:VAR首次使得類似GPT的AR模型在圖像生成中超越了擴散Transformer。

被字節跳動提告索賠800萬人民幣的實習生,還沒開審卻先拿下NeurIPS 2024最佳論文

當前,自回歸模型(AR)主要用於語言模型從左到右、逐字順序生成文字token。同時,也用於圖像生成中,即以光柵掃描的順序從左到右,從上到下順序生成圖像token。

被字節跳動提告索賠800萬人民幣的實習生,還沒開審卻先拿下NeurIPS 2024最佳論文

不過,這些AR模型的scaling law未得到充分的探索,而且性能遠遠落後於擴散模型,如下圖3所示。

與語言模型所取得成就相比,電腦視覺中的自回歸模型的強大能力卻被“禁錮”了起來。

被字節跳動提告索賠800萬人民幣的實習生,還沒開審卻先拿下NeurIPS 2024最佳論文

而自回歸建模需要定義資料的順序,北大字節跳動團隊研究中重新考慮了如何“排序”圖像:人類通常以分層方式感知或建立圖像,首先捕獲全域結構,然後捕獲局部細節。

這種多尺度、由從粗到細的本質,為圖像提供了一種“秩序”。

同樣,受到廣泛使用的多尺度設計的啟發,研究人員將圖像的自回歸學習定義為圖2(c)中的“下一個尺度預測”,不同於傳統圖2(b)中的“下一個token的預測”。

VAR方法首先將圖像編碼為多尺度的token對應,然後,自回歸過程從1×1token對應開始,並逐步擴展解析度。

在每一步中,Transformer會基於之前所有的token對應去預測下一個更高解析度的token對應。

由此,研究人員將此稱為視覺自回歸建模(VAR)。

VAR包括兩個獨立的訓練階段:在圖像上訓練多尺度VQVAE,在token上訓練VAR Transformer。

第一階段,多尺度VQ自動編碼器將圖像編碼為K個token對應R=(r_1,r_2,…,r_K),並通過復合損失函數進行訓練。

第二階段,通過下一尺度預測對VAR Transformer進行訓練:它以低解析度token對應 ([s],r_1,r_2,…,r_K−1)作為輸入,預測更高解析度的token對應 (r_1,r_2,r_3,…,r_K)。訓練過程中,使用注意力掩碼確保每個r_k僅能關注 r_≤k。訓練目標採用標準的交叉熵損失函數,用於最佳化預測精度。

被字節跳動提告索賠800萬人民幣的實習生,還沒開審卻先拿下NeurIPS 2024最佳論文

田柯宇團隊在ImageNet 256×256和512×512條件生成基準上測試了深度為16、20、24和30的VAR模型,並將其與最先進的圖像生成模型家族進行比較,包括生成對抗網路(GAN)、擴散模型(Diff.)、BERT 風格的掩碼預測模型(Mask.)和 GPT 風格的自回歸模型(AR)。

在ImageNet 256×256基準測試中,VAR顯著提高了AR基準性能,將Fréchet Inception距離(FID)從18.65降低到1.73,Inception得分(IS)從80.4提高到350.2,同時推理速度提高了20倍。

被字節跳動提告索賠800萬人民幣的實習生,還沒開審卻先拿下NeurIPS 2024最佳論文

如上表所示,VAR不僅在FID/IS上達到了最佳成績,還在圖像生成速度上表現出色。VAR還保持了良好的精度和召回率,證明了其語義一致性。

這些優勢在512×512合成基準測試中同樣得到了體現。

被字節跳動提告索賠800萬人民幣的實習生,還沒開審卻先拿下NeurIPS 2024最佳論文

實驗證明,VAR在多個維度上超越了擴散Transformer(DiT),包括影像品質、推理速度、資料效率和可擴展性。

VAR模型的擴展表現出了類似於大型語言模型(LLM)的清晰冪律縮放規律,線性相關係數接近−0.998,這提供了強有力的證據。

被字節跳動提告索賠800萬人民幣的實習生,還沒開審卻先拿下NeurIPS 2024最佳論文

VAR還在下游任務中展示了零樣本泛化能力,包括圖像修復、圖像外延和圖像編輯等。

被字節跳動提告索賠800萬人民幣的實習生,還沒開審卻先拿下NeurIPS 2024最佳論文

這些結果表明,VAR初步模仿了大型語言模型的兩個重要特性:縮放規律和零樣本泛化能力。

田柯宇團隊已在GitHub上發佈了所有模型和程式碼,現已斬獲4.4k星。

被字節跳動提告索賠800萬人民幣的實習生,還沒開審卻先拿下NeurIPS 2024最佳論文

專案網址:https://github.com/FoundationVision/VAR

 

 

 

 

加入T客邦Facebook粉絲團

NVIDIA、台積電、英特爾三巨頭,誰會是後摩爾定律的繼承者?

作者 36Kr
摩爾定律放緩 晶片巨頭集體碰壁6798c5f734b66170fb59dd5101adbf85

1965 年 4 月,《電子學》雜誌發表了英特爾聯合創始人戈登·摩爾的一篇文章,其中指出:積體電路上可容納的電晶體數目,約每隔兩年便會增加一倍。這篇文章及其預測自此成為傳奇,與大多數傳奇一樣,它在講述和複述中經歷了多次變化。媒體抓住了文章中關於半導體技術將開啟電子內建新時代的論點,並將其提煉成多年來以多種形式呈現的格言。然而,無論以何種形式呈現,它始終被賦予同一個名字:摩爾定律。

誰是摩爾定律最忠實的守護者?這個問題放在十年前,答案几乎是唯一的,除了戈登·摩爾聯合創辦的英特爾,又有誰能擔得起這項責任呢?

自1968年成立以來,英特爾一直與「縮小」一詞密不可分。在最初的四十年內,這是一種高度讚揚。大約每兩年,這家美國晶片先鋒就會推出比前代體積減半的新型電晶體,更多的晶片能夠裝在幾乎相同的矽片上,並以幾乎相同的價格有利可圖地出售。這使得英特爾在記憶體晶片市場佔據了主導地位,而當「記憶體」在20世紀80年代商品化後,它又主導了推動PC革命的微處理器市場。

但在十年後的今天,答案早已不唯一,摩爾定律的信徒越來越少,而英特爾也早已不是晶片產業的先鋒,在連續兩次災難性的季度財報之後,英特爾市值已從1月份的超過2100億美元萎縮至840億美元,甚至低於其工廠和裝置的價值,可以說在這家公司的幾十年歷史中,還從未有過如此艱難的時刻。

新的問題來了,誰能真正繼承摩爾定律呢?

文章目錄

輝達NVIDIA:並行計算才是未來

NVIDIA似乎一直不認可由英特爾創始人提出的摩爾定律。

早在2010年,NVIDIA首席科學家兼研究高級副總裁Bill Dally 在《富比士》的一篇專欄文章中就強調了摩爾定律已死,他表示,平行計算才是未來半導體行業發展的未來。

他認為,摩爾定律預測的 CPU 縮小現在已經不復存在,CPU 性能不再每 18 個月增加一倍。這對許多依賴計算性能歷史性增長的行業構成了嚴重威脅。

公共機構需要更多的計算能力來預測危險的天氣事件並分析長期氣候變化;能源公司需要評估大量的地震和地質資料,以找到從現有儲備中安全開採石油和天然氣的新方法;製藥研究人員需要增強計算能力來設計與特定細胞受體結合的藥物分子;臨床腫瘤學家需要更好、更快的醫學成像來診斷癌症並確定治療方法;心臟外科醫生希望即時直觀地評估受損組織,以確保他們的手術有效。

他表示,行業迫切需要並行計算(Parallel Computing ),是指同時使用多種計算資源解決計算問題,在過程中讓許多指令同時進行的一種運算模式。它的一個基本優勢是可以有效地將更多電晶體轉化為更高的性能,處理器數量增加一倍可使許多程式的運行速度提高一倍,相比之下,序列 CPU 中電晶體數量增加一倍只能帶來非常有限的性能提升——而能耗卻非常高。

更重要的是,並行計算(如圖形處理單元或 GPU)能夠在當今能源受限的環境中持續拓展運算性能。每三年,NVIDIA可以將電晶體(和核心)的數量增加四倍。透過稍微降低每個核心的運行速度,從而提高效率,NVIDIA可以在相同的總功率下將性能提高三倍以上。

簡單概括來說,英特爾代表的CPU已經不是計算的未來,NVIDIA代表的GPU才是真正的未來,在當時來看,是非常激進非常有意思的一個觀點。

多年之後,在加州聖何西舉辦的2018年GPU技術大會(GTC)上,NVIDIA首席執行長黃仁勳登台演講之際,再次以自己的方式否認了一遍摩爾定律,他反覆強調,由於技術的極端進步,GPU正遵循一條屬於自己的法則。

「現在有一條新的法則,」他說,「一條超級加速的法則。」而這條法則被後續追認為黃氏定律。

GPU技術進步的速度有多快呢?在黃仁勳的主旨演講中,他指出,如今NVIDIA的GPU比五年前快了25倍。如果按照摩爾定律的發展速度,它們的速度只會增加10倍。

他隨後透過另一個基準來說明GPU性能的提升:訓練AlexNet的時間。AlexNet是一個使用1500萬張圖片進行訓練的神經網路。他說,五年前,使用兩塊NVIDIAGTX 580顯示卡完成這一訓練過程需要六天;而使用公司最新的硬體DGX-2,現在只需18分鐘——快了500倍。

黃仁勳明確指出,GPU需要一條自己的法則的原因在於:它們受益於多方面的同步進步:架構、互連、儲存技術、演算法等。「創新不僅僅在於晶片,」他說,「而是在整個技術堆疊上。

NVIDIA、台積電、英特爾三巨頭,誰會是後摩爾定律的繼承者?

而自2018年以來,黃仁勳一直重申他的觀點,認為摩爾定律已經走到了盡頭,經常將這一概念稱為「已死」,並在今年早些時候告訴《連線》雜誌:「我們必須拋棄摩爾定律,這樣我們才能思考新的擴充方法。」

黃氏定律並沒有描述的那麼好

但是,有意思的事情來了。

他極力推崇的黃氏定律並不像描述的那麼美好,甚至是一種較為抽象的概念,黃仁勳並未提出一條有具體數字可循的定律,而NVIDIA首席 科學家兼研究高級副總裁Bill Dally後續表示,從 2012 年 11 月到2020年 5 月,NVIDIA晶片在重要的AI 運算領域的性能提升了 317 倍,平均每年提升一倍以上,Open AI 則表示,基於經典的人工智慧圖像辨識測試,性能大約每一年半就會增加一倍。

總而言之,黃氏定律在NVIDIA的宣傳中,比兩年翻一倍的摩爾定律更快,甚至在最近探討資料中心未來發展時,黃仁勳又重申了摩爾定律已經終結的觀點。他認為,在未來10年中,現代化資料中心將會加速發展,並變得更加密集、節能。傳統的每五年翻倍的速度已經結束,而大家所期待的每10年翻倍的情況也變得越來越困難。

摩爾定律確實已經放緩,但黃氏定律能否取代它還要打一個大大的問號。

事實上,NVIDIA的大部分性能改進都與節點轉換密切相關。NVIDIA近期曾兩次在沒有節點轉換的情況下顯著提高了性能——第一次是從 Kepler 到 Maxwell,第二次是從 Volta 到 Turing。儘管NVIDIA擅長從同一節點搾取額外的性能,但也可以看到新工藝節點對NVIDIA整體性能的重要性。

事實上,所謂的黃氏定律在相當程度上是由摩爾定律來推動的,如果沒有電晶體密度的提升,就不會有更強大的GPU性能。如果摩爾定律遇到麻煩——無論是在電晶體縮放方面還是在定義不明確的性能改進方面,黃氏定律也會遇到麻煩,隨著節點轉換效益的下降,AI性能提升的速度也會放緩,而這也正是黃仁勳和NVIDIA自己在近兩年鮮少提及自己定律的原因。

另外,摩爾定律並不只是代表著電晶體密度的不斷提升,其更大的意義在於以更低的價格獲取更強大性能的晶片。簡單來說,如果在相同面積的晶圓下生產同樣規格的IC,隨著製程技術的進步,每隔一年半,IC產出量就可增加一倍,換算為成本,即每隔一年半成本可降低五成,平均每年成本可降低三成多,而這也正是消費電子市場持續繁榮的關鍵之一。

那麼NVIDIA的黃氏定律呢?非營利研究機構 Epoch 發現,2006 年至 2021 年間,GPU 性價比(以 FLOPS/$ 為單位)每 2.5 年增加一倍,比黃氏定律此前預測的要慢得多。

Epoch使用 2006 年至 2021 年發表的 470 個圖形處理單元 (GPU) 模型的資料集,發現每秒每美元的浮點運算量(以下稱為每美元 FLOP/s)每約 2.5 年增加一倍。對於任何時間點的頂級 GPU,發現改進速度較慢(每美元 FLOP/s 每 2.95 年增加一倍),而對於通常用於 ML 研究中 GPU 模型,發現改進速度更快(每美元 FLOP/s 每 2.07 年增加一倍)。

從這一角度來看,黃氏定律或許是AI行業的福音,但這與讓整個半導體行業受惠的摩爾定律有著非常大的差別。因此,NVIDIA並不是繼承摩爾定律的那一家公司。

台積電:極力延續摩爾定律

巧的是,幫NVIDIA代工晶片的台積電,倒是對延續摩爾定律表現出了很大興趣。

早在1998年,台積電董事長張忠謀曾表示,摩爾定律在過去30年相當有效,未來10到15年應依然適用,他表示,半導體產業的特性是「山重水復疑無路」,但一個真相,卻是「柳暗花明又一村」。

而在2019年的Hot Chips 會議上,台積電研究副總裁黃漢森(Philip Wong更是在演講中強調,摩爾定律不僅仍然有效,而且只要採用正確的技術手段,它在未來三十年內仍將有效。

「它沒有死,」他告訴與會者,「它沒有放慢腳步,它甚至沒有生病。」

在黃漢森看來,維持摩爾定律的唯一重要因素是不斷提高密度。儘管他承認時脈速度隨著登納德縮放定律的消亡而趨於穩定,但電晶體密度將帶來更好的性能和能源效率。

據黃漢森稱,只要公司能夠繼續在更小的空間內提供更多電晶體並提高能效,這才是最重要的。短期內,這很可能以傳統方式實現,即透過改進 CMOS 工藝技術,以便製造具有較小柵極長度的電晶體。

而長期來看,二維縮放的放緩也不意味著密度的終結。他指出,即使在 Dennard 縮放定律終結之後,半導體製造領域也出現了許多創新,使密度保持上升趨勢,特別是,應變矽和高 k 金屬柵極技術的使用,隨後是引入 3D 結構的 FinFET。

黃漢森也強調了封裝對於摩爾定律延續的重要性,短期內可以靠2.5D封裝(事實上如今已經在大規模使用),而長期來看,真正的 3D 封裝技術會帶來晶片密度的繼續提升。

在黃漢森,台積電不止一次強調了自己的主張:摩爾定律是一種象徵,作為代工廠的它可以不完全遵循這一定律,但台積電一直在追逐這一定律所指明的方向。

NVIDIA、台積電、英特爾三巨頭,誰會是後摩爾定律的繼承者?

2024年7月,在接受 TechTechPotato 的Ian Cutress 採訪時,台積電工藝技術負責人張曉強(Kevin Zhang)博士表示,只要整體進展順利,他並不關心摩爾定律。

「好吧,我的答案很簡單——我不在乎,」張曉強說,「只要我們能繼續推動技術拓展,我不在乎摩爾定律是否還存在。」

他表示:「(觀察家們)狹隘地基於二維縮放來定義摩爾定律,但這種情況已不復存在。看看我們行業的創新炒作,我們實際上仍在繼續尋找不同的方法,將更多功能和能力內建到更小的外形尺寸中。我們繼續實現更高的性能和更高的能效。因此從這個角度來看,我認為摩爾定律或技術縮放將繼續下去。」

當被問及台積電在漸進式工藝節點改進方面取得的成功時,他澄清說,他們的進步絕非微不足道。台積電強調,該代工廠從 5nm 到 3nm 級工藝節點的過渡使每代 PPA 改進超過 30%,未來會繼續在主要節點之間進行較小但持續的改進,以使客戶能夠從每一代新技術中獲益。

台積電和NVIDIA對於摩爾定律持有兩種截然不同的態度,前者盡全力想要延續下去,而後者卻在不斷否認。

那麼,到底誰才是對的那一位呢?不妨先來看看最初摩爾定律的發明者怎麼說。

英特爾:全力押注18A

與處在上升期的台積電不同的是,英特爾這兩年的的確確在走下坡路,但它似乎從未放棄延續摩爾定律的嘗試。

自2021 年上任 CEO以來,英特爾(前)CEO基辛格就一直強調摩爾定律「依然健康」,他甚至表示,英特爾至少在 2031 年之前可以超越摩爾定律的速度,並推動「超級摩爾定律」,即利用Foveros 等 2.5D 和 3D 晶片封裝技術來增加電晶體數量。

2023年12月,在麻省理工學院的演講中,基辛格被問及摩爾定律可能終結的問題,他表示「我們不再處於摩爾定律的黃金時代,現在的難度要大得多,所以我們現在可能每三年就會增加一倍,所以我們肯定看到了放緩。」

基辛格同時強調,儘管摩爾定律似乎放緩,但英特爾到 2030 年仍能製造出 1 兆個電晶體的晶片,今天單個封裝中最大的晶片擁有約 1000 億個電晶體。這位首席執行長表示,有四個因素使這一目標成為可能:新的 RibbonFET 電晶體、PowerVIA 電源傳輸、下一代工藝節點和 3D 晶片堆疊。他在回答結束時說:「對於所有宣稱我們已死的批評者來說……除非元素週期表耗盡,否則我們還沒有完工。」

NVIDIA、台積電、英特爾三巨頭,誰會是後摩爾定律的繼承者?

而在今年的台北國際電腦展上,英特爾的主題演講更是以人工智慧重現聯合創始人戈登·摩爾重複其最著名的名言之一開場:「任何已經做過的事情都可能被超越。」這是英特爾在追求微晶片霸主地位過程中發出的戰鬥口號,也是摩爾定律的象徵之一。

在演講中,基辛格回顧了 1981 年英特爾 80286(一款包含 10 萬個電晶體的 16 位微處理器)的問世,並強調現代晶片正在尋求容納十億個電晶體,預計到 2020 年,這個數字將達到一兆。

「與黃仁勳讓你相信的不同,摩爾定律依然有效」,基辛格說道,他強調,作為領先的 PC 晶片提供商,英特爾將在AI 的普及中發揮重要作用。

倘若說台積電只是在摩爾定律上拼盡全力的話,英特爾似乎是為此壓上了自己的身家性命。

儘管英特爾近兩個季度表現非常差,甚至於部分晶片都交給了台積電來代工,但它仍然沒有放棄當初的設想,再次強調了在技術規畫藍圖中無數次出現的18A節點。

讓我們回顧一下技術細節,18A 是英特爾加速重回技術領先地位的規畫藍圖中排名第五的生產工藝。英特爾 7 已經在 Alder Lake 和 Raptor Lake CPU 中出現,而英特爾 4 剛剛在去年年底隨著 Meteor Lake 晶片問世,已被放棄的20A,原計畫Arrow Lake CPU 系列一起推出,而18A 節點預計將於 2025 年正式推出。

據瞭解,首批採用 18A 工藝技術的產品將是代號為Panther Lake 的客戶端 PC 處理器和 Clearwater Forest 的資料中心處理器。此外,英特爾代號為 Diamond Rapids 的 CPU 也將使用此節點。在外部客戶中,微軟確認計畫將其用於處理器 ,美國國防部也將在其晶片中使用它,英特爾預計到 2025 年中期將有 8 個 18A 下線(Tapeout),包括內部和外部產品。

「我把整個公司都押在了 18A 上。」基辛格表示,一切都取決於英特爾的 18A 工藝,這是公司有史以來最大的賭注,因為它也給英特爾的財務帶來了巨大的壓力。

事實上,我們已經看到英特爾為了18A節點所付出的代價:糟糕的季度財報,一瀉千里的股價,別說NVIDIA了,就連美國高露潔這家生產牙膏的公司市值都比英特爾來得高。甚至,到了現在連基辛格本人都已經宣告退休。

在很多人看來,英特爾現在是一個鼻青眼腫的拳擊手,18A就是它揮出的最後一拳。

但值得慶幸的是,摩爾定律最初的守護者,依舊想要延續而不是否認它。

誰是摩爾定律真正的繼承者?

這個問題短時間內不會有看到答案的可能性,NVIDIA、台積電和英特爾誰才是正確的一方,我們同樣沒辦法立馬給出答案。

但可以確定的是,只有最堅定的信念,才能笑到最後,亦如當年英特爾果斷放棄記憶體,投身於微處理器的賽道一樣,半導體行業唯一能夠相信的,唯有真正先進的技術。

 

加入T客邦Facebook粉絲團

開發者炮轟ChatGPT、Claude等模型版本越更新卻越變笨:用垃圾文當訓練資料,只能產生垃圾模型

作者 36Kr
開發者火冒三丈炮轟GenAI:垃圾語料太多,模型正在變得越來越笨752f827510873d7d7722fd6d57d732d4

生成式AI(GenAI),尤其是以OpenAI的ChatGPT為代表,人們發現,這些大型語言模型在一年多後的性能表現遠不及剛發佈時那樣令人驚豔了。

「AI似乎正在變得越來越笨。」這種聲音逐漸出現在各個社群網路的平台上,並有許多擁躉。

在OpenAI開發者論壇上,有使用者發帖表示:自從去年最新版本的GPT發佈後,模型的精準性就顯著下降了。

同樣的,一位ChatGPT的使用者在今年6月寫道,「經歷了這麼多的AI炒作之後,這些模型如今的表現讓我非常失望。」

Steven Vaughan-Nichols是一位自由撰稿人和技術分析師,在多家科技媒體中擔任高級特約編輯。他擁有自己的個人部落格,在X上擁有數萬名訂閱者。

今年8月下旬,史蒂文在《Computerworld》的一篇言辭激烈的評論文章《I’ve got the genAI blues》中表示:「所有主要的公眾可使用的AI模型,像ChatGPT和Claude這樣的品牌旗艦產品——其性能都不如以前的版本。」

他在文章中寫道,「這些由AI生成的結果常常令人惱火。它們有許多荒謬的錯誤,更糟糕的是,這些錯誤的出現總是反反覆覆,沒完沒了。」

「如果只是答案平庸但相對準確,我還可以想辦法應對。但它生成的內容讓我無能為力。」

史蒂文指出,這些AI模型在處理使用者不熟悉的主題時,往往能生成看似合理的答案,但只要深入探究,就會發現其中充斥著錯誤。他以自身在Linux和開源軟體領域的專業知識為例,強調AI模型在處理這些專業領域問題時,所提供的資訊往往片面且不準確。

在使用生成式AI對這些主題進行研究時,AI能給出的回答乍一眼看上去可能不錯,但你越深入的去討論一些細節時,它能給出的資訊就越貧乏。

這些由AI生成的結果常常令人惱火。它們有許多荒謬的錯誤,更糟糕的是,這些錯誤的出現總是反反覆覆,沒完沒了。

如果你對內容的需求僅在高中水平,模型生成的答案還算過得去。但當你需要深入挖掘或研究某個主題時,那就另當別論了。

不僅史蒂文有此發現,《商業週刊》也曾報導,許多GPT-4使用者發現模型的表現越來越差,變得「懶」且「愚蠢」。Reddit上的使用者也表達了類似的觀點,認為ChatGPT的效能遠不如以往。「現在ChatGPT 3和4的效果遠不如我一年前訂閱專業版時那麼有效和有幫助。」

為什麼大型語言模型的品質越來越差?

史蒂文分析了造成這一現象的兩個主要原因:

  • 訓練資料品質下降: 許多AI模型的訓練資料來自於Twitter、Reddit等社交媒體平台,這些平台上的資訊良莠不齊,甚至包含大量錯誤訊息。隨著AI模型不斷學習這些低品質的資料,其生成內容的準確性也隨之降低。
  • 模型退化: 由於AI模型不斷從其他AI模型生成的內容中學習,導致模型出現「模型崩潰」的現象,即模型逐漸忘記真實的資料分佈,生成內容的品質越來越差。

首先是用於建立主要大型語言模型的內容品質問題。

許多模型的訓練集中包含了來自諸如Twitter、Reddit以及4Chan等「優質」網站的資料。但是正如Google在今年早些時候發佈的AI Overview所顯示的那樣,採用這些資料集對AI進行訓練的結果可能會非常糟糕。

《麻省理工科技評論》同樣指出,現在的AI會生成一些品質極差的答案。如果你只是想用生成式AI閒聊(這似乎是ChatGPT最流行的用途之一),那麼準確性可能對你並不重要。

但對於所有希望將AI用於商業的人來說,正確答案才是最重要的。隨著生成式AI巨頭繼續尋找更多資料,這個問題只會變得更糟。而來自Epoch AI的一項研究發現,我們最早可能將在2026年耗盡高品質資料。

這就引出了第二個問題。

如今,生成式AI生成的內容正在取代專家級人類產生的內容。結果不僅僅是劣質資料排擠了優質資料,情況還要更為糟糕。

《自然(Nature)》的最近的一篇論文發現,「不加區分地從其他模型生成的資料中學習會導致‘模型崩潰’。這是一種退化過程,隨著時間的推移,即使分佈沒有隨時間變化,模型也會忘記真正的底層資料分佈。」

通常來說,軟體的新版本應該比它們所取代的版本更好。但是現在的趨勢似乎並非如此,由於目前看來並沒有停止使用生成式AI以更低的成本來生成文件的趨勢,因此未來充斥在網路中的內容品質只會繼續下降。

因此,史蒂文語重心長的表示:「不管你信不信,就品質而言,我們可能已經處於人工智慧的頂峰。」

 

 

 

 

加入T客邦Facebook粉絲團

從巨人電腦到超級AI,資料中心百年進化之路大公開!核能、太陽能誰能贏得AI資料中心青睞?

作者 36Kr
人工智慧的發展如火如荼,但人工智慧的發展越來越離不開龐大算力的支撐,本文將介紹關於AI資料中心的一些基礎知識。1818e573a3b551b108b06e1e590c7100

目前美國這一波運算基礎設施的建設,算是史上規模最大之一了。 

100多年前,我們見證了類似電網這樣的建設(諷刺的是,這正是當今美國基礎設施建設的瓶頸)。在電網建立初期,我們目睹了電廠的規模化(將電廠建得盡可能大以提高性能)、「天文數字般」的資本支出(CapEx)投資,以及電力成本的急劇下降。 

現如今,我們正目睹資料中心的規模化、超大規模雲端運算公司的巨額資本支出,以及AI運算成本的急劇下降:

從巨人電腦到超級AI,資料中心百年進化之路大公開!核能、太陽能誰能贏得AI資料中心青睞?

本文的關注重點是構建AI專用資料中心所需的基礎設施。 

AI資料中心簡介

「資料中心」這個詞沒法完全形容這些「AI工廠」的龐大規模。最大型的資料中心在土地、電力和冷卻設備、建設成本、GPU和其他運算基礎設施方面的花費可達數十億美元。 

這還沒包括能源的成本。新的、最大型的超大規模資料中心消耗的電力高達1GW。要知道,紐約市的用電量也才是5.5GW。也就是說,每五個這樣的超級資料中心,就等於為電網增加一個紐約市的用電負擔。 

資料中心的價值鏈大致可分為幾個部分:資料中心的初始建設、支援資料中心的工業設備、資料中心的運算基礎設施,以及為資料中心供電的能源。此外,還有一些公司擁有或租賃資料中心,為消費者提供最終服務。

AI資料中心價值鏈

在深入研究之前,我們應該瞭解一點資料中心的歷史。 

資料中心簡史

資料中心很大程度上是伴隨著電腦和網際網路而崛起的。以下介紹部分趨勢的歷史概覽以及我們是如何走到今天這一步的。 

資料中心的早期歷史

最早期的運算模式跟今天的資料中心類似:有一台集中式的電腦,主要是用來解決運算密集型任務以及關鍵任務。 

這裡是兩個早期的例子: 

  1. 巨人電腦(Colossus):由艾倫·圖靈(Alan Turing)為破解Enigma機而建造的電腦。(注:圖靈還被認為是人工智慧和電腦科學之父。他提出了圖靈測試,用來測試AI是否具有真正的智慧,去年ChatGPT通過了這一測試)。 
  2. ENIAC:由美國軍方在二戰期間設計的電腦,但直到1946年才完成。儘管巨人電腦早於ENIAC建成,但由於巨人電腦的機密性,ENIAC通常被視為第一台電腦。 

兩者都位於可以被視為「最早的資料中心」的設施內。

從巨人電腦到超級AI,資料中心百年進化之路大公開!核能、太陽能誰能贏得AI資料中心青睞?

1950年代,IBM崛起並統治了運算領域,該公司推出了大型電腦,從而引領了其在科技領域的數十年主導地位,而AT&T是當時另一家佔據主導地位的科技公司。 

1969年,ARPANET發佈,這個網路的目標是連接美國日益增多的電腦。ARPANET現在被認為是網際網路的早期版本。由於是政府專案,所以其最密集的連接位於華盛頓特區附近。 

全球50大資料中心(按耗電量)

網際網路與雲端運算的崛起

在1990年代,隨著網際網路的發展,我們需要越來越多的物理基礎設施來處理急劇增長的網際網路資料流程量,其中的一部分需求透過作為連接點的資料中心來滿足。像AT&T這樣的電信公司已經建立了通信基礎設施,資料中心業務的擴展對它們來說是順理成章的事情。 

不過,在資料傳輸方面,這些電信公司的關係跟當前垂直整合的雲服務提供者的「競合」有點類似。AT&T既擁有其基礎設施上傳輸的資料,也擁有傳輸該資料的設備。所以,在傳輸容量有限的情況下,AT&T會優先傳輸自身的資料。其他公司對此很警惕,所以後來才有了Digital Realty與Equinix等資料中心公司的崛起。 

在網路泡沫期間,資料中心獲得了大量投資,但隨著泡沫破裂,這種增長顯著放緩(這也是我們在推測未來資料時應謹記的教訓)。

從巨人電腦到超級AI,資料中心百年進化之路大公開!核能、太陽能誰能贏得AI資料中心青睞?

 

直到2006年,隨著AWS的發表,資料中心需求才逐漸恢復增長。從那時起,美國的資料中心規模便保持著穩定的增長。

從巨人電腦到超級AI,資料中心百年進化之路大公開!核能、太陽能誰能贏得AI資料中心青睞?

AI資料中心的崛起

這種穩步的增長一直持續到2023年,這一年AI熱潮席捲全球。據估算,到2030年資料中心的容量將會增加一倍(需謹記,這只是估算)。

從巨人電腦到超級AI,資料中心百年進化之路大公開!核能、太陽能誰能贏得AI資料中心青睞?

 

訓練AI的工作負載引發了對資料中心規模的新關注。運算基礎設施之間的距離越近,性能表現越好。此外,當資料中心被設計成運算單元而不僅僅是裝伺服器的設施時,公司還可以獲得額外的整合收益。 

最後,由於AI訓練不需要靠近終端使用者,所以資料中心可以建在任何地方。 

總結一下,當今的AI資料中心關注規模、性能和成本,並且幾乎可以建在任何地方。 

AI資料中心的建設要素

建設AI資料中心

運算提供商(超大規模提供商、AI公司或GPU雲端提供商)要嘛自己建造資料中心,要嘛跟Vantage、QTS或Equinix等資料中心開發商合作,去找到電力充足的土地。 

然後,他們會雇用總承包商管理建設過程,總承包商則會再雇幾家分包商負責各個功能(如電力、管道、暖通空調等)並採購原材料。專案期間,工人會遷移到該區域。在大樓主體結構完成後,下一步就是安裝設備。

從巨人電腦到超級AI,資料中心百年進化之路大公開!核能、太陽能誰能贏得AI資料中心青睞?

資料中心的工業設備可以大致分為電力設備和冷卻設備。電力設備從主開關設備開始,這是用來連接外部電源的,然後連接到配電單元、不斷電供應系統(UPS)以及連接伺服器機架的電纜。大多數資料中心還會備有柴油發電機,以備停電的不時之需。 

第二類是機械和冷卻設備,包括冷水機、冷卻塔、暖通空調設備以及連接到伺服器的液體或空氣冷卻系統。 

AI資料中心的運算設備

運算基礎設施包括運行AI訓練和推理工作負載的設備。主要設備是GPU或加速器。除Nvidia、AMD及超大規模提供商外,眾多新創公司也在爭奪AI加速器的市場占有率。 

半導體新創企業融資情況

 

雖然CPU的重要性已不如從前,但它們在完成複雜操作和任務分配方面仍發揮著重要作用。存放裝置用於存放晶片之外的資料,而記憶體則用來儲存需頻繁存取的資料。網路負責連接所有元件,包括伺服器內外部的連接。 

最後,這些設備將被安裝在資料中心的伺服器內。

從巨人電腦到超級AI,資料中心百年進化之路大公開!核能、太陽能誰能贏得AI資料中心青睞?

為AI資料中心提供能源

能源供應鏈可分為以下幾個部分: 

  1. 能源來源──化石燃料、可再生能源和核能,能夠產生電力的能源。 
  2. 發電──發電廠將化石燃料轉化為電能;而可再生能源則在更接近能源源頭的地方發電。 
  3. 輸電──電力透過高壓線路傳輸至目的地附近。變壓器和變電站會將高壓電力降低到適合消費的電壓。 
  4. 公用事業/配電──公用事業公司管理最後一公里的配電,並透過電力購買協議(PPA)管理電力輸送。

從巨人電腦到超級AI,資料中心百年進化之路大公開!核能、太陽能誰能贏得AI資料中心青睞?

 

通常所謂的「電網」就是指傳輸和配電系統,由地方管理。根據位置不同,這兩處都可能成為電力傳輸的瓶頸。 

能源成為AI資料中心擴展的關鍵瓶頸。 

電力擴容並不容易,資料中心有兩種選擇:併網與離網。併網是通過電網輸電,由公用事業公司分配。離網則繞開電網,比如現場用太陽能、風能和電池發電。更理想的情況是,在2.5 GW的核電站旁邊建一座GW級資料中心! 

併網的問題是電力擴容需要時間。下圖顯示了從源頭申請電量到實際投入使用所需的等待時間。 

拿到開工許可的時間(月數)越來越長

解決這些挑戰不可避免需要採用多種組合方案。我們會在最後一節進一步討論。 

AI資料中心的新特點

新一代的資料中心在規模、密度、速度和能耗方面都有顯著提升。 

「超大規模」資料中心不是什麼全新概念。幾乎每隔幾年,就會有關於資料中心規模擴大的報導,從2001年的幾兆瓦到2010年代的50兆瓦,再到2020年的「巨型120兆瓦」資料中心,如今則發展到了數吉瓦(註: 1 吉瓦等於 10 億瓦特)的超大規模。 

這些吉瓦級資料中心不僅規模大,密度也更高,這樣的系統要按照系統角度來設計。其核心問題在於摩爾定律放緩,也就是半導體在電晶體密度方面的性能提升難度逐漸增加了。因此,解決之道是將伺服器,甚至將整個資料中心的組件儘量整合在一起。 

實際上,這意味著資料中心被設計成一個整合系統,而不是由單太伺服器組成的機房。這些伺服器也要被設計成緊密結合的整合系統。 

所以NVIDIA也賣伺服器和POD系統,所以超大規模公司要建設系統級的資料中心,同時這可能也解釋了AMD要做出收購ZT系統的戰略選擇。 

看看NVIDIA的DGX H100系統,它既可作為單獨的伺服器使用,也可連接至其他GPU形成POD,甚至可連接至SuperPOD來增加連接數量:

從巨人電腦到超級AI,資料中心百年進化之路大公開!核能、太陽能誰能贏得AI資料中心青睞?

NVIDIA還引領了「加速運算」趨勢,也就是將任務從CPU轉移出去,從而提升GPU、網路以及軟體等元件的作用。 

此外,AI的獨特需求要求處理大量資料,所以資料儲存能力(記憶體/儲存)和快速傳輸大量資料(網路)變得至關重要。這就像心臟要泵血一樣,GPU就是心臟,而資料是血液(所以Google TPU架構又被叫做「脈動陣列」)。 

所有這些趨勢共同構成了全球最強大的運算設備。這種運算能力帶來了更大能耗、更大的熱量產生以及對每個伺服器更高的冷卻需求。隨著我們對運算能力需求的增加,這種能耗只會越來越大。

最先進設備雖然耗電更大,但能效比是提高的

瓶頸與受益者

以下列舉了會從中受益的名單(不詳盡),以及部分目前備受關注的領域。從建設變壓器的技術工人短缺,到許可流程的自動化,各方面都存在瓶頸,整個供應鏈都很緊張。 

電網擴容還是繞開電網

顯然,為支援此次擴充,能源基礎設施需要提升。幾乎每家科技公司都更傾向用併網的方式:這種方式更可靠且管理方便。不過,如果併網電力不可用,超大規模公司會考慮自給自足。比方說,AWS正在印第安那州投資110億美元設立一個資料中心園區,建設四個太陽能發電場和一個風力發電場(600兆瓦)來為資料中心供電。 

從中長期看,我對兩種能源瓶頸階級方式最為樂觀:核能與電池。這兩者都可以為資料中心提供更具可持續性的能源來源。 

核能的優點眾所周知:清潔且穩定。不過,如何經濟可行地建設核能是一大挑戰,目前一些極具潛力的新創企業正在解決這一難題。 

長時電池的創新會是可再生能源發展的重要一步。太陽能和風能的不足在於其間歇性,只有在風力或日照充足時才能發電。透過儲存多餘電力,在電力短缺時釋放能量,長時電池可以緩解這一問題。 

建設許可與液體冷卻技術

在工業領域,兩種趨勢尤其值得關注:許可管理的自動化以及液體冷卻技術。很多人反映,拿到開工許可是擴容的瓶頸之一。 

要想對資料中心和電力擴容,開發商需要拿到建築、環境、城區、雜訊等方面的許可,還可能需要地方、州以及國家各級機構的批准。此外,他們還需應對各地的優先購買權法律規定。在能源基礎設施領域,這個流程更加複雜。許可管理軟體公司如PermitFlow等在緩解這些問題方面大有可為。 

AI資料中心的新一代技術的顯著區別之一是伺服器產生的熱量增加。因此,新一代資料中心將採用液體冷卻技術,而下一代可能會採用更為先進的浸入式冷卻技術。 

向運算公司脫帽致敬

我們不得不承認,NVIDIA在構建生態體系方面取得了巨大成功,AMD在鞏固其作為替代方案的地位方面也取得了顯著成績。從應用到軟體基礎設施,再到雲端運算、系統和晶片,NVIDIA在為AI構建技術浪潮方面做得極為出色。 

提供AI運算和能源服務的Crusoe將是另一家會處在有利位置的公司。 

最後,受益於資料中心擴容的運算公司應該可以繼續在價值鏈中獲得可觀收入。從網路、儲存到伺服器,如果能夠提供頂級性能,公司就會從此次大擴容中受益。 

最後思考

關於資料中心擴展的最終思考是:儘管這看似是一種新趨勢,但其實這不過是運算發展史更長脈絡的一部分而已。AI、資料中心和運算不應被看作是分割的議題。 

就像山姆·阿特曼所說那樣: 

「人類歷史可以簡化為:經過數千年的科學發現和技術進步,我們終於學會了如何熔化沙子,加入一些雜質,以極其精確的方式在微觀尺度上進行排列,形成電腦晶片,並用電去驅動,進而創建出能夠生成越來越強大人工智慧的系統。」 

艾倫·圖靈不僅是現代電腦的奠基人,也是電腦科學和人工智慧的奠基者,這一點絕非偶然。這個趨勢在過去100年創造智慧的時間裡一以貫之。而今天,資料中心正處在這一趨勢的中心。

 

加入T客邦Facebook粉絲團

解讀科技公司「渣男」式交易:買人、買技術,為什麼就是不想買公司?

作者 36Kr
大型科技公司興起“渣男”式交易 買人買技術就是不買公司1d83f22fab084768c9ea6b3b1439e992

近期矽谷AI投資出現了一種新型“渣男”式交易模式。大型科技公司通過技術許可和關鍵人才僱傭的方式,而非全面收購,來吸納人工智慧初創公司的核心技術和團隊。

這種模式不僅使初創公司的創始人能夠在大公司的資源支援下繼續其技術創新,而且為投資者提供了快速的回報途徑。

最明顯的一樁交易,就是Google與人工智慧初創公司Character.AI的交易為例,Google選擇支付27億美元獲得Character.AI技術的許可權,而非直接收購公司。

官方說法是這筆錢是為了獲得Character的技術授權,但條件之一是要Character.AI的創辦人沙澤爾同意回Google工作。

在Google內部,普遍認為讓沙澤爾回來才是Google同意支付這筆高昂許可費用的主要原因。

作為交易的一部分,沙澤爾從他持有的Character.AI股份中獲利數億美元。對於一位既沒有出售公司,也沒有讓公司上市的創始人來說,這筆收益頗為豐厚。這位48歲的工程師現在成為Google AI技術的三位領導者之一,負責為其最強大的AI聊天機器人Gemini開發下一個版本。

為什麼不直接併購?

這筆交易使Character.AI的投資者在兩年內獲得了2.5倍的回報,但公司剩餘員工則無法分享到這筆交易的財務收益,引發了行業對這種「渣男」式交易的質疑。

有很多人質疑,這麼大一筆錢,Google為什麼不直接把Character.AI 併購下來就好了?為什麼還要搞出一個「技術授權」?

不過,這種新型交易方式,實際上是大型科技公司試圖避免監管審查,同時保持在人工智慧領域的領先地位。

這幾年來,各大科技公司都不斷的傳出大大小小的併購案,但是其中有很多併購案,到最後都是在等待各國監管機構的審核一拖再拖,甚至到最後無疾而終。這種情況越來越頻繁,大型科技公司如Google、亞馬遜、Meta、蘋果和微軟等,正受到監管機構的密切關注,以確定它們是否通過收購初創公司等方式限制市場競爭。

但是,在AI領域上,現在正是技術發展的高峰期,每過一個月就有許多不同的技術冒出來,進步飛快。因此,科技公司如果再把時間浪費在等待上,恐怕遠水救不了近火。

就再以Character.AI 的這次「技術授權」來說,Google花了27億美元,但是可以換來讓沙澤爾這位AI界的大佬立刻上線救火,協助他們開發Gemini,不用等待審核監管,就Google的角度來看,可能是比併購還要划算的交易。

 

 

 

 

加入T客邦Facebook粉絲團

三星確認AI功能是「限時免費」,以後在手機或筆電上使用AI要付費恐怕已經是必然

作者 36Kr
除非端側算力能達到一定的水平,否則雲端AI的成本需要有人來支付。D667e20d76eb47fcc8b21104e9b2d9e5

AI手機無疑是2024年主流手機廠商最常提到的一個概念,蘋果在WWDC24上公佈的Apple Intelligence,更是進一步強化了AI之於智慧型手機的重要性。不過,想要體驗AI可能並不是永遠免費的,頂多只是「限時免費」。

早在今年春季就曾有消息稱,以「圈選搜尋」聞名的三星Galaxy S24系列的某些AI功能將要收費。如今,三星方面算是正式確認了「用Galaxy AI要付費」的消息,在剛剛發售的Galaxy Tab S10系列和新機Galaxy S24 FE的新聞稿中就有如下表述,「某些AI功能可能會在2025年底收費。」

AI助手收費是必然的趨勢

三星先前就曾表示,其GalaxyAI服務將不會永遠免費。其實不僅僅是三星的Galaxy AI,隔壁蘋果的Apple Intelligence也暗示過要收費。

手機上的AI最終還需要額外付費,這其實是一個當下手機廠商在竭盡全力隱瞞的「小秘密」。為什麼廠商不希望用戶知道Galaxy AI、Apple Intelligence這些在終端裝置上的AI助手,終有一天要收費呢?答案其實很簡單,Galaxy AI類似於車廠搞的座椅加熱、自適應巡航、模擬聲浪、輔助駕駛功能,這些功能其實本來就「內建」在車子裡,但是消費者卻要花錢從汽車廠商手中解鎖「贖回」自己車輛已有的功能。

遺憾的是,手機上的AI必然需要收費。當下的AI產業其實已經坐在了火山口上,AI泡沫論也越來越有市場。在經過接近兩年的埋頭狂奔後,大量的熱錢也湧入到AI行業中,然而到目前為止,一個真正有意義的商業模式都還沒見到影子。

AI提升生產力的情況暫時還只出現在客服、繪畫等少數幾個領域,就如同早期的網際網路一樣,並沒有革新當時的社會生產方式。實際上,網際網路真正發生「革命」還要等到2010年,而不是網際網路誕生的1990年代。

可是,沒有現實的業績來支撐,故事永遠成為不了價值所依託的錨,這就是當下AI行業最核心的問題。如今作為行業龍頭的OpenAI還一直不賺錢,且短時間內也看不到盈虧平衡,其他廠商就更別提了。

現在的情況,是除了賣算力的NVIDIA、AMD賺得盆滿缽滿,真正的AI廠商卻還距離盈利遙遙無期。事實上,自從OpenAI今年會產生50億美元虧損的消息一經曝出,上至巨頭、下至初創企業的幾乎所有AI廠商,都表現出了對於AI產品商業化的迫切需求。

本機端AI能力還無法涵蓋用戶需求

對於三星而言,AI手機可能是未來,但這不代表他們會為了這個未來去無節制地投入。特別是在目前裝置端的AI尚不成熟,Galaxy AI、Apple Intelligence提供的一系列真正有吸引力的功能,最後還是需要依靠雲端大型語言模型,像是ChatGPT、Gemini等AI的協助之下,持續營運這些AI功能的成本無疑是非常巨大的。

三星確認AI功能是「限時免費」,以後在手機或筆電上使用AI要付費恐怕已經是必然

即便目前的大型語言模型已經紛紛開始降價,使得詞元(tokens)的單價一路走低,動輒各種90% off的超高折扣,讓AI輸出一篇萬字長文的價格只需要不到1元,可奈何主流手機廠商要面對的是數以百萬計的使用者群體。而聚沙成塔的結果,就是使用者每天使用這些AI功能的成本變得極其高昂。

除非手機上的本機端模型從目前的1B、3B擴張到60B、70B的水準,且手機的SoC能夠提供大型語言模型推理所需的算力,否則Galaxy AI、乃至其他手機廠商的AI就必然需要付費,而且價格還低不了。只是,以目前高通和聯發科技術更新的速度,真正讓Snapdragon 和天璣平台的算力膨脹到桌機版RTX4090的水準,顯然並不是一兩年時間就能實現的事情。

 

加入T客邦Facebook粉絲團

為了省廉航行李費,中國年輕人把「釣魚背心」變成了「廉航神器」

作者 36Kr
為了省廉航行李費,中國年輕人流行起靠「釣魚背心」將行李穿在身上14b0687e30559b067af2c356b23f1ef7

近期,一股特別的旅行風潮在中國年輕人社群之間悄然興起:他們將釣魚背心(在中國稱為釣魚馬甲)視為搭乘廉價航空時的必備品。這種在常見的戶外用品,正成為精打細算的年輕旅客對抗廉航行李費的秘密武器。

「廉航休想在我身上多薅走一分錢」這句話道出了許多中國年輕旅客的心聲。透過將釣魚背心改造成「行李直接穿在身上」的方式,不少網友成功避開了廉航的行李超重費,為自己省下不少開支。這種做法在中國社群媒體上迅速傳播,成為年輕人間的熱門話題。

中國留學生JOJO的經歷就是一個典型案例。經常往返於歐洲各國的她,很快發現了廉航的一個「漏洞」:只要能穿在身上的東西,航空公司就不會計算重量。於是,一件普通的釣魚背心搖身一變,成為了她的旅行神器。

「手機、行動電源、筆電等都能放進去,行李箱能少個四五斤。」JOJO說,「尤其是筆電也可以放進去,這樣飛行途中也可以用到。」

JOJO曾因忘記帶這件"廉航神器"而付出了慘痛的代價。在一次前往日本的旅行中,她的行李超重一公斤,結果被收取了500多元人民幣的超重費,幾乎相當於往返機票價格的一半。這次經歷更加堅定了她使用釣魚背心的決心。

除了能夠「偷渡」重物外,釣魚背心還有意外的保暖功能。由於部分廉航的機艙溫度較低且不提供免費毛毯,這件多功能背心就成了中國旅客們的保暖利器。這種一物多用的思維,也體現了中國年輕人的實用主義態度。

為了省廉航行李費,中國年輕人把「釣魚背心」變成了「廉航神器」

另一位中國留學生「皮皮」則將釣魚背心的容量發揮到了極致。她購買的一款背心號稱能裝7公斤重物,實際使用時發現塞了14個玩偶後仍有剩餘空間。

「這個背心的設計是一層口袋又疊加一層口袋,隨身的小物品全放進去了,不帶玩偶的話,背上口袋還能裝個筆電。」皮皮介紹道。

這種「聰明」的旅行方式也帶動了商品的流行,中國電商平台上,一款售價僅58元人民幣的釣魚背心銷量已經超過萬件。這種背心通常設計有多達12個口袋,被消費者親切地稱為「出差必備背心」。商品評論區中充滿了"不讓廉航賺我一分錢,買它!""廉航必備"等讚美之詞。

根據中國第三方資料機構魔鏡洞察的統計,2023年10月至2024年9月期間,釣魚背心在中國各大電商平台的累計銷量達200.56萬件,銷售額高達1.67億元人民幣,平均單價83.46元。更引人注目的是,銷量同比增長超過20%。特別是在2024年暑假期間,7月和8月的銷量同比增幅分別達到30%和11%,銷售額增幅更是達到57%和15%。這些數據清楚地表明,釣魚背心作為"廉航神器"的普及程度正在快速上升。

為了省廉航行李費,中國年輕人把「釣魚背心」變成了「廉航神器」

在中國流行的社交平台小紅書上,以「釣魚馬甲廉航」為關鍵字搜尋,能找到上千條相關筆記。這些內容大多分享如何巧妙使用釣魚背心來規避廉航的各種額外費用,形成了一種獨特的旅行文化。

然而,隨著這種做法的普及,也有人開始擔心安檢問題。對此,經常使用釣魚背心的旅客們表示,通常只需要在安檢時將背心脫下放入安檢籃即可,並未遇到特別的阻礙。這種經驗分享進一步鼓勵了更多年輕人嘗試這種方法。

除了釣魚背心,中國網友還發掘出了其他"廉航神器",如多口袋工作褲、能塞很多衣物的U型枕、輕便的背包和手提行李袋等。這些物品都成為了"精明"中國年輕人出行的必備品,展現了他們在旅行方面的創新思維。

然而,這種做法是否會影響飛行安全,是否符合航空公司的規定,仍然存在爭議。一些專家認為,過度使用這類「神器」可能會導致機艙空間的擁擠,甚至影響緊急情況下的疏散。

對於廉價航空公司來說,這種現象無疑是一個警示信號。未來,廉航公司可能需要重新審視自己的定價策略,在維護利潤和滿足消費者需求之間尋找新的平衡點。畢竟,乘客們千方百計想躲掉的行李超重費,正是廉價航空公司們的收入來源之一。

 

 

加入T客邦Facebook粉絲團

AI大神LeCun批評OpenAI o1沒公開論文、不開源根本不能說是「研究」,OpenAI:使用者會自己決定

作者 36Kr
LeCun批評o1根本不像研究,Noam Brown回懟:已發表的研究都是廢話4619f064c57cd34a1bd399e51964d768

圖靈獎三巨頭之一 Yann LeCun 又和別人吵起來了,這次是 Noam Brown。

Noam Brown 為 OpenAI o1 模型的核心貢獻者之一,此前他是 Meta FAIR 的一員,主導了曾火遍一時的 CICERO 項目,在 2023 年 6 月加入 OpenAI。

這次吵架的內容就是圍繞 o1 展開的。眾所周知,從 AI 步入新的階段以來,OpenAI 一直選擇了閉源,o1 的發佈也不例外。

這也引來了廣大網友的吐槽,乾脆叫 CloseAI 算了,反觀 Meta,在開源領域就做的很好,o1 的發佈,更是將這一爭論進行了升級。

面對廣大網友的吐槽,OpenAI 顯然是知道的。就在前兩天 Noam 發了一條消息:「我們這些參與 o1 的人聽到,外界聲稱 OpenAI 降低了研究的優先順序,聽到這些消息我們感覺很奇怪。我向大家保證,事實恰恰相反。」

AI大神LeCun批評OpenAI o1沒公開論文、不開源根本不能說是「研究」,OpenAI:使用者會自己決定

對於這一說法,Yann LeCun 不滿意了,直接跑到評論區開砲「如果你們不能(公開)談論它,那就不是研究。」

Noam Brown 顯然對 LeCun 的回答不是很滿意,回擊表示:(無需談論,)有時一幅圖勝過千言萬語。在 Noam Brown 引用的這張圖裡,上面還配了一段文字「o1 經過 RL 訓練,在通過私有思維鏈做出反應之前會先進行思考。思考的時間越長,它在推理任務上的表現就越好。這為擴展開闢了一個新的維度。我們不再受預訓練的瓶頸限制。我們現在也可以擴展推理計算了。」

AI大神LeCun批評OpenAI o1沒公開論文、不開源根本不能說是「研究」,OpenAI:使用者會自己決定

更進一步的,Noam Brown 表示在 OpenAI 發佈的這篇部落格文章中,他們分享了大量的資訊,包括 CoT 的內容,Noam Brown 表示這些資訊非常具有啟發性。(為了讓大家更好的瞭解 o1)上週,他還在加州大學柏克萊分校就 o1 模型進行了一次演講。

Noam 言外之意就是,你看 OpenAI 也是會介紹技術相關的內容的,OpenAI 並不是大家認為的對技術避而不談。

AI大神LeCun批評OpenAI o1沒公開論文、不開源根本不能說是「研究」,OpenAI:使用者會自己決定

對於這一說法,顯然 LeCun 很不滿意:「我很抱歉 Noam,但部落格文章與技術論文相比,遠遠達不到可復現性、方法論以及與最新技術的公正比較等標準。當你們在壓力下開發新技術以產生短期產品影響時,你們只需盡快建構你認為最有可能發揮作用的東西。如果它足夠好,你就部署它。你們可能不在乎它是否真的具有新奇的創新,是否真的超越了最先進的技術,或者它是否是一個糟糕的臨時解決方案,或者從長遠來看是否是正確的選擇。你們可以自欺欺人地認為這是自切片面包以來最好的東西,只要你的老闆和產品人員也能被欺騙。但你知道研究不是這樣的。」

AI大神LeCun批評OpenAI o1沒公開論文、不開源根本不能說是「研究」,OpenAI:使用者會自己決定

Noam 反駁道「我認為恰恰相反。坦白說,很多已經發表的研究說的都是廢話,作者只需要欺騙 3 位審稿人和一位 AC。但當你發佈一個數百萬人使用的東西時,你不能只是發佈欺騙自己、老闆和產品人員的產品,使用者會有自己的決定。」

AI大神LeCun批評OpenAI o1沒公開論文、不開源根本不能說是「研究」,OpenAI:使用者會自己決定

隨後,哈佛大學電腦科學教授 Boaz Barak(資料顯示,從 2024 年 1 月開始,Barak 離開哈佛大學前往 OpenAI 工作一年)表示:「我認為你們倆的觀點都很好。o1 背後的研究絕對具有創新性,草莓團隊已經完成了驚人的工作和想法,OpenAI 正在改變人們擴展新人工智慧系統的方式。

雖然我們發表了部落格文章,Noam 也做了相關演講,但從純粹加速科學進步的角度來看,如果能夠發佈所有的細節,開源所有的程式碼和權重,那就更好了。然而,正如我們部落格中所說,我們還有其他考慮,包括競爭壓力和安全因素,因此目前還不宜這樣做。」

AI大神LeCun批評OpenAI o1沒公開論文、不開源根本不能說是「研究」,OpenAI:使用者會自己決定

對此,LeCun 認為 OpenAI 不公佈技術細節,出於競爭壓力的考量還是可信的,但他絕不相信 OpenAI 是為了安全。

AI大神LeCun批評OpenAI o1沒公開論文、不開源根本不能說是「研究」,OpenAI:使用者會自己決定

至此,這段 battle 告一段落。但大家討論的熱情居高不下。

「對於一家擁有數百名高級專家的非營利組織怎麼可能每年只發表很少的論文?我認為自 2021 年以來,OpenAI 每年只有 2-3 篇論文?OpenAI 是過去 20 年來最不開放的前沿科技公司。」

AI大神LeCun批評OpenAI o1沒公開論文、不開源根本不能說是「研究」,OpenAI:使用者會自己決定

還有網友表示「雖然這是一項很酷的研究,但我同意 Yann 的觀點 —— 不符合研究標準,因為 OpenAI 沒有發表論文、進行同行評審或研究的可復現性。OpenAI 在 GPT-3 之前發表了很棒的研究,之後就是讓人懷疑的部落格文章和炒作(例如 Sora)。我希望 OpenAI 能推動研究團隊和管理層再次發表文章,如果有真正新穎的東西,就申請專利。如果 OpenAI 能發表文章,那麼其影響力會更大;這幾年 OpenAI 的閉源真是令人失望。」

AI大神LeCun批評OpenAI o1沒公開論文、不開源根本不能說是「研究」,OpenAI:使用者會自己決定

最後,還有網友靈魂一問:那他們(Ilya Sutskever、Mira Murati 等)為什麼都離開了?

AI大神LeCun批評OpenAI o1沒公開論文、不開源根本不能說是「研究」,OpenAI:使用者會自己決定

「人才流失如此之快的原因到底是什麼?」

AI大神LeCun批評OpenAI o1沒公開論文、不開源根本不能說是「研究」,OpenAI:使用者會自己決定

 

 

 

 

加入T客邦Facebook粉絲團

特斯拉發表無人駕駛計程車CyberCab、價格不到台幣百萬元,但馬斯克的大餅多久能實現?

作者 36Kr
特斯拉正式發表Robotaxi 與馬斯克畫下的大餅Dc2c525d469d675891792340c739f454

原定於10月11日上午10點的特斯拉“We, Robot”發佈會,在延後了幾乎一個小時後姍姍來遲。在這次發佈會上,特斯拉Robotaxi無人駕駛計程車正式發佈,該車命名為CyberCab,外形與CyberTruck相似,採用了兩座和蝶翼式車門,並不配備方向盤和踏板,帶有感應充電功能,這與此前市場傳出的消息相吻合。

特斯拉發表無人駕駛計程車CyberCab、價格不到台幣百萬元,但馬斯克的大餅多久能實現?

特斯拉CEO馬斯克在發佈會上稱,CyberCab的車輛量產之後消費者能以低於 3 萬美元的價格購買到這台車(不到台幣百萬元),並將於2026年投入生產,在2027年前大規模鋪開。當下CyberCab的營運成本仍較高,約為1美元每英里,未來將降至0.2美元每英里左右。未來特斯拉還將推出CyberCab 2。

除CyberCab外,特斯拉還發佈了無人駕駛貨運車RoboVan(無人駕駛廂式貨車),可承載20人以及運貨。RoboVan出行成本可以大幅降低,每英里約10~15美分。

特斯拉發表無人駕駛計程車CyberCab、價格不到台幣百萬元,但馬斯克的大餅多久能實現?

不過,此次發佈會內容還是以馬斯克畫的“餅”為主,對於Robotaxi何時能夠提供服務、收費標準、全球各大市場推出計畫、盈利拐點、發生安全事故如何處理等市場關心的“乾貨”問題,特斯拉在此次發佈會上並未具體提及。

Robotaxi對特斯拉單個公司和整個自動駕駛行業都意義重大。從2009年Google設立自動駕駛部門起,整個自動駕駛產業目標無非就是實現無人駕駛,並且打造出一個可盈利的商業模式,但期間無人駕駛概念遭受了眾多質疑,如果特斯拉此次能夠真正成功,無疑將給上述行業目標帶來曙光。

 

馬斯克也在Robotaxi發佈之前,一直為其造勢,稱「這將是特斯拉自發佈Model 3後最重要的一天」。但餅畫得好,特斯拉Robotaxi仍面臨很多難題,最突出的莫過於安全、監管和盈利模式,真正的自動駕駛L5的實現或許仍任重道遠。

特斯拉Robotaxi到底是什麼?

與人類駕駛不同的是,擁有完全自動駕駛能力的車可以24小時不間斷運行。特斯拉Robotaxi車隊車輛的一大來源便是特斯拉自有車輛,即上述提到的CyberCab和RoboVan。這些車輛的營運依賴特斯拉的全自動駕駛(FSD)軟體。

對於Robotaxi的自動駕駛能力,馬斯克曾稱,其他企業所擁有的需要高精地圖的本地化解決方案,是非常脆弱的,所以他們擴展員工的能力有限。特斯拉採用的是一種通用解決方案,適用於任何地方,甚至可以在另一個地球上工作。

除了自有車輛外,特斯拉Robotaxi車隊車輛的一個重要來源便是,現有車主的空閒特斯拉車輛。馬斯克說,車主僅需要一次軟體(FSD完全自動駕駛)更新,便可將其車輛加入Robotaxi車隊。此次特斯拉Robotaxi的發佈會現場,除CyberCab外,還展出了多輛無人駕駛的Model Y。

根據馬斯克此前在今年第二季度財報電話會上透露的資訊,特斯拉車主可以選擇讓其車輛被特斯拉Robotaxi車隊使用,或者取消使用並把它帶回來。車輛可以一直被車隊使用,或被車隊使用一段時間,然後特斯拉會和車主分享收入。與每週僅平均使用十個小時相比,這些車輛可以實現每週50到60個小時的高效利用。

馬斯克曾表示,消費者只要打開特斯拉的應用程式,召喚車輛,Robotaxi就會把其送到指定地方,而且費用和公車差不多。

商業營運模式是什麼?

在特斯拉的設想中,整個Robotaxi項目的營運也隨著車輛的來源不同分為兩大塊,一塊是針對車主提供車輛的模式,特斯拉將採取Airbnb相似的營運模式,即特斯拉只作為無人駕駛計程車的平台服務商,從每個Robotaxi訂單中獲得分成,大部分的訂單收入仍歸車主所有。

另一塊則是特斯拉自有車輛的收入,這種模式更類似於Uber的商業模式。這種模式需要特斯拉嚴格控制自有車輛的成本,以更快實現盈利。馬斯克在此次發佈會上也直言,當下CyberCab的營運成本仍較高,約為1美元每英里,隨著CyberCab的大規模鋪開,營運成本未來有望降至0.2美元每英里。

在馬斯克看來,特斯拉Robotaxi前期的規模效應主要依賴現有特斯拉車主車輛的加入。他在今年第二季度財報電話會議上稱,雖然可能有一些人不願意讓自己的車輛參與,但他認為大多數人會願意,這將帶來即時的規模效應。上述兩種來源的車輛,可以幫助特斯拉Robotaxi車隊很快能擁有700萬、1000萬甚至最終數千萬輛能夠進行自動駕駛的車輛。

總體而言,特斯拉Robotaxi的營運和盈利模式會是Airbnb和Uber的結合。

在Robotaxi逐步取代現有傳統計程車和網約車的巨大市場藍海預期下,方舟投資基金首席執行長凱茜·伍德日前在接受媒體採訪時表示,對於特斯拉而言,在未來5~10年,Robotaxi業務將是一個4兆~5兆美元的收入機會。這是一種SaaS(軟體即服務)模式,毛利率高達80%以上。

監管問題如何解決?

對於特斯拉Robotaxi而言,安全和監管問題幾乎相輔相成。理論上,特斯拉提供Robotaxi服務的前提是FSD(完全自動駕駛能力)被批准在無人監管的情況下使用,而FSD獲得監管機構許可則需要證明一點,即無人駕駛的FSD比人類駕駛實際上更安全。

特斯拉相關高層在今年第二季度財報電話會議上說:「Robotaxi的實際部署時間取決於技術進步和監管部門的批准。」

「我們期望可以很快實現完全無人監督的FSD。」馬斯克在此次發佈會上表示。為加速Robotaxi的落地,特斯拉正在推動FSD在全球各大市場獲得監管許可。馬斯克此前說,如果企業擁有大量資料,比如數十億英里的行駛資料,這些資料表明在未來,無人駕駛比人類更安全,那麼監管機構就很難阻礙Robotaxi的發展。特斯拉將請求歐洲、中國和其他國家的監管機構批准特斯拉的FSD監督版,並有可能在今年年底前獲得批准。

「如果到2025年底特斯拉還沒開始Robotaxi營運,我會感到震驚。」馬斯克在今年第二季度財報會上表示。

隨著特斯拉Robotaxi的問世,該賽道熱度也不斷升溫。不過,相比馬斯克畫餅的樂觀,市場上也出現了其他聲音。天風國際分析師郭明錤日前發文稱,供應鏈調查顯示,特斯拉Robotaxi預計要到2027年第一季度才能量產,自己相信特斯拉已具備製造Robotaxi所需的硬體設計、生產能力,但量產時間意味著FSD可能也要到2026年後才能達到L4等級。在無人駕駛計程車趨勢到來之前,可能需要更多耐心,但這一趨勢無疑是令人期待的。

 

 

 

加入T客邦Facebook粉絲團

30多年前的Windows 3.1立大功?美國航空仍依賴古董級系統,急需80億美元升級

作者 36Kr
30+年前的Windows 3.1立大功?被曝依賴「古董級」系統,美國航空急需80億美元升級613b912261f58b8cfc1c51f0857b677e

在全球航空運輸行業中,技術的更新換代無疑是確保安全與效率的關鍵——然而,近期美國政府問責辦公室(GAO)發表了一份讓許多航空旅客都感到緊張的報告:FAA的空中交通管制(ATC)系統不僅數量龐大,而且大部分已經過時,急需技術更新。

報告顯示,在 FAA 的 138 個 ATC 系統中,有 51 個系統因缺乏零組件、資金短缺以及缺少技術更新資金而處於不可持續狀態,還有 54 個系統被描述為「可能不可持續」狀態。

FAA 處理程序落後,全部更新要等到2030年

去年,由於一次關鍵檔案的意外刪除導致美國空域關閉,FAA 因此進行了營運風險評估,以評估 ATC 系統的可持續性。但 GAO 在報告中指出,FAA 在現代化最關鍵和高風險系統方面的進展依然緩慢。

根據 FAA 的歷史,早在 1982 年,該機構便發佈了第一份綜合性計畫,旨在改善空中交通管制服務。然而,這些計畫的實施始終面臨著資金、管理和技術等多重挑戰。GAO 指出,FAA 的政策對於尚未設定成本、進度和性能基準的項目幾乎沒有監督要求,導致項目整體進展緩慢,平均需要四年以上的時間來建立基準。

據悉,FAA 共計提出了 64 項現代化投資計畫,想要改善 105 個不可持續和可能不可持續的系統,但 GAO 發現大多數關鍵系統的現代化處理程序依舊處於停滯狀態,超過一半的系統都處於「不可持續」狀態:其中有 58 個系統對國家空域的安全和效率至關重要,更有 17 個系統被認為具有關鍵操作影響。

然而,FAA 卻在現代化這些關鍵系統方面舉步維艱——這些系統不僅不可持續,其現代化計畫可能需延至 2030 年或更晚才能完成,甚至有一些項目預計將在 10-13 年後完成。更加糟糕的是,對於其他需要現代化的系統,FAA 也還沒有具體的更新計畫,其中三個系統至少已有 30 年的歷史了。

顯然,這種狀況不僅對 FAA 自身構成挑戰,也對全美航空運輸的安全性造成了潛在風險。面對老舊系統帶來的挑戰,FAA 表示需要 80 億美元進行現代化更新。

FAA 在聲明中指出,這筆資金將用於更新老舊的空中交通設施和雷達基礎設施,以提升國家空域系統(NAS)的安全性和效率。FAA 局長 Michael Whitaker 在國會聽證會上提到,該機構的設施多年來面臨投資不足的問題,許多設施的平均使用年限已超過 60 年,甚至高達 70 年。

儘管 FAA 意識到更新的迫切性,但現實卻是,當前 90% 的設施預算用於維護而非新系統,這意味著在未來很長一段時間內,FAA 仍需依賴那些老舊的系統運作。

Windows 3.1,老舊系統的意外優勢?

不過在某些情況下,一些航空公司卻因依賴老舊作業系統而意外躲避了現代技術帶來的故障。

例如在最近的一次全球 IT 故障中,CrowdStrike 更新導致大量 Windows 電腦出現藍色畫面當機(BSoD)錯誤,影響了多個行業的營運,其中聯合航空、達美航空和美國航空等公司因無法應對 CrowdStrike 的更新問題,導致數千航班被迫取消。但當時美國第四大航空公司西南航空,卻因仍在使用 Windows 3.1 而成功避免了這一問題。

Windows 3.1 這款作業系統自 1992 年發佈,而微軟早在 2001 年就停止了對其的支援。在全球藍色畫面事件之前,西南航空經常因其過時的系統而受到批評,但因為 Windows 3.1,西南航空(及其客戶)免受了大多數其他航空公司所經歷的壓力——儘管這一老舊系統常常被人調侃,但在這次危機中,它反而成為了西南航空的「保護傘」。

換句話說,儘管西南航空的技術裝置顯得落後,但正是這種落後讓其在 IT 故障中保持了正常營運。甚至還有網友調侃,西南航空或許應該考慮將作業系統升級到 Windows XP,因為雖然 XP 也不再接收更新,但其相對較新,且可以相容 Windows 3.1 的軟體。

這種矛盾的局面讓人不禁思考:在追求高科技的今天,老舊技術是否也有其存在的合理性?

有網友提到,「如果這些系統今天仍在運行,那就證明了它們的設計、製造和程式有多麼出色」;「如果這些系統能夠正常工作,而且從邏輯上講還能繼續工作,而問題在於缺少硬體元件,那麼最便宜的解決方案可能就是(重新)開始製造這些古董,也許可以用現代機器人技術實現大部分製造過程的自動化。 」

不過也有許多人認為,雖然西南航空的例子展示了老舊系統在某些情況下的倖存者能力,但長遠來看,航空公司仍需面對系統升級的迫切需求:隨著新技術的不斷發展,老舊系統將難以與新裝置相容,進而影響營運效率和安全性。此外,老舊系統也往往無法滿足現代航空營運的需求。

總體來說,隨著新的安全標準和效率要求不斷提高,老舊系統無法適應這些變化,最終可能導致營運能力下降和故障頻發。另外 GAO 也明確指出,FAA 對不可持續系統的依賴,可能會引發航空安全隱患。

參考連結:techspottheregistertechradar 

 

加入T客邦Facebook粉絲團

三星財報發佈後罕見為業績不佳道歉,董事長李在鎔親口否認要把晶圓代工拆分傳言

作者 36Kr
三星罕見為業績不佳道歉,董事長李在鎔稱無意剝離代工業務5d048881b0a855b80bf23f0bbed6700f

全球最大記憶體晶片製造商三星於週二公佈了其第三季度令人失望的初步業績報告,並行布了一封篇幅較長的致歉信,罕見地承認自己正在努力應對潛在的危機。同時,該公司董事長李在鎔表示,無意剝離晶片設計與代工業務。

業績不及預期 相關負責人罕見公開道歉

三星新上任的晶片業務負責人Jun Young-hyun在聲明中指出,該公司將深入審視其組織文化和工作流程。他強調:「我們將把重心放在強化長期競爭力上,而非依賴短期應對措施,現在正是對我們的一次重大考驗。」

作為全球最大的記憶體及智慧型手機製造商,三星公佈的第三季度初步業績顯示,營業利潤約為9.1兆韓元(約合68億美元),遠低於市場預期的11.5兆韓元(約合85.4億美元)。該公司歸因於與績效獎金撥備相關的一次性成本影響了收益。同時,其營收為79兆韓元(約合587億美元),也未能達到81.57兆韓元(約合605億美元)的預期值。三星計畫在本月稍後時間提供包含淨收入和部門細分的完整財務報表。

Jun Young-hyun表示:「外界已經對我們的技術競爭力產生擔憂,有人甚至提及三星正面臨危機。作為企業領航者,我們對此負有全部責任。」

三星公司股價在週二首爾早盤一度下滑1.8%。鑑於三星在關鍵市場表現乏力,其股價今年已累計下跌超過20%。

在用於人工智慧開發且與NVIDIA處理器配套的記憶體晶片領域,三星落後於競爭對手SK海力士。而在外包定製晶片生產方面,其與台積電的競爭也幾乎沒有進展。

鑑於三星晶片部門近期遭遇的種種挑戰,分析師已顯著調低了對該公司的股價預期。麥格理於9月25日發佈的報告中,不僅將三星的投資評級從「增持」調整為「中性」,還大幅削減了其目標股價,從原先的12.5萬韓元直降至6.4萬韓元。

三星目前需要奮力追趕SK海力士,後者已經率先生產出與NVIDIA人工智慧加速器相匹配的高頻寬儲存晶片。相比之下,三星在推進其最先進的HBM(高頻寬記憶體)技術方面卻遭遇了審批延遲的困境。今年,三星出人意料地更換了晶片業務負責人,Jun Young-hyun直言不諱地指出,公司必須徹底變革職場文化,否則將陷入難以自拔的惡性循環。

三星的業績表現不僅未能跟上人工智慧領域其他股票的步伐,也落後於韓國綜合股價指數的整體表現。作為全球裁員計畫的一部分,三星已在東南亞、澳洲及紐西蘭等地啟動了裁員行動。事實上,三星過去也曾有過裁員先例,這主要是因為它一直在努力應對儲存晶片市場的週期性波動。

董事長親口稱無意剝離代工業務

分析師指出,受需求疲軟影響,三星為其他客戶提供的晶片設計與製造服務每年蒙受數十億美元的虧損,這對全球最大儲存晶片製造商的整體業績構成了拖累。為了降低對儲存晶片業務的依賴,三星一直在積極向邏輯晶片設計及晶片代工製造領域擴張。

早在2019年,李在鎔便提出了他的願景,即在2030年之前超越台積電,成為全球最大的晶片代工製造商。為此,三星已宣佈在韓國和美國投資建設新工廠,並斥資數十億美元用於發展晶片代工業務。然而,據多位知情人士透露,三星在爭取大訂單以充分利用新增產能方面一直困難重重。

當被問及三星是否有意分拆晶片製造業務(即代工業務)或其系統LSI邏輯晶片設計業務時,李在鎔明確表示:「我們致力於業務的擴展,不考慮分拆。」但他也承認,三星在德州泰勒市新建的晶片工廠正面臨諸多挑戰,他說:「由於(某些)外部環境的變化和選舉因素,這項工作確實有些艱難。」

三星於今年4月份宣佈延後了其在泰勒市晶片工廠的生產計畫,從原定的2024年底延期至2026年,並表示將根據客戶需求分階段推進項目營運。這一決定凸顯了三星在趕超台積電時所面臨的嚴峻挑戰,台積電憑藉其蘋果、NVIDIA等重量級客戶而穩居領先地位。

去年,三星代工和LSI業務的營運虧損達3.18兆韓元(約合24億美元),分析師預計今年這兩項業務的虧損將達到2.08兆韓元(約合15億美元)。

曾在三星任職的尚明大學系統半導體工程教授李鐘煥指出:「從理論上講,將代工業務分拆出來有助於三星贏得客戶的信任,並使其能夠更專注於該領域的發展。」但他也強調,獨立營運的代工部門可能會面臨更大的生存挑戰,因為它可能會失去來自儲存晶片業務的財務支援。

 

 

 

加入T客邦Facebook粉絲團

薄度多少的紙才最容易劃破手指?這篇科學論文為「最危險的紙」找到了答案

作者 36Kr
什麼樣的紙最容易劃破手指?科學家試了試921d0d0ba6338639451317c9362c7032

每個人多少可能都有被紙張偷襲手指的經驗,通常是翻書或整理檔案時,你以為手指皮膚和書頁紙張只會有蜻蜓點水般的一面之緣,但直至感到指尖隱隱作痛,你才見手指上那道傷口。

不過,有趣的是,平常你就算故意用紙去劃手,很多時候也劃不破。

這引起了丹麥技術大學(Technical University of Denmark)幾位物理學家的興趣,他們開始查閱研究論文,想知道什麼樣的紙,用什麼樣的方式,最容易劃破手指。

薄度多少的紙才最容易劃破手指?這篇科學論文為「最危險的紙」找到了答案

 

太厚太薄都不行

但他們卻發現,這麼有趣的問題竟然沒有人研究過?!好吧,既然查閱不到相關的研究,他們就自己研究!

他們找來了不同厚度的紙,嘗試用各種角度去切手指,想看看怎樣才最容易切出傷口。不過鑑於這幾位物理學家都不太願意貢獻自己的手指,他們實驗中用的「手指」其實是用矽膠製作的模型。 

他們觀察到,在相同的切割角度下,當紙很厚時,切割時只能讓矽膠凹陷下去,但不能成功切開矽膠;

薄度多少的紙才最容易劃破手指?這篇科學論文為「最危險的紙」找到了答案


而當其它條件保持不變,換用薄一點的紙時,就能夠切開矽膠了——但紙也不是越薄就越好;

薄度多少的紙才最容易劃破手指?這篇科學論文為「最危險的紙」找到了答案

因為當他們換用更薄的紙時,紙不僅沒能切開矽膠,還把自己給壓彎了。

薄度多少的紙才最容易劃破手指?這篇科學論文為「最危險的紙」找到了答案


此外,他們還測試了不同切割角度下,紙切破矽膠手指的難易程度。結果發現,切割時紙和矽膠表面的夾角越小,越容易切開口子。

總結一下就是:紙的切割角度越小越容易切開矽膠;但在給定切割角度下,紙太厚或太薄都切不開矽膠。 

為什麼會出現這樣的變化趨勢呢,最容易切開手指的厚度和角度又是多少呢?

越薄越“鋒利”?

首先我們來探究一下,為什麼在相同切割角度下,相對薄一點的紙更容易切開皮膚。

便於理解的解釋是——紙越薄就越“鋒利”。在切割皮膚時,紙施加給皮膚的所有力都集中在紙和皮膚間的接觸表面上。而紙越薄,它與皮膚間的接觸面積就越小,因此施加相同的力時,皮膚在單位面積上所受的力會更大,即“應力”(stress,σ=F/s)更大。

紙向皮膚施加的應力會有兩種作用,一是讓皮膚表面向下凹陷形變,二是將接觸面兩邊的皮膚向兩側拉扯。

紙劃矽膠的物理模型(圖片來源:原論文)

當向兩側拉扯皮膚的應力(即“剪下應力” shear stress——應力在與皮膚表面切向的份量)超過皮膚的承受範圍時(取決於皮膚的楊氏模量和斷裂硬度),皮膚就會被撕裂開(發生塑性形變),即被紙切開了。

而前文說到,紙越薄,應力越大,顯然更容易超過皮膚的承受範圍,從而切開皮膚。此外,切割角度越小,應力在皮膚表面切向的份量“剪下應力”就越大,也更容易切開皮膚。

切割角度與紙的厚度對紙是否能切開皮膚的影響(圖片來源:原論文)

那為什麼當紙過薄的時候,又切不開皮膚了呢?

太薄也不行

紙太薄,它就過於柔弱了。

薄度多少的紙才最容易劃破手指?這篇科學論文為「最危險的紙」找到了答案

在以上的分析中,我們其實假定紙是不會形變的,但在開頭的實驗中我們可以看到,過於薄的紙,在切割過程中會發生彎曲——這是因為太薄的紙強度較低,自身承受不了切開皮膚所需的應力。

這在工程力學上叫做“屈曲”或“壓曲”(buckling),即柱子或橫樑等結構在承受過大的壓縮負荷時,突然彎曲或形變的情況。

材料發生屈曲(圖片來源:Mircalla22 (talk)- Public Domain)

在實際生活的應用中,工程師在工程設計時必須仔細考慮屈曲問題,以確保結構保持安全和穩定,尤其是在多載情況下。

天太熱,鐵軌受熱膨脹發生屈曲(圖片來源:Railpedia.nl - CC BY-SA 3.0)

而對於過薄的紙,它們在達到能切開皮膚所需的應力之前就發生了屈曲,因此不足以切開皮膚。

通俗點說,紙能不能切開皮膚,實際上是看在應力增加的過程中,紙和皮膚誰先達到承受極限——先達到皮膚的極限就可以成功切開皮膚,先達到紙的承受極限就會讓紙發生屈曲。

“最危險”的紙

越薄的紙越鋒利,但也更容易達到自身發生屈曲的極限。而當一張紙能夠給皮膚的最大應力,剛剛能夠切開皮膚,又剛剛不至於發生屈曲時,這種厚度的紙就是最容易劃傷手指的紙。於是這幾位物理學家算了算,厚度 65 微米的紙就剛好滿足這個條件。

他們還算出,在真實生活中, 65 微米厚的紙能成功切開手指的可能性為 21%,換句話說,如果你翻閱的紙厚度剛好為 65 微米,那麼平均這種紙每劃過你的手指五次,就有一次成功劃傷手指,好危險!

那麼我們生活中什麼紙的厚度最接近 65 微米呢?許多點陣印表機(dot matrix printer)用紙的厚度就剛好是 65 微米,此外,很多報紙的厚度也差不多。

一種點陣印表機(圖片來源:Nakamura2828 at us.wikipedia - CC BY-SA 3.0)

但作為科研人員,這幾位物理學家專門指出:兩大學術期刊《 科學》( Science,55 微米)和《自然》(Nature,49 微米)厚度很接近 65 微米,也十分危險!

找到“最危險”的紙之後,這幾位科學家還專門通過 3D 列印,製作了一種刀架,可以把 65 微米厚的紙當成刀片使用(3D 列印資料已上傳,可自行下載 ),據說切蔬菜雞肉啥的賊輕鬆! 

他們已經將該研究過程整理成論文,發表在了期刊《物理評論 e》(Physical Review E)上,感興趣可以去讀一讀。

參考文獻

[1]https://journals.aps.org/pre/accepted/aa072Kc5A071ae0708c39799a466b7d26e3ac2a0e#abstract

[2]https://github.com/Jensen-Lab/PhysicsOfPaperCuts/tree/main

 

 

加入T客邦Facebook粉絲團

OpenAI不是只有ChatGPT這個產品:九大產品繁雜難以管理、使用者眼花繚亂,還有經費問題要解決

作者 36Kr
OpenAI的新挑戰:九大產品繁雜難以管理,使用者眼花繚亂1df1fbdcbaa0bc934269f1a1e829f171

據Supervised報導,雖然OpenAI的最新模型o1在性能上有了顯著提升,但它也給該公司帶來了一個潛在的新挑戰:產品組合繁雜。

OpenAI的最新產品o1和o1-mini,實際上讓使用者和客戶在性能和成本之間做出了權衡:你可以選擇等待更長時間,並暫時支付更多費用,但輸出結果應該會好得多。它不是那種可以插入呼叫中心的應用程式介面(API),但它確實為這家已經覆蓋了一系列細分市場(除了沒有“一個幾乎無所不能的產品”)的公司填補了一種新的細分市場。

o1的應用情境基本上是“你需要稍微思考一下”的問題。美國雲服務管理平台Box CEO亞倫·列維(Aaron Levie)給出了一個極好的企業應用情境,即需要找到合同中一個非常具體的參數——例如,合同的最終簽署日期,也就是合同實際生效的日期。這是一個真正“需要稍微思考一下”的問題,在一個原本簡單的問題上增加了一層複雜性,人們可能在不同的日子簽署了合同。

這對於OpenAI來說也是一種相對較新的應用情境。在過去,OpenAI可能需要呼叫一系列很長的API,並請求模型以提示調整或檢索增強生成(RAG)的形式完成所需任務。相反,整個過程可能會被壓縮成一兩次呼叫,從而簡化某些架構。OpenAI已經經歷了一種“SaaS化”的過程,在這一過程中,OpenAI逐漸成熟,成為一家真正的企業。

OpenAI產品組合日益複雜

隨著OpenAI逐漸發展成為一個真正的企業,其產品組合(或稱為模型組合)日益複雜,OpenAI正面臨著公司產品組合繁雜的挑戰。產品組合越龐大,管理難度就越大,處於這一階段的公司面臨的最大挑戰就是如何避免產品組合變得繁雜,難以向使用者傳達價值。而且隨著模型品質的不斷提高,任何微小的分心都可能導致OpenAI被其他前沿模型公司超越。

Supervised總結了OpenAI現在非常龐大的API組合,共有9個產品:

1、GPT-4o:一個多模態、昂貴(雖然也沒能倖免於降價影響)的模型,應該是通用型的好產品。

2、GPT-4o mini:GPT-4o的削弱版本,旨在作為其主力模型GPT-3.5 Turbo的繼任者,以滿足大量更簡單的應用情境。

上述模型的微調版本,可滿足企業的特定需求,儘管它們通過API提供,這可能會讓一些更注重安全性的公司望而卻步。

3、o1:一個以速度和價格為代價換取品質的模型,允許它有更多時間對答案進行“推理”。基本上就是需要“停下來想一想”的問題。

4、o1-mini:就像4o mini一樣,是o1的削弱版本,設計用於……同樣的“停下來想一想”的問題,但我們可以假設它確實能解決一系列問題。

5、Whisper:可以說是市場上最好的語音轉文字模型,可以肯定的是,它是為生成OpenAI所需的訓練資料而建構的。

6、文字嵌入:算不上最好的嵌入產品,但其優勢通常在於它與其他OpenAI產品一起提供,從而減少了採購的麻煩。

7、文字轉語音:假設延遲正常,你可以將其應用到類似呼叫中心里的API。它有普通和高解析兩個版本的API。

8、高級語音助手:一個技術奇蹟般的產品,它可以讓你在ChatGPT內進行主動對話,儘管其應用情境仍然不太明確。

9、ChatGPT:OpenAI將上述所有內容“產品化”,集合到一個前端企業友好型的包裝中。

在此期間,Meta開始顯示出更多的混亂,它在幾乎每一個類別中都發佈了更新的模型。不過Meta這些模型是開放原始碼的,並為一系列非常不同的產品提供支援,儘管它們存在於同一個“桶”中。通過o1,OpenAI本質上是在再次嘗試建立新的類別,但同時也冒著產品組合繁雜的風險。

OpenAI和其競爭對手的產品定價

下面對比了OpenAI和其競爭對手的產品定價:

OpenAI不是只有ChatGPT這個產品:九大產品繁雜難以管理、使用者眼花繚亂,還有經費問題要解決

OpenAl的產品在價格和用途上存在差異(圖源:X)

這些費用可能遠未達到o1發佈一段時間後的水平。OpenAI已經開始逐步增加速率限制,最近o1-preview從每週30個增加到50個,o1-mini從每週50個增加到每天50個。

OpenAI不是只有ChatGPT這個產品:九大產品繁雜難以管理、使用者眼花繚亂,還有經費問題要解決

OpenAI在社群平台X上分享道,將逐步增加o1-preview和o1-mini的速率限制(圖源:Supervised)

雖然OpenAI的吸引力一直在於便利、價格和性能之間的某個最佳平衡點,但其繁雜的產品組合無疑既是挑戰也是機遇。該文章作者馬修·林利(Matthew Lynley)嚴重懷疑價格不會一直這麼高,因為其下一個GPT模型遲早會準備好。但就目前而言,它至少在試圖籌集巨額資金的時候,開發者擁有了一些價格較高的產品當作談判籌碼。

然而,這裡的挑戰與任何成熟企業隨時間開始面臨的挑戰相同:產品繁雜。雖然OpenAI在技術上以API和ChatGPT的形式擁有“兩個”產品,但這些產品都有大量的分支,服務於非常廣泛的應用情境。這些API也遠遠超出了聊天補全和文字生成的範圍,包括了各種各樣的模態。而它的語音產品看似是ChatGPT“驚豔”的部分,其實可能是其產品組合中最尷尬的部分。

從初創公司走向企業的必經之路

產品繁雜在創業領域是一個公認的問題,如果你還能稱OpenAI為一家初創公司的話。隨著初創公司的成熟,其使用者和客戶群的不斷擴大,它必須有方向性地發展,更少的產品滿足更多客戶的需求,而不是為每個人建構一切。或者更簡潔地說,做幾件事,但都要做好。

提供如此廣泛的應用情境,讓OpenAI能夠將使用者引導到某種穩定狀態,在這種狀態下,它不一定賺錢,但至少不會虧本。

在API方面,傳統的做法是將使用者推向其主力模型(特別是微調版本),但對於ChatGPT而言,這一點就不太清楚了。

雖然新模型在ChatGPT中是有速率限制的,但這也是OpenAI除了API之外極其重要的業務部分。據The Information報導,OpenAI COO布拉德·萊特卡普(Brad Lightcap)告訴員工,OpenAI擁有超過1000萬名ChatGPT的付費訂閱使用者,另外還有100萬名企業訂閱使用者。(彭博社此前曾報導,OpenAI有100萬名ChatGPT的企業訂閱使用者。)

當然,我們可以做很多粗略的計算,但都會得出相同的結論:除了API之外,ChatGPT的企業業務現在和將來都會是OpenAI業務的重要組成部分。

但ChatGPT帶來的收入並不會像API那樣,直接隨著o1的使用而增長。無論是通過API還是ChatGPT內部運行o1,實際運行它的成本可能會隨著預訓練計算資源轉向推理而發生變化。

幸運的是,OpenAI在這一領域已經有了很多進展。業內人士目前額外關注的一種方法是蒙特卡洛樹搜尋(Monte Carlo Tree Search),它可以減少生成高品質結果所需的計算量。蒸餾(distillation)是另一種“縮小”大模型的方法,隨著人們的興趣轉向管理高性能模型的推理成本,蒸餾法也獲得了很大的發展。 (蒸餾是一種機器學習模型壓縮方法,它用於將大型模型的知識遷移到較小的模型中。)

“這就是甜點,將傳統預測性機器學習的策略與現代技術相結合。”模型開發商和平台h2o的聯合創始人兼CEO斯里·安巴蒂(Sri Ambati)告訴馬修,“樹狀搜尋是一個絕對的天才技巧,它是一種非常容易實現的目標,與大語言模型的卓越性相結合。”

在與專家和知情人士交談的交談中,最常提到的另一點是諾姆·布朗(Noam Brown)在OpenAI的工作。布朗被廣泛認為是博弈論領域的頂尖專家,許多人都想知道他的工作將如何應用到OpenAI的產品中。布朗還是一篇論文的共同作者,該論文部分研究了蒙特卡洛樹搜尋在開發類人代理中的應用。

OpenAI面臨成本挑戰

OpenAI的API面臨的挑戰是,根據最近與大多數企業和平台的情況,在為情境建構AI應用時,成本是第一或第二重要的考慮因素。但OpenAI已經表現出逐漸降低價格以保持競爭力的意願。

此外,ChatGPT的企業業務似乎是OpenAI業務的主要驅動力,這也很說明問題,因為所有這些開發基本上都是為該企業套件服務的。對於那些在管理和成本方面有更高要求的公司來說,使用現成的廉價產品在公司內部開發定製產品的做法越來越有吸引力。

有一種憤世嫉俗的觀點認為,OpenAI試圖說:“嘿,看,我們還在創造非常先進的東西,別忽視我們的融資號召。”

然而,這種觀點的另一面是,根據CNBC的報導,OpenAI似乎已經獲得了一輪超額認購的巨額融資,已經成長為一家更適合企業產品的公司。現在,OpenAI只需要確保其在銷售電話中不會用龐大的產品組合迷惑企業。

 

 

 

加入T客邦Facebook粉絲團

Nature新研究指出大模型越大越愛胡說八道,GPT、Llama都一樣逃不過「腦霧」問題

作者 36Kr
Nature新研究:大模型越大,越愛胡說八道Fe2a5aef76be93756dfde4e744b4ee2f

國際頂尖科學學術期刊Nature(《自然》)9月25日刊登了一篇有關AI大模型“腦霧”現象的研究。一個來自西班牙的研究團隊發現,幾個參數量更大、版本更新的AI大模型,誤答比例超60%。

其研究對象OpenAI的GPT大模型、Meta的Llama大模型,以及Hugging Face參與創立的AI研究組織BigScience,推出的BLOOM大模型。

“腦霧”通常用來描述一種大腦功能下降的狀態,可能導致人們短暫出現一些認知功能障礙。在AI界,“腦霧”二字用來類比AI系統在處理某些任務時,會間歇性地失靈,使得生成結果精準性和響應效率都低於正常水準。

這3家主流人工智慧(AI)大模型的產品不斷升級。據研究資料顯示,經過最佳化後的AI大模型雖然基本上做到有問必答,但遇到超綱的問題時會錯答、亂答,而不是像以前那樣逃避回答。這大幅削弱了AI大模型的可信度。

與此同時,該研究還發現使用者難以分辨這些AI回答的真實性,可能會錯信AI聊天機器人的說法,以至於被混淆視聽。

這項研究的論文標題為《參數量更大且學習能力更強的大語言模型的可靠性降低(Larger and more instructable language models become less reliable)》,作者包括Lexin Zhou,Wout Schellaert,Fernando Martínez-Plumed,Yael Moros-Daval,Cèsar Ferri和José Hernández-Orallo。

Nature新研究指出大模型越大越愛胡說八道,GPT、Llama都一樣逃不過「腦霧」問題

論文地址:https://www.nature.com/articles/d41586-024-03137-3

GPT-4等AI大模型,升級後“腦霧”卻更嚴重了

José Hernández-Orallo是一位AI行業的資深人士,也是這篇論文的作者之一。據他介紹,該研究團隊選擇了3個有代表性的AI大模型作為研究對象,分別是OpenAI的GPT,Meta的Llama,以及由美國AI研究組織BigScience研發的開源模型BLOOM。研究範圍包括這些AI大模型的早期原始版本和經過最佳化的版本。

研究人員對這些AI大模型開展了數千次測試。其測試內容涵蓋算術、字謎、地理和科學等領域的問題。同時,他們還設定了諸如“將列表內容按字母順序排列”的任務,以評估AI大模型的資訊轉化能力。

除此之外,他們還參考人們的主觀感受來區分提問難度。例如,人們普遍認為,一些有關加拿大多倫多的問題,比一些有關墨西哥的冷門小鎮Akil的問題更簡單易答。

從測試結果可以得知,AI大模型的參數量越大、版本越新,其回答的精準度越高,但隨著問題難度逐步增加,其回答的精準度有所下降。這大致與研究人員的預期相符。

然而,研究人員發現這些主流的AI聊天機器人即使經過最佳化,遇到無法回答的問題時還是會傾向於生成錯誤答案,而不是直接承認不清楚、不知道。

在面對非常難的問題時,AI大模型選擇不回答可能是一個明智之舉。不過,研究人員在測試的AI大模型中,並未發現明顯的迴避提問的趨勢。相反地,GPT-4等AI大模型幾乎回答了所有提問。

事實上,這些經過最佳化的AI大模型版本,反而誤答的情況更嚴重。在所有誤答和不答的情況中,幾個經過微調的版本給出錯誤答案的比例甚至超過了60%。

與此同時,研究人員還發現AI大模型面對簡單的提問,有時也會出現“腦霧”現象。這也意味著,使用者使用這些AI大模型時不存在所謂的“安全操作範圍”,無法確保AI給出的答案是對的。

可能有10%到40%的使用者,聽信了AI大模型生成的錯誤言論

除了AI大模型本身“犯迷糊”,該研究還發現,人們通常也難以發現AI回答中的錯誤。

為了測試人們是否能自己發現AI的“腦霧”行為,研究人員讓人們隨機判斷這些回答是正確的、錯誤的、還是逃避回答。

然而事實上,無論這些問題的難度如何,人們經常誤判,將不精準的答案當作正確答案。測試結果顯示,人們誤判的頻率大約介於10%到40%。

Hernández-Orallo稱:“人類自身無法有效監督這些AI大模型的演化。”他認為,使用者日常可能會過分高估和信任AI聊天機器人的能力,而這會帶來危險的後果。

解決之道:超過範圍一律答“不知道”

Hernández-Orallo提議,AI開發者應著重提升AI大模型在處理簡單問題時的整體表現,並且引導AI聊天機器人拒絕回答一些較為困難的問題,從而讓使用者更容易判斷,在哪些情況下AI助手是值得信賴的。人們要懂得在哪個範圍內適合使用AI,而在哪個範圍內AI助手難以勝任工作。

他進一步解釋道,雖然訓練AI聊天機器人處理複雜問題的能力,不僅表面上令人印象深刻,還能在排行榜上有不錯的競爭力,但有時並不管用。

OpenAI最新的o1大模型給他留下了深刻的印象。但他發現,儘管該模型可以執行兩個非常大的數字的乘法運算指令,但是它給出了一個錯誤的答案。

在Hernández-Orallo看來,這個問題可以通過設定一個閾值上線來解決,當AI聊天機器人遇到超出這個閾值的複雜問題,直接回覆“我不知道”就好。

AI大模型越來越擅長不懂裝懂,用觀點而非事實作答

AI大語言模型(LLM)在回答問題時會犯錯,或者出現“腦霧”的情況,已經引起了很多人的注意。

來自西班牙瓦倫西亞AI研究所的Hernández-Orallo及其同事共同研究了,AI大模型不斷迭代最佳化後,其“腦霧”現像是如何隨之變化的。

這裡AI大模型的最佳化包括更大的參數量或決策節點、使用了更多的訓練資料、消耗了更多的算力等情況。該研究團隊還跟蹤分析了AI大模型出現“腦霧”的頻率高低,是否與人們所認為的問題難度相匹配,以及是否與人們發現AI回答錯誤的頻率相對應。

該研究團隊發現,採用強化學習等方式人為微調後的AI大模型版本,其生成答案的精準度整體上有所提高。但似乎不能高興得太早,這些AI大模型的錯誤率也在同步增加。

研究發現一些原本AI大模型選擇“逃避回答”的問題,過去會用“我不知道”或者轉移話題來解決,但現在更多是通過給出一個錯誤答案來應付。這使得這些AI大模型出現“腦霧”情況的比例增加,反而變得更加不可靠。

Hernández-Orallo稱:“現在這些AI大模型基本上有問必答,這意味著生成更多正確答案的同時,錯誤答案卻也更多了。”換句話說,當聊天的話題超出了一個AI聊天機器人現有的知識儲備,它輸出觀點的傾向比過去更明顯。

在英國格拉斯哥大學(the University of Glasgow)攻讀科學與技術專業的哲學家Mike Hicks,將這種“腦霧”現象稱為“胡扯”,即這些AI大模型越來越擅長不懂裝懂。

針對專業領域微調的AI聊天機器人,“腦霧”頻率有效降低

現在已有部分AI大模型採取了與設定閾值類似的方法。它們遇到超出知識範圍的問題後,會回答“我不知道”,或者“我沒有足夠的資訊來解答這個問題”。

哥倫比亞南卡羅來納大學(the University of South Carolina)的電腦科學家Vipula Rawte稱,基本上所有AI開發者都致力於減少AI大模型的“腦霧”現象,有時還會特意最佳化這一點。包括醫學用途在內,一些針對專業領域設計的AI聊天機器人,其回答機制通常更嚴謹,以免它們亂答超綱問題。

然而,Vipula Rawte也補充說,如果AI開發者想要銷售通用的AI聊天機器人,那麼這種更保守的回答機制,一般情況下不是他們會選擇的賣點。

 

 

加入T客邦Facebook粉絲團
❌