阅读疯子

阅读视图

发现新文章,点击刷新页面。

Epic Games 免費遊戲每週記得領卻放著不玩,玩家討論為何對免費領來的遊戲提不起勁?

作者 janus
Epic商城揭露玩家領取免費遊戲卻不玩的現象,引發熱議。探討玩家缺乏動力、平台體驗、生活壓力等原因,以及玩家的真實反應。86a3c27bb548a9bbc1ab9b94044b3bf0

Epic Games Store 長年來以「每週送免費遊戲」作為平台主打策略,成功吸引大量用戶註冊與綁定帳號。不過,這樣的「喜加一」文化如今卻引發不少玩家的反思——為什麼我領了這麼多遊戲,卻一款也沒玩?

近期 Epic 在中國知乎平台上的一則回應,點出「許多玩家領了免費遊戲後反而沒動力開啟」的現象,意外引發玩家社群熱烈討論。而這不只是中文圈的現象,在 Reddit、PC Gamer 等國際平台,也有許多類似討論,顯示這已是全球玩家的集體行為模式。

領遊戲變成「儀式」,不是為了玩?

在 Reddit 的多個討論串中,不少玩家坦言自己的 Epic 遊戲庫早已超過 200 款,卻可能只實際啟動過其中不到 5%。有玩家自嘲:「我只是每週準時打卡領免費遊戲,從沒打算真的玩。」

更有趣的是,有部分玩家指出:「不只免費遊戲,我連花錢買的遊戲也堆著沒玩。」這種「數位堆積症」讓人聯想到串流平台的內容選擇疲乏:選項太多、反而無從下手,最後選擇去看 YouTube 短片。

也有玩家提到Epic Games Store 缺乏良好的社群系統、成就機制與介面操作體驗,讓遊玩意願大打折扣。有些人即便領了免費遊戲,最後仍選擇去 Steam 上購買同一款,只為了更好的體驗與朋友互動。

Epic 免費遊戲策略還有效嗎?

自 2018 年底上線以來,Epic 遊戲商城通過贈送包括《GTA 5》和《文明 6》在內的大量免費遊戲吸引 Steam 使用者安裝其啟動器。初期一年就有超過 5.8 億份免費遊戲被領取。儘管每年贈送數億份遊戲需要巨額投入,但EPIC認為這一策略是「非常划算」的用戶獲取方式,同時還能促進遊戲開發者的發展。

從行銷角度來看,Epic 這套策略曾取得極大成功。例如 2020 年送出《GTA V》時,單週就吸引超過 700 萬名新用戶加入。然而隨著玩家「喜加一疲乏症」浮現,許多玩家開始質疑這套模式的長期效益

一位 Reddit 用戶直言:「我根本不是 Epic 的客戶,我只是來收免費遊戲的。」

玩家為何對免費遊戲提不起勁?

無論是平台設計、遊戲取得方式,或是現代人生活壓力與注意力分散,都是讓玩家「有遊戲卻懶得玩」的可能原因。也許,未來遊戲平台該思考的不只是「怎麼送更多」,而是「怎麼讓人想玩」,從推薦機制、社群設計到遊戲心理學介入,重新打造「打開一款遊戲」的儀式感,才可能讓遊戲重拾吸引力。

玩家不願打開遊戲的原因相當多元,以下列出幾項常見的因素:

  • 缺乏動力: 免費或低價取得的遊戲,容易讓人覺得不夠珍貴,缺乏遊玩的動力。
  • 平台體驗不佳: Epic商城的介面設計或其他功能,可能不如其他平台完善,導致玩家寧願付費到其他平台購買。
  • 生活壓力: 現代人生活忙碌,工作或學業壓力大,回到家後只想放鬆,面對遊戲庫裡眾多的遊戲,反而感到疲憊,最終選擇觀看短影音等更輕鬆的娛樂。

 

 

加入T客邦Facebook粉絲團

OpenAI出庭表示若Google出售Chrome他們有意接手,並說去年就試圖聯繫Google合作但沒成功

作者 janus
OpenAI考慮收購Chrome?高層證實若Google出售有意購買,打造AI優先瀏覽器,挑戰市場壟斷,引領網路新體驗。0235f95935184cb5fb51d251d3fbbe38

如果Google最終被迫出售Chrome瀏覽器,OpenAI已經表態願意接手這個全球最受歡迎的瀏覽器之一。

根據《路透社》報導,OpenAI產品主管尼克·特里(Nick Turley)近日在美國司法部對Google的反壟斷訴訟中出庭作證時表示,若有機會,他們「有興趣收購Chrome」。這起案件是針對Google在搜尋引擎市場的壟斷行為,法官Amit Mehta已於去年裁定Google確實構成壟斷,目前訴訟已進入「補救措施」階段。司法部主張,應強制Google將Chrome業務分拆,藉此打破其搜尋市場的主導地位。Google已表示將提出上訴。

特里在法庭上透露,OpenAI早在2024年就曾聯繫Google,討論是否能與ChatGPT合作,取得Google搜尋技術的使用權。不過,Google最終並未同意合作。他強調:「我們目前與Google沒有任何合作關係。」

目前,ChatGPT的搜尋功能依賴微軟Bing的資料來源,但特里指出,與這家未具名的「供應商一號」(Provider No. 1)合作時,OpenAI遇到「重大的品質問題」。雖然他未直接點名Bing,但消息來源《彭博社》推測此人指的正是微軟。特里表示:「我們相信,若能擁有多元的合作夥伴,尤其是Google的搜尋API,將能讓我們提供更好的產品體驗。」

除此之外,OpenAI也正著手打造自家的搜尋索引系統。原本的目標是希望在2025年底前,讓ChatGPT八成的查詢都能透過自研搜尋引擎處理。然而,特里承認,進度遠不如預期,這個目標恐怕還要「好幾年」才能實現。

從長遠來看,若能收購Chrome,將對OpenAI是一項重大突破。Chrome不僅擁有全球最龐大的使用者群,還具備成熟的技術架構,讓OpenAI能快速整合自家的AI技術,打造出更智慧化、個人化的網頁瀏覽體驗。舉例來說,未來的瀏覽器可能能根據使用者的興趣與習慣,主動推薦內容、過濾不必要的資訊與廣告,甚至作為AI助手的前端介面。

不過,這項構想同時也充滿挑戰。首先,Google是否真的會出售Chrome仍未可知;即便出售,OpenAI是否具備足夠資源承擔這項龐大收購案,也是一大變數。此外,收購後還須處理龐大的技術整合、人力接手、用戶隱私與法規合規等層層問題。

最後,若OpenAI真收購Chrome,也可能引發新的市場壟斷疑慮與監管壓力,特別是在AI與搜尋結合日益緊密的當下。監管機構對這類整合案的態度將成為未來關鍵變數。

整體而言,OpenAI對Chrome的興趣,不僅顯示其對AI發展的雄心,也表明其試圖重新定義「智慧網路入口」的野心。若這項收購最終成真,勢必將為全球瀏覽器與搜尋市場帶來劇烈變化。

 

 

加入T客邦Facebook粉絲團

特斯拉遭指控會「調表」刻意提高里程數以過保?美國車主怒告、馬斯克反駁「太蠢了」

作者 janus
最近特斯拉在美國被車主質疑「調表」,指的則是他們會用種種方法來提高里程數。53739eb24d4e196f4f3e0f2e35a29f0c

我們在購買中古車時,常常會聽到有經驗的人會提醒你要小心買到「調表車」,指的是透過修改里程計的方式,降低里程數,提高中古車的的價值。不過,最近特斯拉在美國被車主質疑「調表」,指的則是他們會用種種方法來提高里程數。

電動車龍頭特斯拉(Tesla)近日在美國面臨一項引發爭議的集體訴訟,有車主指控特斯拉透過「調整里程數」的方式,刻意高估實際行駛距離,導致保固提前失效,讓消費者必須自費維修。這項指控一出,不僅引起車主社群熱議,也讓執行長馬斯克(Elon Musk)親自跳出來駁斥,稱這說法「愚蠢至極」。

車主控訴:每天只開32公里,卻顯示116公里

提起訴訟的是洛杉磯居民尼里·辛頓(Nili Hinton),他表示自己擁有的2020年款Model Y,在日常通勤中每天最多只行駛約20英里(約32公里),但車輛儀表板卻顯示每天行駛72英里(約116公里)。他認為這不合常理,並質疑特斯拉的里程計算方式受到能耗、駕駛行為甚至「預測演算法」的影響。

更糟的是,正因為這種高估的里程數,讓原本應仍在保固期內的車輛提前失去保修資格,導致他必須自費支付高達1萬美元(約新台幣32萬元)的懸吊系統維修費用。

辛頓的訴訟主張,特斯拉不只在里程數上動手腳,還將保固期限與租賃的里程上限綁定「膨脹後」的顯示數據,進而削減自身保固責任、增加維修收入,甚至誘導消費者提前購買延長保固方案。

這項說法,若成立,可能對特斯拉的商業操作帶來極大爭議,也會影響消費者對電動車保固制度的信任。

馬斯克火速回應:太愚蠢了

對此訴訟,馬斯克透過社群平台X公開表示:「這項訴訟太愚蠢了(It’s just too dumb)」,直接否認特斯拉透過演算法操控里程表。多位特斯拉資深車主也在論壇與社群媒體上聲援,指出特斯拉從未使用預測演算法來影響里程顯示,認為訴訟說法站不住腳。

此外,根據特斯拉過去財報顯示,維修與售後服務並非其主要獲利來源,特斯拉車款普遍維修需求低,這點也與傳統車廠明顯不同。

這起事件也反映出電動車普及後,消費者對「里程數與保固」之間關係的敏感度提高。相較傳統汽車,電動車的維修頻率較低,但零件與工資成本卻可能較高,保固範圍與條件自然成為雙方關注的重點。

若特斯拉未來在其他市場也出現類似爭議,將不僅牽動品牌聲譽,也可能促使各國主管機關重新檢視電動車保固與里程數計算機制的規範。

加入T客邦Facebook粉絲團

AI科學家Yann LeCun 表示他不再對 LLM感興趣,轉向解決4個「真正難題」以及下一代智慧藍圖

作者 janus
LeCun 表示:「未來的人工智慧,不會是一個瞬間、一家公司、一個模型的成就,而是整個人類社群長時間積累的成果。」F0746301b8401bb6502f8a2ed31730b0

在當前 AI 世界狂熱地追逐大型語言模型(LLM)時,有一位聲音顯得格外清醒。他是深度學習的奠基人之一,也是 Meta 的首席 AI 科學家 —— Yann LeCun。在 2025 NVIDIA GTC 大會中,LeCun 與 NVIDIA 首席科學家 Bill Dally 展開一場對談。不到三十秒,他便語出驚人:「我已經對 LLM 不感興趣了。」

這句話並不是單純的挑釁,而是一場思想上的轉向。他的目光,早已越過了語言模型的邊界,投向更深層的智能挑戰。他看見了今天 AI 的盲點,也為它描繪了一條前所未見的路。

語言不是一切,理解世界才是真智能

在這場談話中,LeCun 表達了一種幾乎與主流意見相左的觀點。他認為當前 LLM 的發展已經進入工程優化的階段,重點在於「多一點資料、多一點算力」來讓模型更穩定、更具商業價值。

「這些是產品經理的事,對我來說不再有趣了。」他說。

他不否認 LLM 所創造的語言奇蹟,但在他看來,那並不是智能的終點,而僅是語言模仿的技術。真正的智能,不該只是生成文字,而是理解這個世界、記住過往經驗、推理出未來的可能,並能根據目標規劃行動。

這一切,都不是現在的 LLM 所能做到的。

四個真正未解的問題

談到 AI 未來真正的挑戰,LeCun 清楚地指出了四個他認為至關重要、但目前尚未有令人滿意解答的領域。

第一是對物理世界的理解。他舉了一個極簡的例子:當人看到一個瓶子,知道推它會滑,敲它會彈,這些都是我們從小累積的世界模型。但今天的 AI,無論是從圖片、影片還是文字中,都無法真正掌握這些「常識」。

第二個挑戰是持久記憶。大多數 AI 系統處理輸入時是一次性的:輸入 → 推理 → 輸出。它不會記得你上一秒說了什麼,更無法累積對世界的長期觀察與認知。而人類的記憶,正是推理與學習的基礎。

第三,則是最根本也最具哲學意味的問題:推理。LeCun 對現今所謂「agentic AI」的批評頗為嚴厲。他認為讓模型生成一堆答案,再從中選出最可能正確者,根本不是推理,而是暴力試錯。他說這種方法就像「亂寫程式然後看哪個跑得動」,低效而粗糙。

第四個挑戰則是規劃能力。真正的智能不只是對當下做出反應,更能思考未來。他形容:「如果 AI 能夠在內部模擬一個世界,然後根據某個假設行動去預測未來的結果,那它就能計劃達成目標的最佳路徑。」而這,才是人類做決策的真正方式。

AI科學家Yann LeCun 表示他不再對 LLM感興趣,轉向解決4個「真正難題」以及下一代智慧藍圖

JAPA:一種更接近人腦的新架構

對於解決這些挑戰,LeCun 並非空口說白話。他和團隊已經在設計一套嶄新的 AI 架構,名為 JAPA(Joint Embedding Predictive Architecture)。它不是語言生成器,不模仿人類對話,而是一套可以在抽象空間中思考與預測的系統。

「當你在腦中想像一顆立方體旋轉,你不是在腦中拼字詞,而是在操作一種抽象模型。」LeCun 如此比喻。他希望 AI 也能具備這樣的能力 —— 在一個抽象表示空間(latent space)中,理解世界的結構,模擬行動的後果,進而推理與規劃。

這是一種對現今 LLM 的徹底顛覆。不是 token 的堆疊,不是語言的預測,而是認知與世界模型的建構。

開源、合作、與人類智慧的共同體

除了技術的革新,LeCun 也毫不掩飾他對「開源」與「多樣性」的支持。他強調,真正的 AI 不會只誕生在矽谷的幾家公司手中。

「未來的智慧助理,不能只說英文,也不能只有一種文化觀。它們要能理解全世界所有語言、文化、價值觀與偏好,」他說,「我們需要一個像新聞媒體一樣多元的 AI 生態。」

他將 LLaMA 模型與 PyTorch 的開放精神視為未來的希望,也認為 foundation models 應該走向全球分布式訓練與社群式貢獻,讓各地區能以保有資料主權的方式,共建全球智能基礎。

AGI 不會從某個神秘實驗室誕生

當對話接近尾聲,LeCun 又補上一句:「未來的人工智慧,不會是一個瞬間、一家公司、一個模型的成就,而是整個人類社群長時間積累的成果。」

他認為,這個過程將需要開放的研究、全球的合作、與更便宜、更高效的硬體(然後開玩笑地說:「NVIDIA,你們該降價了。」)。

如果說 LLM 是當今 AI 的盛世,那麼 LeCun 心中的未來,是一場真正對人類智慧本質的回歸。他不做炒作,不講流行語,只是默默地,用他的方式,讓 AI 回到一個根本的問題:它到底懂不懂這個世界?

加入T客邦Facebook粉絲團

部分用戶回報YouTube 首頁推薦影片異常,官方表示調查中

作者 janus
YouTube 首頁推薦影片異常?推薦影片過少或不相關?官方已承認問題並著手調查,了解最新情況與可能原因。6cc3e6777e94d57739bf7286f341c9b7

部分使用者最近發現 YouTube 出現首頁顯示異常的錯誤,推薦影片不是全數消失,就是數量大幅減少。YouTube 官方已確認這個 bug 的存在,並表示正進行調查。

根據 YouTube 官方社群論壇上的一篇貼文,一名團隊版主指出這個問題已經引起關注。這個錯誤會讓使用者打開 YouTube 時,首頁上原本應該出現的推薦影片完全空白,或只顯示非常少量的影片。

YouTube 也提到,這個 bug 可能會導致出現一些與你興趣不符的推薦影片,換句話說就是推薦系統亂掉了。這些狀況來自用戶的回報,雖然不確定在哪些情況下會發生,不過該篇論壇貼文已累積超過 80 個讚,顯示確實有不少人遇到同樣狀況。

這個首頁錯誤不僅出現在手機裝置上,也影響桌機版與網頁版 YouTube,顯示問題可能出在推薦演算法本身,讓系統無法正確推播個人化內容。這對創作者來說是個不小的打擊,因為首頁推薦是影片曝光與點閱的重要來源。

目前 YouTube 並未明確表示工程團隊已著手修復這項錯誤,只在回覆中表示「正在調查中」,目前尚無可用的修復方法

加入T客邦Facebook粉絲團

Google官方AI提示工程白皮書解析:讓AI聽懂你的命令有方法,學會這7個技巧大模型就不會答非所問

作者 janus
隨著AI進入職場,學習提示工程可說是像Excel、PowerPoint一樣的必備職場技能。3348312c728d6965b89dacd2acd48183

在 AI 模型越來越強大的今天,與其說「你是怎麼問的」不如說「你怎麼設計提示」更關鍵。Google 團隊近日發表一份由 Lee Boonstra 主筆的白皮書《Prompt Engineering》,系統性地介紹如何針對大型語言模型(LLM)設計高效提示,幫助開發者與使用者從 AI 模型中獲得更準確、有條理的回應。

Prompt 工程是什麼?

提示工程是一種設計文字輸入(prompt)的技術,透過設計得宜的語句,引導 AI 模型輸出符合預期的結果。無論你是要它總結一段文字、生成程式碼、翻譯語言、分析情境或分類資料,一個好的 prompt 能讓 AI 表現出色;反之,模糊或無結構的 prompt 往往得到的是雜亂、無用的答案。

核心設定參數:溫度值、Top-K、Top-P、Token 數量

除了提示內容,模型本身的輸出設定也深深影響結果。像是:

  • Temperature(溫度):控制隨機性,低值偏向固定輸出,高值則會讓輸出更有創意。

  • Top-KTop-P(nucleus sampling):設定模型只從前 K 名或累計機率前 P 的詞彙中挑選下一個 token。

  • 最大 Token 數量:決定輸出的長度。

這些參數若搭配不當,也可能出現模型進入「重複迴圈」產生冗詞的問題。

不過,這些參數設定只有進階使用本地端跑大模型的人才會用的到,對於一般我們習慣直接使用像是ChatGPT、Gemini、Grok等已經由官方幫我們調教好的這些大模型,是沒辦法調整這個參數的。

提示詞技巧實戰:從零樣本到角色扮演

提示詞(Prompt)是與大型語言模型(如 ChatGPT、PaLM 2、Gemini 等)互動的「介面語言」。根據 Google 白皮書的歸類,設計提示詞的策略可分為幾種主要類型,各自對應不同的任務與使用需求。

白皮書歸納多種常見的 prompt 設計方式,包括:

  • Zero-shot:直接給任務指令,不提供範例。

  • Few-shot:加入幾個範例,幫助模型模仿。

  • 系統提示(System Prompt):定義任務目的與結構。

  • 角色提示(Role Prompt):讓模型扮演特定角色,如導遊、老師。

  • 上下文提示(Contextual Prompt):提供任務背景資訊。

  • Chain of Thought:要求模型逐步推理,有助於複雜問題解題。

  • Step-back Prompting:讓模型先思考相關問題,再回答原始任務。

以下進一步提供範例,方便大家理解。

1. Zero-shot Prompt(零樣本提示)

最直接的方式,單純給指令不加任何範例。

範例:

請將這段英文翻譯為繁體中文:The future of AI is exciting.

2. Few-shot Prompt(少樣本提示)

加入一到兩個範例,提高模型理解任務格式的準確度。

範例:

英文:Good morning.
中文:早安。
英文:How’s the weather today?
中文:

3. System Prompt(任務說明)

告訴模型它的角色與行為範圍。

範例:

你是一位資深 UI 設計師,請針對以下 APP 界面給出使用者體驗改善建議。

4. Role Prompt(角色扮演)

讓 AI 模型「扮演某人」幫助聚焦回答風格。

範例:

假設你是營養師,請為中午要外食的上班族推薦三種高蛋白但不油膩的便當選項。

5. Contextual Prompt(情境式提示)

給背景資訊,讓模型理解任務情境。

範例:

使用者為新手攝影師,請簡單解釋「快門速度」與「感光度」的差異。

6. Chain-of-Thought Prompt(思路鏈)

鼓勵模型一步步推理,適用於邏輯與數理問題。

範例:

問:如果1顆蘋果要15元,我買了4顆,然後用100元付款,找回多少錢?請逐步列出計算過程。

7. Step-back Prompting(反向思考)

請模型先思考要問什麼,幫助拆解複雜任務。

範例:

為了判斷「這家公司是否值得投資」,我們應該先問自己哪幾個問題?請列出三項。

 

提示詞七大技巧類型對照:何時用、為何用?正反範例解析!

接下來我們進一步用更多的例子,讓你理解各種提示詞技巧的使用場合


1️⃣ Zero-shot Prompt(零樣本提示)

✔ 適用簡單任務 / 快速測試

正面範例

請翻譯以下英文句子為繁體中文:It is raining today.

模型回應清晰、精確

今天正在下雨。

負面範例(沒說要翻譯、沒指定語言)

It is raining today.

🔴 模型可能誤解成續寫或評論天氣,不翻譯

Yes, it seems like a gloomy day.

💡 為什麼要加任務指令?
模型無法預測你的意圖,Zero-shot 必須指令明確、具體。


2️⃣ Few-shot Prompt(少樣本提示)

✔ 適用於格式需要模仿、語氣有要求的任務

正面範例

英文:Good night.
中文:晚安。
英文:Thank you.
中文:

模型正確理解任務,並模仿格式

謝謝你。

負面範例(無示範)

請翻譯英文:Thank you.

🔴 模型可能使用簡體、英文回答,或亂換格式

Thanks.
感謝(沒有前後對應格式)

💡 為什麼提供範例?
能穩定模型輸出格式與風格,尤其用於自動化批次處理效果最佳。


3️⃣ System Prompt(系統任務說明)

✔ 用來設定模型身份、用途與語氣範疇

正面範例

你是一位資深科技記者,請撰寫一段正式口吻的新聞導言。

模型語氣嚴謹,風格新聞化

負面範例(沒設定角色)

幫我寫一段新聞稿。

🔴 模型可能語氣過於輕鬆、像部落格

大家注意啦~新 iPhone 又來了!

💡 為什麼要設定「你是誰」?
角色定位能幫助模型調整語氣、專業度與上下文理解。


4️⃣ Role Prompt(角色扮演)

✔ 適合模擬對話、客服、教學與風格演出任務

正面範例

請扮演一位有耐心的小學數學老師,向十歲孩子解釋「分數是什麼」。

模型會用簡單語言、有例子、語氣溫和

負面範例(直接說:解釋分數)

解釋分數。

🔴 模型可能使用過於技術化的術語

分數是兩個整數 a/b 的比值...

💡 為什麼要加入角色?
能影響模型的用詞、邏輯、語調,適用於使用者導引與對話設計。


5️⃣ Contextual Prompt(提供上下文)

✔ 當任務需理解背景,避免模型「自行想像」錯誤場景

正面範例

背景:你是一名客服,面對一位對送貨延遲不滿的客戶。
任務:請撰寫一段道歉且具建議的回應。

模型能理解立場與語氣,給出具體建議

負面範例(沒給背景)

幫我寫一段道歉文字。

🔴 模型可能內容空泛、無針對性

很抱歉造成不便,希望您能見諒。

💡 為什麼要提供背景?
模型沒有記憶、不知道任務場景,上下文有助建立任務「狀態」。


6️⃣ Chain-of-Thought(思路鏈提示)

✔ 複雜問題、需要邏輯推理與數學運算時特別有效

正面範例

請一步步計算:我有 500 元,買了三樣商品,分別是 150、180 和 90 元,還剩多少?

模型會依序列出計算過程與結果

負面範例(只問最終答案)

我買了這三樣商品後還剩多少錢?

🔴 模型可能算錯,或中途跳步驟

💡 為什麼要要求分步驟?
可以讓模型「慢慢想」,降低算錯、亂猜的機率。


7️⃣ Step-back Prompting(反向拆解提示)

✔ 複雜任務前先引導模型「反問」,強化思考結構

正面範例

在回答「我該不該離職創業?」之前,請先列出應該考量的五個關鍵問題。

模型會先建立決策框架,再進行判斷

負面範例(直接問:我該不該離職?)

我該離職嗎?

🔴 模型回應過於簡化或主觀

視情況而定,創業很辛苦。

💡 為什麼要讓模型「先退一步」?
能幫助生成更全面的回應架構、避免一刀切式結論。

 

技巧類型 建議使用情境 常見錯誤 改寫建議
Zero-shot 快速直白任務 沒說清楚 明確任務語句
Few-shot 格式/語氣穩定 無範例模仿錯 加 1–2 組範例
System 建立角色邏輯 模型亂發揮 定義任務/身份
Role 對話/角色模擬 回應風格錯誤 指定角色語氣
Context 多變任務背景 無背景失焦 補上下文說明
CoT 數學/邏輯題目 一步到位錯誤 要求分步驟
Step-back 決策/諮詢類 結論過快偏頗 先列思考面向

 

額外補充:指令強化提示詞(Instructional Prompts)

無論以上哪一類型,都可以進一步搭配「明確的結構指令」加強回應品質。

指令強化範例:

  • 請以條列式列出

  • 控制在 150 字以內

  • 請避免重複詞

  • 請先給結論,再附理由

 

讓 AI 成為聽得懂你說話的「助手」

提示詞不是魔法,而是一種「策略對話設計」。透過這些分類與實戰練習,你不只能更高效地引導 AI 工作,還能真正將它變成日常生活與職場上的得力助手。

加入T客邦Facebook粉絲團

ChatGPT竟然會「叫出你名字」嚇壞用戶?擬人化設計讓用戶表示:有夠毛!

作者 janus
社群平台上不少用戶直呼「超詭異」、「根本毛骨悚然」,也讓人再度關注 AI 擬人化設計所可能引發的心理與隱私界線問題。0cdad2e8e7939bb2206acd60c48ade43

近來部分 ChatGPT 用戶在使用過程中發現,AI 居然會在未經授權、甚至未曾提供姓名的情況下,直接稱呼他們的名字,引發不小爭議。社群平台上不少用戶直呼「超詭異」、「根本毛骨悚然」,也讓人再度關注 AI 擬人化設計所可能引發的心理與隱私界線問題。

根據《PCMag》與《TechCrunch》報導,一位軟體開發者在 X(原 Twitter)上發文指出,當他向 ChatGPT 詢問一道數學題時,AI 居然直接使用了他的名字。他表示這種行為「令人不舒服且完全沒必要」。另一位用戶更語帶憤怒地說:「我超討厭這樣,感覺就像 AI 在偷窺我。」

ChatGPT竟然會「叫出你名字」嚇壞用戶?擬人化設計讓用戶表示:有夠毛!

更令人不安的是,有些用戶聲稱從未向 ChatGPT 提供過任何姓名資訊,卻仍被點名。這讓人擔憂 OpenAI 是否透過其他方式存取了用戶資料,或是在模型記憶上出現了異常。

問題出在「o3 模型」與記憶功能?

目前看來,這個異常主要發生在 OpenAI 近期推出的 o3 版本模型 上。該版本具備「展現思考過程」的能力,會在回答前顯示推理邏輯,而這些稱呼用戶名字的行為,正是出現在這段「思考過程」中,並非最終答案的一部分。

此外,也有觀察指出這或許與 OpenAI 推出的「記憶功能(Memory)」有關。該功能允許 ChatGPT 根據使用者過去的提問記錄提供更個人化的回應。不過也有用戶表示,即使已關閉記憶功能,AI 依舊會叫名,進一步加劇使用者的疑慮。

截至目前,OpenAI 官方尚未針對此問題做出回應。不過根據觀察,在上週五過後,o3 模型似乎已回復預設行為,不再主動稱呼用戶名字。

ChatGPT竟然會「叫出你名字」嚇壞用戶?擬人化設計讓用戶表示:有夠毛!

擬人化過頭,反讓人起雞皮疙瘩

AI 工具若表現得「像人」,是否就代表更好用?心理學界早已針對這點提出「恐怖谷效應(Uncanny Valley)」的概念:當機器人或 AI 的行為太過接近人類,但又不夠自然時,反而會讓人產生不適感。

位於杜拜的精神診所 The Valens Clinic 曾指出,「名字」的使用原本象徵著信任與親密,但如果是冷冰冰的機器人過度使用,反而可能被解讀為虛假與不敬。正如有網友諷刺地說:「沒人會希望自家的烤麵包機突然叫他名字。」

而 OpenAI 執行長 Sam Altman 最近也提到,未來的 AI 將能「陪伴你一生、了解你所有需求」,成為高度個人化的助理。但這次風波也顯示出,在實踐這種願景的過程中,用戶的心理界限與隱私意識不可忽視。

加入T客邦Facebook粉絲團

OpenAI 最强推理模型 o3 的「看照片找地點」功能太強大,實測它如何透過一張照片就解鎖隱藏訊息?

作者 janus
探索AI圖像推理的驚人能力!O3如何運用強化學習,從照片中解讀地點、時間,甚至辨識人物與物件?91b4e8aaaa2007c739f11c7b746c885a

人工智能(AI)的發展日新月異,圖像識別技術也隨之突飛猛進。最近,Chatgpt新增的o3模型展示了其驚人的圖像推理能力,引起了廣泛關注。不過,更引起網友討論的是,o3不僅能辨識照片中的物體,還能根據照片中的細節,推斷出拍攝地點、時間,甚至辨識人物和物件。

而我們也上傳了幾張照片,發現o3的找出照片地點的功力,還真的不是蓋的。

OpenAI 最强推理模型 o3 的「看照片找地點」功能太強大,實測它如何透過一張照片就解鎖隱藏訊息?

這張照片我們刻意選了不是那麼知名的景點,把GPS地理的附加資訊拿掉,讓他思考的時間久了一點,花了兩分多鐘得到答案,不過答案相當正確。

OpenAI 最强推理模型 o3 的「看照片找地點」功能太強大,實測它如何透過一張照片就解鎖隱藏訊息?

OpenAI 最强推理模型 o3 的「看照片找地點」功能太強大,實測它如何透過一張照片就解鎖隱藏訊息?

 

o3的推理過程:觀察、搜尋、推理、驗證

o3的圖像推理能力並非憑空而來,而是建立在嚴謹的推理過程之上。我們再用另外一個例子來看,並附上他的推理過程。

OpenAI 最强推理模型 o3 的「看照片找地點」功能太強大,實測它如何透過一張照片就解鎖隱藏訊息?

 

首先,o3會仔細觀察照片中的每一個細節,包括建築風格、植物種類、地形地貌等。像是以這張照片來說,它會把照片中一些值得注意的「線索」切分出來,以便他進行後續的推理。

OpenAI 最强推理模型 o3 的「看照片找地點」功能太強大,實測它如何透過一張照片就解鎖隱藏訊息?

然後如果有些部分他覺得不清楚的地方,還可以放大縮小的方式來檢視,甚至如果覺得圖像有模糊不清的地方,還會用影像處理的方式得到更多細節。

OpenAI 最强推理模型 o3 的「看照片找地點」功能太強大,實測它如何透過一張照片就解鎖隱藏訊息?

接著,它會利用網路搜尋引擎,查找與這些細節相關的訊息。然後,o3會根據搜尋結果進行推理,推斷出可能的拍攝地點和時間。最後,o3會進行驗證,比對照片中的細節與實際情況是否相符,以確保推理的準確性。

以這張圖來說,最終他給的答案是:

OpenAI 最强推理模型 o3 的「看照片找地點」功能太強大,實測它如何透過一張照片就解鎖隱藏訊息?

不過,很遺憾的是他給的答案是錯的,雖然是在奈良沒有錯,也的確是在寫真美術館附近,但是是在寫真美術館對面的一間屋子,也因此他才會在玻璃門左下方看到對面「紀念館」三個字的倒映文字。但是這樣已經相當厲害了。

我們還是找了一下,正牌的寫真美術館其實是長這樣的。

OpenAI 最强推理模型 o3 的「看照片找地點」功能太強大,實測它如何透過一張照片就解鎖隱藏訊息?

o3的視覺推理其實有一個很重要的過程,就是把圖片裡頭的元素拆解出來,這個過程就像是把原本用Prompt「文生圖」 的過程逆推回去,找到原本的prompt。因此,對於o3來說,其實只要他比對到有一樣的元素,而且重疊的比例越高,基本上就會認為是一致。

 

OpenAI 最强推理模型 o3 的「看照片找地點」功能太強大,實測它如何透過一張照片就解鎖隱藏訊息?

 

o3的應用:不僅僅是地點推測

o3的圖像推理能力不僅僅可以用於推測照片的拍攝地點和時間,還可以應用於其他領域。例如,它可以根據汽車儀表盤的照片,判斷出汽車的品牌和型號;它可以根據鳥類的照片,判斷出鳥類的種類;它甚至可以在人群中辨識出特定的人物。

不過,o3似乎還是有著OpenAI家族一貫對於名人「有所忌諱」的問題,會避免直接講出真人的名字。

OpenAI 最强推理模型 o3 的「看照片找地點」功能太強大,實測它如何透過一張照片就解鎖隱藏訊息?

OpenAI 最强推理模型 o3 的「看照片找地點」功能太強大,實測它如何透過一張照片就解鎖隱藏訊息?

OpenAI 最强推理模型 o3 的「看照片找地點」功能太強大,實測它如何透過一張照片就解鎖隱藏訊息?

o3並非萬能。在某些情況下,它也會出現判斷錯誤。例如,當照片中的特徵不明顯時,或者當照片中的場景與其他地方相似時,o3可能會做出錯誤的推理。此外,o3的推理能力也受到資料庫的限制。如果資料庫中沒有相關的訊息,o3就無法做出準確的判斷。

o3之所以能夠具備如此強大的圖像推理能力,關鍵在於「強化學習」。OpenAI發現,在強化學習中,給模型的思考時間越長,模型的能力也會越強。因此,他們讓AI學會了如何使用工具,以及在什麼時候該使用什麼工具。這使得o3能夠不斷放大圖片,以像素級精度查看圖片的每個角落,觀察到普通人往往忽略的細節,再把所有獲取到的訊息放在網路上搜尋。足夠多的訊息量,足夠長的時間,配合著足夠強大的推理能力,就爆發出了這種驚人的效果。

 

 

加入T客邦Facebook粉絲團

xAI Grok 3 模型API正式推出:價格並不算便宜,每百萬 tokens價格3美元

作者 janus
xAI Grok 3 模型正式推出,探討其定價、功能、與競品比較及政治立場爭議。了解 Grok 3 的優勢與限制。5c4609a1edd6e7594dfc17029a28f253

馬斯克旗下的人工智慧公司 xAI 開始透過 API 提供其旗艦 Grok 3 模型。xAI 發布 Grok 3 已有數月,這是該公司針對 OpenAI 的 GPT-4o 和 Google 的 Gemini 等模型進一步的競爭策略。xAI 透過其 API 提供兩種旗艦模型:具有「推理」功能的 Grok 3 和 Grok 3 Mini。

xAI Grok 3 模型API正式推出:價格並不算便宜,每百萬 tokens價格3美元

Grok 3 的定價為每輸入模型的百萬個 tokens(約 75 萬個單字)3 美元(約新台幣 93 元),模型產生的每百萬個 tokens 15 美元(約新台幣 465 元)。而 Grok 3 Mini 的定價為每輸入百萬個 tokens 0.30 美元(約新台幣 9.3 元),每輸出百萬個 tokens 0.50 美元(約新台幣 15.5 元)。

Grok 3 和 Grok 3 Mini 的更快版本需要額外付費:Grok 3 每百萬輸入 tokens 5 美元(約新台幣 155 元),每百萬輸出 tokens 25 美元(約新台幣 775 元);Grok 3 Mini 每百萬輸入 tokens 0.60 美元(約新台幣 18.6 元),每百萬輸出 tokens 4 美元(約新台幣 124 元)。

xAI Grok 3 模型API正式推出:價格並不算便宜,每百萬 tokens價格3美元

這樣的價格算是貴還是便宜?

與競爭對手相比,Grok 3 並不便宜。拿ChatGPT來說,他們的 API 定價結構較為複雜,會根據使用的模型(例如 GPT-3.5 Turbo、GPT-4 等)以及輸入和輸出的 tokens 數量而有所不同。

以 Grok 3 的旗艦模型來說,每百萬輸入 tokens 的價格是 3 美元(約新台幣 93 元),每百萬輸出 tokens 是 15 美元(約新台幣 465 元)。

相較之下,OpenAI 的 GPT-4 模型,其 API 定價會更高一些。例如,GPT-4 的價格通常是每千個 tokens 的輸入為 0.03 美元,輸出為 0.06 美元。換算下來,每百萬個 tokens 的輸入是 30 美元,輸出是 60 美元。

因此,單就旗艦模型的 API 定價來看,Grok 3 的價格似乎比 OpenAI 的 GPT-4 模型更具競爭力,尤其是在輸入 tokens 的部分。

而與其他AI服務比較,xAI 的價格與 Anthropic 的 Claude 3.7 Sonnet 相當,後者也具備推理功能,但比 Google 最近發布的 Gemini 2.5 Pro 更貴,後者在熱門 AI 基準測試中的得分通常高於 Grok 3。(xAI 被指控其 Grok 3 基準測試報告存在誤導性。)

正如 X 上的幾位使用者指出的那樣,透過 xAI API 實現的 Grok 3 的 context window 也比該模型據稱能夠支援的要小。(「context window」是指模型一次可以處理的 tokens 數量)該 API 的最大支援量為 131072 個 tokens,或大約 97500 個單字——低於 xAI 在 2 月底聲稱的 Grok 3 支援的 100 萬個 tokens。

大約兩年前,馬斯克宣布 Grok 時,他將這個人工智慧模型定位為尖銳、未經過濾且反「覺醒」的——總的來說,它願意回答其他人工智慧系統不願回答的爭議性問題。他確實兌現了部分承諾。例如,當被要求說粗俗的話時,Grok 和 Grok 2 會很樂意地滿足要求,說出一些你在 ChatGPT 上可能聽不到的粗俗語言。

但 Grok 3 之前的版本在政治議題上有所保留,不會跨越某些界線。事實上,一項研究發現,Grok 在跨性別權利、多元化計畫和不平等話題上傾向於政治左派。

馬斯克將這種行為歸咎於 Grok 的訓練資料——公開網頁——並承諾「讓 Grok 更接近政治中立」。除了一些引人注目的錯誤,比如短暫審查對川普總統和馬斯克的負面評價之外,目前尚不清楚 xAI 是否在模型層面實現了這一目標,以及可能產生的長期後果。

相關連結: https://docs.x.ai/docs/models#models-and-pricing

 

加入T客邦Facebook粉絲團

Google 推出 Firebase Studio,挑戰 Cursor AI 的 AI 雲端開發環境

作者 janus
Google Firebase Studio 雲端AI整合開發環境,支援多種程式語言,AI程式碼產生與除錯,加速應用程式開發。立即體驗!A761bfb8b4dfdfcc3a755b322b20b6a3

隨著Cursor AI在程式碼開發領域的卓越表現,其估值已飆升至100億美元。為了應對這股AI程式碼開發的浪潮,Google推出基於雲端的人工智慧整合開發環境——Google Firebase Studio,旨在為開發者提供更便捷、高效的開發體驗。

Google Firebase Studio:支援多種程式語言與框架

Google Firebase Studio 支援多種主流程式語言和框架,包括React、Next.js、Angular、Vue.js、Flutter、Android、Node.js、Java、Python Flash等。無論您是前端開發者、後端工程師,還是移動應用開發者,都能在這個平台上找到適合自己的工具和環境。

Google Firebase Studio 的核心功能在於其強大的AI能力。使用者可以透過自然語言或上傳圖片的方式,向AI描述自己的創意和需求。AI將在幾秒鐘內生成原型,並根據使用者的功能設想,自動開發各個功能模組,甚至進行程式碼除錯。這意味著,即使是不熟悉程式碼編寫的使用者,也能夠輕鬆地創建應用程式。

當然,對於複雜的專案,使用者可能仍需要人工預覽程式碼,以確保其符合預期,並排除潛在的錯誤。然而,AI的介入大大降低了程式碼編寫的門檻,讓開發者能夠更專注於創意和邏輯的實現。

雲端整合:隨時隨地開發

Google Firebase Studio 是一個基於雲端的整合開發環境。使用者無需在本地安裝繁重的IDE(如Microsoft Visual Studio Code)和外掛,所有開發工作都在瀏覽器和雲端進行。這不僅節省了本地資源,也讓開發者可以隨時隨地進行開發,實現真正的移動辦公。

此外,所有數據都保存在雲端,確保了資料的安全性和可訪問性。無論您在哪裡,只要有網路連接,就能夠輕鬆地存取您的專案和程式碼。

費用

目前,Google Firebase Studio 提供免費使用。然而,使用者需要自備Google Gemini API密鑰,這意味著最終費用將取決於API的使用量。如果您尚未申請Gemini API,需要先完成申請和配置,才能開始使用Google Firebase Studio。

Google Firebase Studio:https://studio.firebase.google.com/

 

加入T客邦Facebook粉絲團
❌