根據信件內容顯示,承包商最近開始注意到,在他們用來比較 Gemini 與其他未具名 AI 模型的 Google 內部平台上,出現了 Anthropic 的 Claude 的相關資訊。TechCrunch 看到的至少有一項輸出結果明確指出:「我是 Claude,由 Anthropic 創造。」
一份內部聊天記錄顯示,承包商注意到 Claude 的回應似乎比 Gemini 更強調安全性。一位承包商寫道:「Claude 的安全設定是所有 AI 模型中最嚴格的」。在某些情況下,Claude 不會回應它認為不安全的提示,例如扮演不同的 AI 助手。在另一個案例中,Claude 避免回答一個提示,而 Gemini 的回應因為包含「裸體和束縛」的內容而被標記為「嚴重違反安全規定」。
Anthropic 的商業服務條款禁止客戶在未經 Anthropic 批准的情況下使用 Claude「以構建競爭產品或服務」或「訓練競爭 AI 模型」。Google 是 Anthropic 的主要投資者。也就是說 Anthropic 的服務條款禁止客戶利用 Claude 來開發與 Anthropic 競爭的產品或服務,或是用 Claude 來訓練其他的 AI 模型,除非 Anthropic 同意。儘管 Google 是 Anthropic 的主要投資者,也必須遵守這項規定。
當 TechCrunch 詢問 Google DeepMind(負責 Gemini 的部門)發言人 Shira McNamara 時,對方未透露 Google 是否已獲得 Anthropic 的批准來使用 Claude。在發布前,Anthropic 的發言人未就此事發表評論。
MITRE ATT&CK Evaluations 專門模擬已知的惡意行為並重現真實世界的重大攻擊,來評量解決方案偵測針對性攻擊的能力。今年的評測加入了多項較小的模擬來對防禦能力進行更細膩、更具針對性的評量。這些情境模擬了針對 Linux 和 MacOS 系統的勒索病毒攻擊,以及北韓針對 MacOS 的攻擊。
Trend Vision One 進行了嚴格的測試,模擬源自真實攻擊的安全漏洞情境,並交出優異偵測率:
100% 分析所有主要步驟
100% 分析 Linux 和 MacOS 所有子步驟
100% 分析伺服器平台(Windows/Linux)所有子步驟
99% 分析所有子步驟
趨勢科技營運長 Kevin Simzer 表示,今年的評測比歷年來更能貼切反映真實世界的情境,「這是挑戰、也是契機,讓我們有機會充分展現我們能為客戶帶來怎樣的專業能力。資安領導人經常參考這類評測來確保他們取得最優異的技術,並擁有最優質的人員來為他們服務,現在結果相當清楚:Trend Vision One 讓駭客無處可藏。」
現在不用懂程式碼,也可以自己寫出網頁遊戲,然後線上發布給其他人玩了!先前 Anthropic 推出的 Claude 3.5 Sonnet 全新版本,加入了一個「Artifacts」的功能,可以直接預覽程式碼片段、文字文件或網站設計等內容,然後進行即時的修改調整。以前寫遊戲、架網站不僅需要具備專業知識,還要花很多時間,現在只要透過 AI 就可以使用自然語言下指令,並在一分鐘之內製作完成。
AI 聊天機器人的另一大特色,就是可以將長篇大論的內容快速地統整成摘要。但大綱也是一堆文字,對某些人來說可能還是很難吸收,這時候就可以透過 Artifacts 製作視覺化圖表、互動裝置、小測驗等,增加整體的豐富度。這可以應用在教學時,用更有趣的方式讓小朋友吸收知識;或是將工作報表中密密麻麻的數字,轉換成圖表呈現。
在這樣的情況下,GOG(前身為 Good Old Games)自然不會錯過機會發表自己的看法。他們提醒玩家:「嘿,我們這裡買的東西是永遠屬於你的,絕不會被移除。」而且 GOG 確實說到做到,今年承諾推出一項保存計畫,即便出版商撤下遊戲,它也會確保像《異塵餘生:新維加斯》(New Vegas)等遊戲,並確保它們能在現代系統上運行。
聊天機器人(如 ChatGPT)的迅速普及讓管理層認識到有必要加大對該領域的投資。《大英百科全書》現在利用人工智慧來創建、事實查核和翻譯其產品內容,包括線上百科全書。該公司還創建了一款基於其線上百科全書資訊的 Britannica 聊天機器人,考茲表示,它比更一般的聊天機器人更可能提供準確的資訊,後者可能容易出現「幻覺」問題。