<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>人工智慧 on Peter's Blog</title><link>https://peter-blog.pages.dev/tags/%E4%BA%BA%E5%B7%A5%E6%99%BA%E6%85%A7/</link><description>Recent content in 人工智慧 on Peter's Blog</description><generator>Hugo</generator><language>zh-tw</language><lastBuildDate>Tue, 07 Apr 2026 00:00:00 +0000</lastBuildDate><atom:link href="https://peter-blog.pages.dev/tags/%E4%BA%BA%E5%B7%A5%E6%99%BA%E6%85%A7/index.xml" rel="self" type="application/rss+xml"/><item><title>Anthropic 發布最強 AI 模型 Mythos 預覽版，啟動網路安全新計畫</title><link>https://peter-blog.pages.dev/tech/2026-04-07-e772cfb91971/</link><pubDate>Tue, 07 Apr 2026 00:00:00 +0000</pubDate><guid>https://peter-blog.pages.dev/tech/2026-04-07-e772cfb91971/</guid><description>Anthropic 推出代號 Mythos 的前沿 AI 模型，透過 Project Glasswing 與 12 家科技巨擘合作，用於防禦性網路安全工作，已發現數千個零日漏洞。</description></item><item><title>Intel 加入馬斯克的 Terafab 晶片計畫，美國半導體製造迎來新變局</title><link>https://peter-blog.pages.dev/tech/2026-04-07-89ee0ecc24fd/</link><pubDate>Tue, 07 Apr 2026 00:00:00 +0000</pubDate><guid>https://peter-blog.pages.dev/tech/2026-04-07-89ee0ecc24fd/</guid><description>Intel 與 SpaceX、Tesla 合作在德州建設半導體工廠，藉此擴展代工業務版圖，但具體貢獻範疇仍不明朗。</description></item><item><title>OpenAI 前員工籌組 1 億美元新創投基金 Zero Shot</title><link>https://peter-blog.pages.dev/tech/2026-04-06-cb2ce73837b5/</link><pubDate>Mon, 06 Apr 2026 00:00:00 +0000</pubDate><guid>https://peter-blog.pages.dev/tech/2026-04-06-cb2ce73837b5/</guid><description>&lt;p>一群 OpenAI 前員工悄然籌組了一檔名為 Zero Shot 的創投基金，目標募集 1 億美元。該基金已完成首輪募資，並已開始投資 AI 新創公司。基金名稱源自 AI 訓練術語「zero-shot learning」（零樣本學習），反映其團隊對 AI 技術發展的深刻理解。&lt;/p>
&lt;p>Zero Shot 的創始團隊包含多位 OpenAI 早期成員：Evan Morikawa 曾任 OpenAI 應用工程部門主管，親歷 DALL·E 與 ChatGPT 的推出；Andrew Mayne 是 OpenAI 首位提示工程師，同時主持 OpenAI 播客；Shawn Jain 則是前 OpenAI 工程師與研究員。團隊還包括來自 01A 創投的 Kelly Kovacs，以及曾任職於 Twitter 與 Disney 的 Brett Rounsaville。&lt;/p>
&lt;p>該基金目前已投資三家新創公司：Worktrace AI 開發 AI 驅動的企業管理自動化平台；Foundry Robotics 專注於下一代 AI 增強工廠機器人，並剛獲得 Khosla Ventures 領投的 1,350 萬美元種子輪融資；第三家則仍處於隱身模式。&lt;/p>
&lt;p>值得注意的是，Zero Shot 團隊憑藉其技術背景，有意避開了部分熱門但前景不明的 AI 趨勢。Mayne 對大多數「vibe coding」平台持保守態度，認為模型製造商的編碼專業能力將使訂閱這類平台變得多餘。Morikawa 也不看好目前機器人領域的「人體中心視頻數據公司」，指出在研究界突破「具體化差距」（embodiment gap）之前，這類數據的應用仍遙不可及。Mayne 對部分「數位分身」新創亦持懷疑態度，經測試後發現一般 LLM 模型即可達到相同效果。&lt;/p></description></item><item><title>Microsoft Copilot 條款聲明「僅供娛樂用途」，引發用戶對 AI 可靠性質疑</title><link>https://peter-blog.pages.dev/tech/2026-04-05-beaeb0e8aff5/</link><pubDate>Sun, 05 Apr 2026 00:00:00 +0000</pubDate><guid>https://peter-blog.pages.dev/tech/2026-04-05-beaeb0e8aff5/</guid><description>&lt;p>Microsoft 近期致力於向企業客戶推銷 Copilot 付費服務，然而其使用條款中的免責聲明卻引發爭議。該條款最後更新於 2025 年 10 月 24 日，明確警告用戶 Copilot 僅供娛樂用途，不應依賴其提供的重要建議。&lt;/p>
&lt;p>Microsoft 在條款中指出：「Copilot 僅供娛樂用途。它可能出現錯誤，且未必能如預期運作。請勿依賴 Copilot 提供重要建議。使用 Copilot 的風險由用戶自行承擔。」此番說法與企業級 AI 工具的專業定位形成反差。&lt;/p>
&lt;p>面對社群媒體上的質疑，Microsoft 發言人向 PCMag 表示，公司將會更新這段被形容為「遺留語言」的條款內容。發言人強調，隨著產品演進，該措辭已不再反映 Copilot 當前的使用方式，將在下次更新中進行修正。&lt;/p>
&lt;p>Tom&amp;rsquo;s Hardware 報導指出，採用類似免責聲明的 AI 公司並非只有 Microsoft。例如 OpenAI 與 xAI 也在其服務條款中提醒用戶，不應將其模型輸出視為「真理」或「唯一真實來源」。&lt;/p>
&lt;h2 id="原文重點">原文重點&lt;/h2>
&lt;ul>
&lt;li>Microsoft Copilot 使用條款聲明該服務「僅供娛樂用途」，警告用戶不應依賴其提供重要建議&lt;/li>
&lt;li>Microsoft 發言人承認該條款為「遺留語言」，承諾將在下次更新中修正&lt;/li>
&lt;li>OpenAI 與 xAI 等其他 AI 公司也在條款中加入類似免責聲明，提醒用戶不應將模型輸出視為絕對真理&lt;/li>
&lt;li>Microsoft 目前正積極向企業客戶推銷 Copilot 付費服務，但條款中的免責聲明與企業級定位產生矛盾&lt;/li>
&lt;li>AI 公司透過服務條款主動提醒用戶模型輸出的不可靠性，反映業界對 AI 幻覺問題的普遍認知&lt;/li>
&lt;/ul></description></item><item><title>AI 可能使我們的思考與寫作越來越相似</title><link>https://peter-blog.pages.dev/tech/2026-03-11-8fe7c5dba071/</link><pubDate>Wed, 11 Mar 2026 00:00:00 +0000</pubDate><guid>https://peter-blog.pages.dev/tech/2026-03-11-8fe7c5dba071/</guid><description>&lt;p>南加州大學 Dornsife 文理學院的電腦科學與心理學研究團隊指出，大型語言模型正在標準化人類的表達方式，並潛移默化地影響我們的思考模式。研究團隊在 &lt;em>Trends in Cognitive Sciences&lt;/em> 期刊發表評論文章，警告若此一同質化趨勢持續發展，恐將削減人類的集體智慧與適應能力。研究人員呼籲 AI 開發者應在 LLM 訓練資料中加入更多真實世界的多樣性，不僅為了保護人類的認知多樣性，也能改善聊天機器人的推理能力。&lt;/p>
&lt;h2 id="個體性被稀釋">個體性被稀釋&lt;/h2>
&lt;p>研究團隊強調，認知多樣性能夠增強群體與社會的創造力與問題解決能力。然而，隨著全球數十億人越來越依賴少數幾個 AI 聊天機器人處理各種任務，全球認知多樣性正在縮減。當人們使用聊天機器協助潤飾文字時，文字往往失去其風格上的獨特性，人們也對自己創作的內容感到較低的創作歸屬感。&lt;/p>
&lt;p>論文第一作者、USC Viterbi 工程學院博士研究生 Zhivar Sourati 表示：「擔憂的點不僅在於 LLM 如何塑造人們的寫作或說話方式，而在於它們會微妙地重新定義什麼是可信的言論、正確的觀點，甚至是好的推理方式。」&lt;/p>
&lt;p>研究指出，多項研究顯示 LLM 的輸出變化性低於人類撰寫的內容，且 LLM 輸出往往反映西方、受教育、工業化、富裕與民主社會的語言、價值觀與推理風格。「因為 LLM 受訓練來捕捉並再現訓練資料中的統計規律，而這些資料往往過度代表主流語言與意識形態，它們的輸出通常反映的是人類經驗中狹隘且偏頗的切片，」Sourati 解釋。&lt;/p>
&lt;h2 id="思考風格的多樣性受損">思考風格的多樣性受損&lt;/h2>
&lt;p>研究人員指出，儘管研究顯示個人在使用 LLM 時往往能產生更多細節豐富的點子，但群體在使用 LLM 時產生的創意點子反而比單純集合集體力量時更少且更缺乏創造力。&lt;/p>
&lt;p>「即使人們不是 LLM 的直接使用者，LLM 仍然會間接影響他們，」Sourati 說。「如果我周圍許多人以某種方式思考和說話，而我做法不同，我會感受到必須與他們保持一致的壓力，因為那看起來像是更可信或社會上更可接受的表達方式。」&lt;/p>
&lt;p>研究顯示，在與有偏見的 LLM 互動後，人們的意見會變得更接近使用的 LLM。LLM 也偏好「思維鏈推理」等線性推理模式，要求模型逐步展示推理過程。這種強調減少了直覺或抽象推理風格的使用，而後者有時比線性推理更有效率。&lt;/p>
&lt;p>研究團隊建議，AI 開發者應刻意將語言、觀點與推理的多樣性納入模型。他們強調，這種多樣性應基於全球人類實際存在的多樣性，而非引入隨機變化。「如果 LLM 有更多處理想法與問題的多樣化方式，它們將能更好地支持我們社會的集體智慧與問題解決能力，」Sourati 表示。&lt;/p>
&lt;h2 id="原文重點">原文重點&lt;/h2>
&lt;ul>
&lt;li>&lt;strong>認知多樣性下降&lt;/strong>：全球數十億人依賴少數 AI 聊天機器人，導致人類思考與表達方式同質化&lt;/li>
&lt;li>&lt;strong>西式價值觀主導&lt;/strong>：LLM 訓練資料過度代表主流語言與意識形態，輸出反映狹隘的人類經驗切片&lt;/li>
&lt;li>&lt;strong>群體創意減損&lt;/strong>：群體使用 LLM 時產生的創意點子比集合集體力量時更少且缺乏創造性&lt;/li>
&lt;li>&lt;strong>推理模式單一化&lt;/strong>：LLM 偏好線性推理，減少直覺或抽象推理的使用&lt;/li>
&lt;li>&lt;strong>使用者主動性流失&lt;/strong>：使用者常接受「足夠好」的模型建議而非自行創作，逐漸將主導權讓給模型&lt;/li>
&lt;/ul></description></item><item><title>Anthropic 推出 Cowork：無需程式設計的 Claude Desktop 檔案管理 Agent</title><link>https://peter-blog.pages.dev/tech/2026-01-12-157324a9612f/</link><pubDate>Mon, 12 Jan 2026 00:00:00 +0000</pubDate><guid>https://peter-blog.pages.dev/tech/2026-01-12-157324a9612f/</guid><description>Anthropic 發表 Cowork，將 Claude Code 的強大功能延伸至非技術用戶，標誌著 AI Agent 在生產力工具市場的重大突破。</description></item></channel></rss>