OpenAI 前員工籌組 1 億美元新創投基金 Zero Shot

一群 OpenAI 前員工悄然籌組了一檔名為 Zero Shot 的創投基金,目標募集 1 億美元。該基金已完成首輪募資,並已開始投資 AI 新創公司。基金名稱源自 AI 訓練術語「zero-shot learning」(零樣本學習),反映其團隊對 AI 技術發展的深刻理解。 Zero Shot 的創始團隊包含多位 OpenAI 早期成員:Evan Morikawa 曾任 OpenAI 應用工程部門主管,親歷 DALL·E 與 ChatGPT 的推出;Andrew Mayne 是 OpenAI 首位提示工程師,同時主持 OpenAI 播客;Shawn Jain 則是前 OpenAI 工程師與研究員。團隊還包括來自 01A 創投的 Kelly Kovacs,以及曾任職於 Twitter 與 Disney 的 Brett Rounsaville。 該基金目前已投資三家新創公司:Worktrace AI 開發 AI 驅動的企業管理自動化平台;Foundry Robotics 專注於下一代 AI 增強工廠機器人,並剛獲得 Khosla Ventures 領投的 1,350 萬美元種子輪融資;第三家則仍處於隱身模式。 值得注意的是,Zero Shot 團隊憑藉其技術背景,有意避開了部分熱門但前景不明的 AI 趨勢。Mayne 對大多數「vibe coding」平台持保守態度,認為模型製造商的編碼專業能力將使訂閱這類平台變得多餘。Morikawa 也不看好目前機器人領域的「人體中心視頻數據公司」,指出在研究界突破「具體化差距」(embodiment gap)之前,這類數據的應用仍遙不可及。Mayne 對部分「數位分身」新創亦持懷疑態度,經測試後發現一般 LLM 模型即可達到相同效果。 ...

April 6, 2026 · 1 分鐘

Microsoft Copilot 條款聲明「僅供娛樂用途」,引發用戶對 AI 可靠性質疑

Microsoft 近期致力於向企業客戶推銷 Copilot 付費服務,然而其使用條款中的免責聲明卻引發爭議。該條款最後更新於 2025 年 10 月 24 日,明確警告用戶 Copilot 僅供娛樂用途,不應依賴其提供的重要建議。 Microsoft 在條款中指出:「Copilot 僅供娛樂用途。它可能出現錯誤,且未必能如預期運作。請勿依賴 Copilot 提供重要建議。使用 Copilot 的風險由用戶自行承擔。」此番說法與企業級 AI 工具的專業定位形成反差。 面對社群媒體上的質疑,Microsoft 發言人向 PCMag 表示,公司將會更新這段被形容為「遺留語言」的條款內容。發言人強調,隨著產品演進,該措辭已不再反映 Copilot 當前的使用方式,將在下次更新中進行修正。 Tom’s Hardware 報導指出,採用類似免責聲明的 AI 公司並非只有 Microsoft。例如 OpenAI 與 xAI 也在其服務條款中提醒用戶,不應將其模型輸出視為「真理」或「唯一真實來源」。 原文重點 Microsoft Copilot 使用條款聲明該服務「僅供娛樂用途」,警告用戶不應依賴其提供重要建議 Microsoft 發言人承認該條款為「遺留語言」,承諾將在下次更新中修正 OpenAI 與 xAI 等其他 AI 公司也在條款中加入類似免責聲明,提醒用戶不應將模型輸出視為絕對真理 Microsoft 目前正積極向企業客戶推銷 Copilot 付費服務,但條款中的免責聲明與企業級定位產生矛盾 AI 公司透過服務條款主動提醒用戶模型輸出的不可靠性,反映業界對 AI 幻覺問題的普遍認知

April 5, 2026 · 1 分鐘

AI 可能使我們的思考與寫作越來越相似

南加州大學 Dornsife 文理學院的電腦科學與心理學研究團隊指出,大型語言模型正在標準化人類的表達方式,並潛移默化地影響我們的思考模式。研究團隊在 Trends in Cognitive Sciences 期刊發表評論文章,警告若此一同質化趨勢持續發展,恐將削減人類的集體智慧與適應能力。研究人員呼籲 AI 開發者應在 LLM 訓練資料中加入更多真實世界的多樣性,不僅為了保護人類的認知多樣性,也能改善聊天機器人的推理能力。 個體性被稀釋 研究團隊強調,認知多樣性能夠增強群體與社會的創造力與問題解決能力。然而,隨著全球數十億人越來越依賴少數幾個 AI 聊天機器人處理各種任務,全球認知多樣性正在縮減。當人們使用聊天機器協助潤飾文字時,文字往往失去其風格上的獨特性,人們也對自己創作的內容感到較低的創作歸屬感。 論文第一作者、USC Viterbi 工程學院博士研究生 Zhivar Sourati 表示:「擔憂的點不僅在於 LLM 如何塑造人們的寫作或說話方式,而在於它們會微妙地重新定義什麼是可信的言論、正確的觀點,甚至是好的推理方式。」 研究指出,多項研究顯示 LLM 的輸出變化性低於人類撰寫的內容,且 LLM 輸出往往反映西方、受教育、工業化、富裕與民主社會的語言、價值觀與推理風格。「因為 LLM 受訓練來捕捉並再現訓練資料中的統計規律,而這些資料往往過度代表主流語言與意識形態,它們的輸出通常反映的是人類經驗中狹隘且偏頗的切片,」Sourati 解釋。 思考風格的多樣性受損 研究人員指出,儘管研究顯示個人在使用 LLM 時往往能產生更多細節豐富的點子,但群體在使用 LLM 時產生的創意點子反而比單純集合集體力量時更少且更缺乏創造力。 「即使人們不是 LLM 的直接使用者,LLM 仍然會間接影響他們,」Sourati 說。「如果我周圍許多人以某種方式思考和說話,而我做法不同,我會感受到必須與他們保持一致的壓力,因為那看起來像是更可信或社會上更可接受的表達方式。」 研究顯示,在與有偏見的 LLM 互動後,人們的意見會變得更接近使用的 LLM。LLM 也偏好「思維鏈推理」等線性推理模式,要求模型逐步展示推理過程。這種強調減少了直覺或抽象推理風格的使用,而後者有時比線性推理更有效率。 研究團隊建議,AI 開發者應刻意將語言、觀點與推理的多樣性納入模型。他們強調,這種多樣性應基於全球人類實際存在的多樣性,而非引入隨機變化。「如果 LLM 有更多處理想法與問題的多樣化方式,它們將能更好地支持我們社會的集體智慧與問題解決能力,」Sourati 表示。 原文重點 認知多樣性下降:全球數十億人依賴少數 AI 聊天機器人,導致人類思考與表達方式同質化 西式價值觀主導:LLM 訓練資料過度代表主流語言與意識形態,輸出反映狹隘的人類經驗切片 群體創意減損:群體使用 LLM 時產生的創意點子比集合集體力量時更少且缺乏創造性 推理模式單一化:LLM 偏好線性推理,減少直覺或抽象推理的使用 使用者主動性流失:使用者常接受「足夠好」的模型建議而非自行創作,逐漸將主導權讓給模型

March 11, 2026 · 1 分鐘