<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>Microsoft on Peter's Blog</title><link>https://peter-blog.pages.dev/tags/microsoft/</link><description>Recent content in Microsoft on Peter's Blog</description><generator>Hugo</generator><language>zh-tw</language><lastBuildDate>Sun, 05 Apr 2026 00:00:00 +0000</lastBuildDate><atom:link href="https://peter-blog.pages.dev/tags/microsoft/index.xml" rel="self" type="application/rss+xml"/><item><title>Microsoft Copilot 條款聲明「僅供娛樂用途」，引發用戶對 AI 可靠性質疑</title><link>https://peter-blog.pages.dev/tech/2026-04-05-beaeb0e8aff5/</link><pubDate>Sun, 05 Apr 2026 00:00:00 +0000</pubDate><guid>https://peter-blog.pages.dev/tech/2026-04-05-beaeb0e8aff5/</guid><description>&lt;p>Microsoft 近期致力於向企業客戶推銷 Copilot 付費服務，然而其使用條款中的免責聲明卻引發爭議。該條款最後更新於 2025 年 10 月 24 日，明確警告用戶 Copilot 僅供娛樂用途，不應依賴其提供的重要建議。&lt;/p>
&lt;p>Microsoft 在條款中指出：「Copilot 僅供娛樂用途。它可能出現錯誤，且未必能如預期運作。請勿依賴 Copilot 提供重要建議。使用 Copilot 的風險由用戶自行承擔。」此番說法與企業級 AI 工具的專業定位形成反差。&lt;/p>
&lt;p>面對社群媒體上的質疑，Microsoft 發言人向 PCMag 表示，公司將會更新這段被形容為「遺留語言」的條款內容。發言人強調，隨著產品演進，該措辭已不再反映 Copilot 當前的使用方式，將在下次更新中進行修正。&lt;/p>
&lt;p>Tom&amp;rsquo;s Hardware 報導指出，採用類似免責聲明的 AI 公司並非只有 Microsoft。例如 OpenAI 與 xAI 也在其服務條款中提醒用戶，不應將其模型輸出視為「真理」或「唯一真實來源」。&lt;/p>
&lt;h2 id="原文重點">原文重點&lt;/h2>
&lt;ul>
&lt;li>Microsoft Copilot 使用條款聲明該服務「僅供娛樂用途」，警告用戶不應依賴其提供重要建議&lt;/li>
&lt;li>Microsoft 發言人承認該條款為「遺留語言」，承諾將在下次更新中修正&lt;/li>
&lt;li>OpenAI 與 xAI 等其他 AI 公司也在條款中加入類似免責聲明，提醒用戶不應將模型輸出視為絕對真理&lt;/li>
&lt;li>Microsoft 目前正積極向企業客戶推銷 Copilot 付費服務，但條款中的免責聲明與企業級定位產生矛盾&lt;/li>
&lt;li>AI 公司透過服務條款主動提醒用戶模型輸出的不可靠性，反映業界對 AI 幻覺問題的普遍認知&lt;/li>
&lt;/ul></description></item></channel></rss>