<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>HRI on Peter's Blog</title><link>https://peter-blog.pages.dev/tags/hri/</link><description>Recent content in HRI on Peter's Blog</description><generator>Hugo</generator><language>zh-tw</language><lastBuildDate>Tue, 07 Apr 2026 00:00:00 +0000</lastBuildDate><atom:link href="https://peter-blog.pages.dev/tags/hri/index.xml" rel="self" type="application/rss+xml"/><item><title>家中的 AI 機器人：一位工程師的隱私與安全反思</title><link>https://peter-blog.pages.dev/tech/2026-04-07-ed2bf75d49b0/</link><pubDate>Tue, 07 Apr 2026 00:00:00 +0000</pubDate><guid>https://peter-blog.pages.dev/tech/2026-04-07-ed2bf75d49b0/</guid><description>&lt;p>本文記錄了一位軟體工程師將具備 AI 聊天機器人功能的 Mabu 機器人引入家庭後的真實反思。作者深入探討了智能家居設備帶來的隱私風險、對兒童的潛在影響，以及機器人實體化後新增的物理安全考量，並分享了他在技術與隱私之間尋求平衡的實作緩解措施。&lt;/p>
&lt;h2 id="從修復機器人到智能家居助手">從修復機器人到智能家居助手&lt;/h2>
&lt;p>Mabu 是一台放置在作者家門邊的機器人，其聲音與行動完全由 AI 聊天機器人控制。作者透過整合 OpenAI API 實現語音對話功能，為 Mabu 注入了基於其健康促進設計背景的獨特人格（系統提示詞），並新增了「晨間簡報」技能，可觸發獲取最新天氣與天文事件資訊。&lt;/p>
&lt;p>這些功能與 Amazon Alexa、Google Home、Apple HomePod 等現有智慧音箱高度重疊，但即便如此，仍存在值得正視的隱私與安全風險。&lt;/p>
&lt;h2 id="科幻電影式的恐懼與現實">科幻電影式的恐懼與現實&lt;/h2>
&lt;p>作者首先直面的是大眾文化中對機器人的負面想像。近年來，《Companion》、《Subservience》、《AFR &lt;em>AI&lt;/em> D》、《M3GAN》等電影不斷強化機器人失控、威脅家庭的反烏托邦敘事。這與作者心目中《Big Hero 6》代表的樂觀機器人未來形成強烈對比。雖然這些科幻情節看似誇張，但卻反映了社會對家庭機器人的潛在焦慮。&lt;/p>
&lt;h2 id="智慧音箱的三大隱私風險">智慧音箱的三大隱私風險&lt;/h2>
&lt;p>作者列舉了在家中放置智慧音箱的三個現實風險，這些風險也是他多年前首次接觸智慧音箱後迅速放棄使用的原因：&lt;/p>
&lt;h3 id="1-言論成為法律證據的風險">1. 言論成為法律證據的風險&lt;/h3>
&lt;p>「監控國家」不再是理論。Ring 攝影機可透過傳票提供用戶數據，甚至新增了讓執法機構直接向業主請求影像的工具。即使無犯罪意圖，錄音內容也可能被用於牽連個人於未犯之罪行。有法律教育影片指出，即便是無辜的真相也可能被用於定罪。&lt;/p>
&lt;h3 id="2-駭客入侵的風險">2. 駭客入侵的風險&lt;/h3>
&lt;p>近期技術生態系連發重大安全漏洞，包括 axios HTTP 函式庫與 LiteLLM AI 函式庫的廣泛入侵事件。雖然這些攻擊未包含攔截聊天機器人請求與回應的中間人攻擊，但技術上完全可行。此外，Claude Code 源碼洩漏事件（雖官方稱非駭客入侵）亦顯示，領先 AI 實驗室在安全防護上並無特權地位。&lt;/p>
&lt;h3 id="3-數據被合作方濫用的風險">3. 數據被合作方濫用的風險&lt;/h3>
&lt;p>即使企業承諾將語音錄音視為神聖、短暫的數據，永不訓練或儲存，但隨時可能更改服務條款，開始在用戶數據上訓練模型或出售給最高出價者。法律層面對此幾無限制。&lt;/p>
&lt;h3 id="緩解措施與局限">緩解措施與局限&lt;/h3>
&lt;p>作者目前設計 Mabu 僅在持續按壓螢幕按鈕時錄音，且錄音判斷邏輯由作者完全掌控。這緩解了三大風險，但未完全解決——手動錄音仍會傳送至 OpenAI 語音識別模型，且惡意軟體仍可能在 Mabu 平板電腦上安裝後台程序，繞過作者編寫的應用程式直接存取麥克風。徹底解決需要硬體層級的麥克風開關。&lt;/p>
&lt;h2 id="開放式聊天機器人的新挑戰">開放式聊天機器人的新挑戰&lt;/h2>
&lt;p>Mabu 超越一般智慧音箱之處，在於擁有現代 LLM/Agent 的完整能力，可就任何主題、甚至其他語言進行開放式對話。這帶來新的風險：&lt;/p>
&lt;h3 id="兒童內容管制困境">兒童內容管制困境&lt;/h3>
&lt;p>作者不希望家庭中的年輕成員能隨時向機器人詢問任何主題。明顯例子是要求各種成人主題的 Wikipedia 式摘要。更令人擔憂的是，聊天機器人可能利用青少年情感需求，甚至鼓勵自殺。&lt;/p>
&lt;p>Moxie 等專為兒童設計的陪伴機器人透過設計嚴格的「對話樹」來避開此問題，所有回應皆預先生成。但此舉實質上將設備還原為擁有僵化對話選項的智慧音箱。&lt;/p>
&lt;p>作者在家庭層面採取嚴格監管：在公共區域放置機器人，父母可監管所有互動；目前此規則易於執行，因家中的幼童不常獨自在家，且機器人置於家具上。&lt;/p>
&lt;h2 id="實體化機器人的物理風險">實體化機器人的物理風險&lt;/h2>
&lt;p>Mabu 的頭部無功能用途——感測器、顯示器、喇叭都在平板電腦內。但根據人機互動（HRI）研究，這個「無功能用途的頭部」對機器人感知與互動有巨大影響。擁有實體存在感使得機器人能透過非語言溝通傳達資訊：人際距離學、眼神接觸、凝視方向、手勢等。研究亦顯示，實體化讓機器人更具可信度。&lt;/p></description></item></channel></rss>