如果你也是用 AI 輔助開發的人,一定遇過這種情境: 讓 AI Agent 寫腳本開發,當下測試沒問題,AI 也回報「執行成功」,你安心地去睡覺,晚上讓小龍蝦機器人繼續跑,隔天醒來,卻發現系統亂成一團—— 可能是堆滿了未處理的檔案、重複的任務、甚至有些檔案壞了。 這就是我這個弱弱的新手村大叔最近這一週深刻體會的 「隔日 Bug」 :功能當下沒問題,但經過時間推移、在三組完全不同的機器和系統環境下、或遇到併發,就開始出包。雖然設了規則讓 AI 記憶,但實務上還是常常出錯,AI 往往只驗證『第一步』,卻忽略了『生命週期』與『併發環境』。 所以我建立了一套從 Phase 1 到 Phase 6 的完整 QA 審計標準當作 Skill ,每次 AI 在自主開發的之後,都會啟動這套制度檢視,目前為止成效不錯,幫我找出了幾個之前寫的 Skill bug。 痛點:為什麼 AI 開發容易埋下「隔日 Bug」? 傳統開發中,我們有單元測試、整合測試,但 AI 協作有個特性: AI 擅長完成當下的指令,卻難以主動思考「未來會發生什麼事」 。 例如,當你請 AI 寫一個清理暫存檔的腳本,它會讓腳本正常執行,但它不會問: 如果這個腳本明天又被觸發一次,會不會重複刪除? 如果檔案正在寫入時,Syncthing 也在同步,會發生什麼事? 如果換到另一台時區不同的機器,cron 還會準時執行嗎? 這些問題,正是系統穩定性的大敵。而我們的 PAIOP 環境有三台機器(MBA、iMac、Oracle),跨機同步與分散式特性,讓「隔日 Bug」層出不窮。 當然這都可以讓 AI 自己再繼續進化運作,不過經過一週的練習,我決定不再依賴 AI 的「記憶」或運氣 (XD),而是建立一套 強制執行的審計框架 ,讓 AI 自己學會思考未來狀態。 核心解決方案:有機 4D 審計框架 我和 AI 一起設計了這套有機 4D 審計框架,作為所有功能或開發交付前的必要關卡。任何腳本或技能,都必須在隔離沙盒中通過這四個維度的驗證: 維度 名稱 核心問題 D1 邏輯與功能驗證 腳本能跑、不報錯、產出符合預期嗎? ...
前言:當自動化變成災難 最近身邊很多朋友,不管有沒有工程背景,都開始玩 OpenClaw ── 一種可以真正執行任務的 AI 代理(agent)。一開始我以為安裝與使用只是幾行程式碼的過程,但當整個系統延伸到三台設備(MBA、iMac、Oracle Cloud)時,我才發現:沒有治理的自動化,只在加速災難。 在系統建置的前幾天,我遭遇了 Google Drive 同步卡死,以及 Git 衝突高達 148,000 個檔案的慘況(苦笑)。那一刻我深刻體會到: 一個沒有「憲法」的 AI 系統,就像一個沒有交通規則的城市,車子跑得越快,車禍就越慘烈。 因此,我想分享我的 Personal AI Operating Platform (PAIOP) 個人化 AI 應用平台 治理想法。 1. 核心憲法:主權至上 我在系統中先定義了 AI 的權力邊界,我戲稱它為「憲法」(constitution.md)。這不是哲學,而是穩定性與安全性的基礎。: 原則一:主權至上 AI 僅為輔助。所有自動化流程必須受控、可中止。AI 不得擅自修改「正式記憶(Structured Memory)」。 原則二:角色分離 (Separation of Concerns) 權限應附著於角色,而非設備。這樣可在治理上保有彈性與清晰責任界線。 2. 三權分立的物理實踐 為了落實,我依照自己的使用習慣,將硬體資源劃分為三個邏輯節點,在儘量不額外花錢的前提下,形成了一個穩定可運作的三角架構: 節點角色 設備 / IP 職責與限制 Authoritative (大腦) MBA (M2) MacBook Air M2 是我平常的工作幾,也是唯一具備主動 Git Push 與修改憲法的權限。AI 負責陪我做策略制定與代碼開發。 Operational (肌肉) iMac 2019 AI 清洗站 。這是一台我女兒的老電腦,想說平常也沒在用...