AI-HIL:當 AI 長出了眼睛和手,讓嵌入式開發閉環自動化

從一句抱怨開始 第三天了。 這塊點心小板真的夠硬。Claude Code 在大放送期間讓我能一直衝,結果還是頂到了用量限制。早上後來去參加研討會,腦子裡一直在想一件事: 我花了多少時間在 copy/paste? JTAG 的 call stack、SWD 的暫存器狀態、Serial Console 的 log——一段貼過去,AI 給建議,我改一下 code,重新 build、flash、再抓 log,再貼回去。來來回回。有時貼錯視窗,有時貼漏了關鍵的那幾行。 跟以前純靠自己 debug 比起來,確實快很多。但還是不夠快。Bug 像俄羅斯套娃,抓掉一層,裡面還有一層。每一次的「這次應該好了」到「怎麼又掛了」的迴圈,都讓人想把鍵盤推開。 所以我在想,如果能消除人為因素的話呢? 一個想法:給 AI 眼睛跟手 問題說清楚了就好解決。 我需要的不是更聰明的 AI,而是讓 AI 能自己看、自己動、自己驗。 不再是我充當「人肉資料傳輸管道」,把硬體的訊號用眼睛看完之後再貼給 AI,而是讓 AI 直接接上硬體的感知介面,取得第一手的訊號,做出判斷,然後直接驅動工具鏈——build、flash、reset——再自己確認結果。 這個想法就是 AI-HIL(AI Hardware-in-the-Loop)。 Giving hardware the soul of AI, realizing automated closed-loop development in the physical world. AI-HIL 是什麼 AI-HIL 把 Claude Code 從「code 產生器」升級成「系統級工程師」。 透過 Model Context Protocol (MCP),Claude Code 連接到實體硬體,獲得三種能力: 感知(Perception):讀 Serial log、JTAG call stack、電流波形、Camera 畫面 行動(Action):Build/Flash firmware、硬體 Reset、電源控制 閉環驗證(Closed-Loop Validation):自動確認修復是否有效,記錄 bug 模式 換句話說,AI 不再只是坐在我旁邊出主意,而是能自己上工的 AI Employee。 ...

March 20, 2026 · 2 分鐘 · 370 字 · Fran Kuo