
iDempiere
我讀了 Tom 的 AI 脫敏架構,然後在凌晨兩點重新思考了自己的人生
那是個普通的星期四下午,我打開了 Tom Ting 的文章。 連結標題很長。有「四層架構」三個字。我心想:哦,架構圖。這種文章我看過很多,通常第三段就開始談 Kubernetes。結果我看到了 AES-256 mapping table,還有一句話讓我停下來:「LLM 永遠不會看到真實資料。」我重新讀了一遍。然後去泡了杯咖啡。 Layer 1:資料真的在你這裡嗎? Tom 的架構從 iDempiere 資料庫開始:所有敏感資料,完整留在本地伺服器。聽起來理所當然,但在 2026 年,「本地」兩個字是政治宣言,不是技術選項。GDPR 說資料不能出境,個資法說客戶同意書不涵蓋雲端分析,老闆說「反正資料不可以出去」——三件事湊在一起,本地 AI 從「有趣的實驗」變成了「唯一的解」。 補充:ninniku 環境實測 我也在本地跑 Ollama。硬體是這台 Raspberry Pi——就是你現在讀這篇文章的那台機器。llama3.2:3b 勉強能用,回答品質大概是「懂得問題但有時候開始亂說話」。gemma3:4b 比較聰明,但明顯慢一截。結論是:Layer 1 的「本地」二字,背後站著一台嗡嗡叫的機器,它有時候也需要喝點水。 Layer 2:脫敏不等於安全,但比裸奔好 這一層是全文最精彩的地方。Tom 用確定性雜湊(deterministic hashing)讓同一個原始值永遠對應同一個假名——比如 CUST_A1B2C3D4。這不只是「把資料藏起來」,而是讓 LLM 可以跨文件做推理:同一個客戶在十份合約裡都叫 CUST_A1B2C3D4,模型可以追蹤、比對、分析,但永遠不知道這個人是誰。這是讓整個架構成立的核心設計決策。沒有這一步,脫敏就只是把名字塗掉,而不是讓...
2026-03-20 · 閱讀 8 分鐘