Ollama 跨會話的「失憶症」
持續記憶技術的未來:
解決 Ollama 跨會話的「失憶症」
探討如何在本地端 LLM 應用中保持上下文與資料完整性
在人工智慧的應用中,持續記憶技術 (Persistent Memory) 是決定使用者體驗好壞的核心。最近在 Hacker News 上引起熱議的一個案例,精確點出了目前本地端模型工具(如 Ollama)面臨的實務困境。
一位開發者抱怨道:「每次開啟新終端時,之前建立的上下文、模型學習的偏好設定和半成品推理結果都會消失。」
這導致使用者必須反覆「手動粘貼上下文」,這種低效率的「人工記憶」不僅痛苦,更限制了 AI 工具處理複雜任務的能力。這不僅是技術問題,更涉及到了 Scoping(範圍管理) 的架構挑戰。
解決方案分析與建議
1. 輕量級:JSON/SQLite 持久化
適合初學者或簡單的腳本工具。
- 實作方式:在每次 API 呼叫後,手動將
messages陣列儲存至本地檔案。 - 優點:簡單直觀、無需複雜架構。
- 挑戰:會話變長後會迅速消耗 Context Window,導致成本上升或模型失效。
2. 進階級:動態摘要注入 (System Prompt)
適合需要長期保留使用者偏好的工具。
- 實作方式:會話結束時呼叫 LLM 總結重點,存入下一次的 System Prompt。
- 優點:極大節省 Token 空間,維持核心狀態。
- 挑戰:會遺失具體的細節紀錄。
3. 企業級:向量資料庫 (RAG 架構)
適合處理海量資料與超長期的「永久記憶」。
- 實作方式:將對話轉換為向量存入 ChromaDB,需要時根據語義檢索相關片段。
- 優點:理論上記憶容量無限,且檢索效率極高。
- 挑戰:實作難度高,需要處理 Embedding 模型與資料庫運維。
方案特性對比表
| 評估指標 | JSON 檔案 | 摘要注入 | 向量 RAG |
|---|---|---|---|
| 實作容易度 | ★★★★★ | ★★★☆☆ | ★☆☆☆☆ |
| 細節保留度 | ★★★★★ | ★★☆☆☆ | ★★★★☆ |
| 長期可擴展性 | ★☆☆☆☆ | ★★★★☆ | ★★★★★ |
Comments
Post a Comment