AI教程2026年2月24日为本地 AI 智能体设计三级存储系统:STM / MTM / LTM 详解本文详细介绍了如何模拟人类大脑的记忆巩固机制,为 20B 参数的本地 LLM 智能体构建一套包含短期、中期、长期记忆的鲁棒存储管线,并最终通过 53 项全量测试。阅读全文 →
AI教程2026年2月23日为 AI 代理添加持久化记忆:使用本地 LLM 提升 90% 召回率本教程详细介绍了如何利用本地 LLM、SQLite 和 ChromaDB 为 AI Agent 构建长期持久化记忆系统,将信息召回率提升至 90% 以上,同时兼顾隐私与性能。阅读全文 →
AI教程2026年2月17日本地运行 AI 模型全指南:摆脱云端依赖的 步 步 教程本教程详细介绍了如何在本地环境部署大语言模型(LLM),涵盖硬件选型、Ollama 安装、模型量化技术以及如何通过 Python API 进行集成,助力开发者实现 100% 私有化 AI 工作流。阅读全文 →
AI教程2026年2月15日使用 Ollama 在本地运行 LLM 并通过 Python 进行集成了解如何使用 Ollama 在本地部署和管理大语言模型,并将其集成到 Python 应用程序中,以实现注重隐私、高性价比的 AI 开发。阅读全文 →
AI教程2026年2月6日在 Apple Silicon Mac 上运行 Microsoft Foundry Local本教程详细介绍了如何在 macOS 上使用 Microsoft Foundry Local 运行本地大语言模型,包括硬件加速原理、与 Ollama 的对比以及 Python 应用开发指南。阅读全文 →
AI教程2026年1月23日如何使用 Ollama 和 Python 集成本地大语言模型详细了解如何通过 Ollama 和 Python 部署和运行 Llama 3.2、DeepSeek-V3 等本地 LLM。本指南涵盖安装配置、流式响应处理以及本地与云端混合 AI 架构的实现。阅读全文 →