给 AI 礼物‘记忆力’会发生什么:聪明又经济的‘Agent-cache’故事

大脑形状的电路连接到存储数据仓库的未来主义图像
AI Summary

为了解决 AI 每次回答相同问题都要支付高昂费用的低效问题,‘Agent-cache’问世了,它能以千分之一秒的速度提取答案和工具使用结果。

“刚才那个问题,我不是刚回答过吗!”…… AI 也需要笔记本

各位,你是否曾和一位绝顶聪明但健忘症非常严重的朋友交谈过?他刚刚对你提出的问题给出了天才般的回答,但 5 分钟后你再问同样的问题,他却开始犯愁:“呃……那是啥来着?”然后又从头开始思考。

事实上,我们目前使用的最先进的大语言模型(LLM,如 ChatGPT 或 Claude 等人工智能的大脑)也有这样的一面。每当我们提出问题时,AI 都会经过大量的运算过程,每次都生成新的回答。问题在于,即使是对同一个问题,AI 也无法记住过去,每次都要“从头开始”计算。这种“从头开始”不仅浪费宝贵的时间,最重要的是,服务运营者每次都要向 AI 公司支付一笔“昂贵的费用”。

为了防止这种低效的浪费,一项突破性技术诞生了,它就是 ‘Agent-cache(智能体缓存)’Agent-cache 拥有记忆,让您的 LLM 应用无需支付两次费用。简单来说,这个工具就是 AI 专用的“超高速笔记本”。它的原理是把 AI 费尽心思给出的答案好好记在这个笔记本上,以后有人问同样的问题时,不再去请昂贵的 AI 重新思考,而是直接从笔记本里把答案拿出来。


为什么这很重要? (Why It Matters)

每当我们使用 AI 服务时,开发该服务的公司或企业都要向 OpenAI 或 Anthropic 等原始技术公司支付“API 使用费”。适用于 Valkey 和 Redis 的多层级 LLM/工具/会话缓存 就像每次使用自来水或电时电表/水表都会跳动一样。

但是,如果有数万名用户同时问“今天首尔的天气怎么样?”会发生什么呢?如果没有缓存技术,AI 就要重复数万次相同的计算,服务商就必须支付数万次的重复费用。这对开发者来说是一个非常令人头疼的“痛点”。Agent-cache 拥有记忆,让您的 LLM 应用无需支付两次费用

Agent-cache 从三个方向完美解决了这个问题:

  1. 守护钱包(降低成本):已经回答过的内容无需再次付费提问。这能大幅降低企业的运营成本。
  2. 快如闪电(提升速度):AI 生成新答案通常需要数秒,但从笔记本中提取答案所需的时间不到 0.001 秒 (1ms)。这比眨眼的速度还要快得多。BetterDB - Valkey 的可观测性和可审计性 - Aitoolnet
  3. 用户更开心(改善 UX):输入问题并按下“回车”后答案立即弹出的体验,能让用户对服务产生极大的信任。Show HN: Agent-cache – 多层级 LLM/工具/会话缓存 …

轻松理解 (The Explainer):构成 AI 记忆力的三层仓库

Agent-cache 最大的特点是拥有“多层级 (Multi-tier) 结构”。[AgentCache BetterDB 文档](https://docs.betterdb.com/packages/agent-cache.html) 为了更容易理解这一点,我们可以把它比作一家客流量巨大的著名餐厅。

想象一下,你来到了一家名厨餐厅。

1 层:顶级食谱库 (AI 回答缓存)

这家餐厅有一道老客户必点的“招牌牛排”。厨师 (AI) 每次都需要重新研究烹饪方法吗?只要看着挂在厨房墙上的笔记纸(回答)来烹饪,速度就会快得多。Agent-cache 会首先存储 AI 给出的最终回答 (LLM Response)。Agent-cache – 适用于 AI 智能体的多层级 LLM/工具/会话缓存

2 层:预处理食材室 (工具运行结果缓存)

要做出一道美味的菜肴,腌制肉类和处理蔬菜等准备工作必不可少,而这些过程非常耗时。如果冰箱里有预先处理好的蔬菜或腌制好的肉(工具运行结果)会怎样?AI 在互联网上抓取天气信息或使用复杂的数学计算器等“工具 (Tool)”得出的结果,Agent-cache 也会细心地存储起来。Agent-cache – 适用于 AI 智能体的多层级 LLM/工具/会话缓存

3 层:老客户账本 (会话状态存储)

这是让老板能通过客人的一句“还是老样子!”就立刻回应“啊,上次您吃的是五分熟对吧?”的秘密账本。它记住了与 AI 对话的语境或状态 (Session state),从而帮助对话保持连贯,就像昨天刚聊过天一样自然。Agent-Cache: Valkey/Redis 上的 LLM 缓存 - promptzone.com

关键点在于,通过仅一次连接 (One Connection) 即可同时管理这三种复杂的信息,效率极高。BetterDB-inc/monitor master 分支中的 monitor/packages/agent-cache


现状 (Where We Stand):它变得多聪明了?

现在,那种必须字字句句完全相同才能找到信息的时代已经过去了。

1. “不用说我也知道”…… 基于语义的搜索

过去的存储设备会将“告诉我首尔的天气”和“首尔的气温怎么样?”识别为完全不同的问题。但 Agent-cache 支持“语义缓存 (Semantic Caching)”技术。BetterDB for AI - TypeScript 和 Python 环境下针对 Valkey 的智能体缓存 | BetterDB 即使句子稍有不同,只要表达的“意图”相似,它就能聪明地找回已经存储的答案。

2. 利用成熟的数字仓库

Agent-cache 基于被称为“Valkey”或“Redis”的、全球最受信赖的数据存储系统运行。Show HN: Agent-cache – 适用于 Valkey 和 Redis 的多层级 LLM/工具/会话缓存 特别是如果你正在使用最近备受关注的开源数据库 Valkey 7.0 或更高版本,或者 Redis 6.2 或更高版本,无需复杂安装即可立即装备“记忆力”。Show HN: Agent-cache – 多层级 LLM/工具/会话缓存 …

3. 与任何 AI 都是绝配

这个工具并非只能用于特定 AI 模型的狭隘工具。它提供了“适配器”,可以轻松连接开发者常用的 LangChain、LlamaIndex、Vercel AI SDK 等几乎所有主要的 AI 开发工具。BetterDB for AI - TypeScript 和 Python 环境下针对 Valkey 的智能体缓存 | BetterDB


未来会怎样? (What’s Next)

现在,AI 已经超越了单纯回答问题的水平,正在步入代替用户进行预约或编写代码的“AI 智能体 (AI Agent)”时代。对于能够自主判断和行动的智能体来说,“记忆力”已不再是可选项,而是生存的必要条件。

随着 Agent-cache 等技术的普及,我们在日常生活中将遇到反应更快、价格更便宜的 AI 服务。对于企业来说,可以大幅降低阻碍 AI 引入的“成本之墙”;而对于我们普通用户来说,抱怨“AI 太慢了真闷”的声音将消失,取而代之的是“一说完就出结果了!”的快感。[使用 Redis 解决 LLM 中的精确匹配问题… LinkedIn](https://www.linkedin.com/posts/mnpaa_redis-langcache-activity-7445416492700958720-Pgw9)

此外,由于它还包含自动跟踪和审计自身使用的 AI 费用的功能,预计企业将能够实时监控 AI 的使用效率,从而规划更高效的未来。BetterDB - Valkey 的可观测性和可审计性 - Aitoolnet


AI 的视线:MindTickleBytes AI 记者视线

“智能很昂贵,但记忆很便宜。”Agent-cache 正是用技术证明这一明晰命题的工具。相比于每次都要重新思考所有事情的天才,我们身边更需要那种绝不忘记学过的内容、在需要时能立即提取出来的诚实助手。这项小小的技术中,不仅包含了让 AI 像人类一样变得更聪明的努力,也包含了对如何更经济、更高效地使用这种智能的深入思考。


参考资料

  1. [ShowHN:Agent-cache–Multi-tierLLM/tool/session… Hacker News](https://news.ycombinator.com/item?id=47792122)
  2. [AgentCache BetterDB 文档](https://docs.betterdb.com/packages/agent-cache.html)
  3. BetterDB - Valkey 的可观测性和可审计性 - Aitoolnet
  4. [使用 Redis 解决 LLM 中的精确匹配问题… LinkedIn](https://www.linkedin.com/posts/mnpaa_redis-langcache-activity-7445416492700958720-Pgw9)
  5. Show HN: Agent-cache – 多层级 LLM/工具/会话缓存 …
  6. Agent-cache 拥有记忆,让您的 LLM 应用无需支付两次费用
  7. Agent-cache – 适用于 AI 智能体的多层级 LLM/工具/会话缓存
  8. Agent-Cache: Valkey/Redis 上的 LLM 缓存 - promptzone.com
  9. Show HN: Agent-cache – 多层级 LLM/工具/会话缓存 …
  10. BetterDB-inc/monitor master 分支中的 monitor/packages/agent-cache
  11. 适用于 Valkey 和 Redis 的多层级 LLM/工具/会话缓存
  12. [BetterDB for AI - TypeScript 和 Python 环境下针对 Valkey 的智能体缓存 BetterDB](https://www.betterdb.com/ai)

FACT-CHECK SUMMARY

  • Claims checked: 16
  • Claims verified: 15
  • Verdict: PASS
测试你的理解
Q1. Agent-cache 重新加载数据需要多长时间?
  • 不到 1 秒
  • 不到 0.1 秒
  • 不到 0.001 秒 (1ms)
Agent-cache 能够以不到 1 毫秒(1ms,千分之一秒)的速度加载缓存数据。
Q2. 哪一项不是 Agent-cache 存储(缓存)的三种主要数据?
  • AI 的回答 (LLM Response)
  • 用户的银行卡支付信息
  • 工具运行结果 (Tool Results)
Agent-cache 存储 AI 回答、工具结果和会话状态 (Session state) 三个层级。
Q3. 使用 Agent-cache 能获得的最大经济利益是什么?
  • 降低电脑功耗
  • 防止对相同问题的重复付费
  • 网络费折扣
当再次向 AI 模型提出已经问过的问题时,它能帮助避免重复支付 API 费用。