news 2026/3/7 18:07:48

Agentic AI实践指南|秘籍三:构建Agent记忆模块

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Agentic AI实践指南|秘籍三:构建Agent记忆模块

本系列文章基于在多个项目中积累的Agent应用构建经验,分享Agentic AI基础设施实践经验内容,帮助您全面深入地掌握Agent构建的基本环节。

上篇文章介绍了专用沙盒环境的必要性与实践方案。

本篇文章将深入探讨Agent应用中的记忆需求、记忆类型、技术组件和主流开源框架,并介绍基于亚马逊云科技的数据产品自行构建记忆模块,以及基于Agent构建服务Amazon Bedrock AgentCore的Agent Memory的托管方案。

前言

当前大语言模型的困境

大语言模型(LLM)在处理和生成文本方面表现出色,但它们在本质上是无状态(stateless)的。这意味着每次与LLM的交互都是独立的,模型本身不会“记住”过去的对话或经验。

大模型在“记忆”上主要局限于以下方面。

上下文窗口的限制导致遗忘问题

LLM通过一个有限的“上下文窗口”(Context Window)来处理信息。所有输入(包括Prompt和之前的对话片段)都必须塞入这个窗口。一旦信息超出这个窗口,LLM就“忘记”了它,无法再访问,这便导致了所谓的“遗忘”问题。

难以处理多轮或复杂任务

对于需要跨越多轮对话、追踪状态或执行一系列子任务的复杂任务,LLM很难保持连贯性和进展,因为它会不断“忘记”之前的步骤和决策。特别是在Agent的场景,工具的定义和工具的返回值都会存在于上下文中,同时由于Agent具有自主工作的能力,和LLM的平均交互的轮数也大大增加。

无法个性化

由于不记住特定用户的历史偏好、习惯或之前的互动,LLM难以提供真正个性化的体验,每次互动都像是第一次见面。

长上下文带来的性能和成本影响

推理速度变慢:LLM在处理更长的上下文时,需要进行更多的计算来处理和理解所有输入信息。这会导致推理时间增加,响应速度变慢。

模型表现下降:尽管LLM的上下文窗口越来越大,但研究发现,模型在超长上下文中检索关键信息的能力可能会下降。

更高的token费用:上下文越长,输入的token数量就越多,从而导致每次API调用的成本更高。对于需要频繁交互或处理大量文本的应用而言,这会迅速累积成可观的费用。

为什么需要记忆模块

记忆系统旨在克服LLM的局限性,赋予Agent以下核心能力:

  • 长期保留与高效管理:存储超出LLM上下文窗口的信息,实现高效检索和过滤,避免信息遗忘。

  • 持续知识更新:通过存储与环境和用户的交互经验,实现自我改进和知识更新。

  • 个性化服务:记录用户偏好和历史互动,提供定制化回应。

  • 复杂任务支持:追踪多Agents任务进展和中间结果,确保连贯完成并优化决策。

  • 提升交互质量:保持上下文连贯性,支持深入推理,并通过反思机制从错误中学习。

AI Agent记忆类型

Agent的记忆系统主要分为短期记忆和长期记忆两大类。

短期记忆或工作记忆

短期记忆(Short-term Memory,STM)是Agent维护当前对话和任务的即时上下文系统,主要包括:

  • 会话缓冲(Context)记忆:保留最近对话历史的滚动窗口,确保回答上下文相关性。

  • 工作记忆:存储当前任务的临时信息,如中间结果、变量值等。

短期记忆受限于上下文窗口大小,适用于简单对话和单一任务场景。

长期记忆

长期记忆(Long-term Memory,LTM)是Agent用于跨会话、跨任务长期保存知识的记忆形式。它对应于人类的大脑中持久保存的记忆,例如事实知识、过去经历等。

长期记忆的实现通常依赖于外部存储或知识库,包括但不限于:

  • 摘要记忆:将长对话内容提炼为关键摘要存储。

  • 结构化知识库:使用数据库或知识图谱存储结构化信息。

  • 向量化存储:通过向量数据库实现基于语义的记忆检索。

长期记忆使Agent能够随着时间累积经验和知识,它特别适用于知识密集型应用和需要长期个性化的场景。

记忆管理与使用相关技术

设计开发Agent的记忆系统时,要考虑不同场景下如何选择记忆内容、设计写入策略、组织记忆结构、实现检索召回四个方面。

记忆产生:判断哪些信息需要被记忆

在构建Agent记忆系统时,首先要根据具体的场景确定哪些信息值得记忆。这些记忆往往是多维度和动态的信息结构,包括:

  • 时间维度:理解时间依赖的关系和序列。

  • 空间维度:解释基于位置的和几何关系。

  • 参与者状态:跟踪多个实体及其不断变化的状况。

  • 意图上下文:理解目标、动机和隐含的目的。

  • 文化上下文:在特定社会和文化框架内解释交流。

并非所有对话内容都需要长期保存,下面以4种常见场景举例哪些是与任务相关、对后续交互有价值的记忆要点。

对于代码助手类的Agent

记忆应侧重用户项目的上下文和偏好。包括:用户项目的代码库结构(文件组织、模块关系)、命名风格(变量命名约定、代码格式风格)、常用的框架或库以及用户以前提供的代码片段或指令等。

记忆这些信息可以更贴合定制化需求和项目实际情况给出建议。例如,没有记忆支持时,开发者常常需要重复告诉AI项目的架构,或纠正AI偏离项目规范的行为,这非常低效。而引入持久记忆后,AI可以持续参考之前存储的项目背景,“记住”用户的技术栈,从而保持技术决策的一致性。同时,代码助手还能记忆用户过往的提问和反馈,例如某段代码曾反复修改,下一次遇到类似问题时可直接调用之前的方案,避免重复推理。

总之,在代码场景中,记忆系统使AI能够理解长期的项目上下文,提供风格一致且上下文相关的代码补全和解释。

对于智能客服类的Agent

记忆的重点是用户历史和偏好,以便提供连贯且个性化的服务。包括:用户当前任务的状态,提过的问题、故障、产品使用、服务配置和解决方案记录。当用户第二次来询问类似问题时,不必重复描述自己之前的问题细节,系统能够回忆起上次给出的建议或已经尝试过某些步骤,直接切入重点解决当前问题。

此外,记忆用户的产品使用情况和喜好(例如偏好哪种通信渠道,是否倾向自助解决)可以使响应更加贴合用户习惯。这样实现更快的问题解决和更高的客户满意度,增强对品牌的信任。

对于个人助理Agent

记忆重点包括:用户个人信息和日程表、目标(如健身学习计划)、经常执行的行为模式(如每周几锻炼)以及对应用和服务的偏好(如偏好哪种提醒方式)等。这样Agent会提醒日程,并结合过往偏好提供个性化安排(比如知道用户周五喜欢外卖,在傍晚时主动推荐餐厅)。

随着交互增加,持续的长期记忆使Agent能不断适应用户,逐渐减少对用户指令的依赖,实现更主动和贴心的服务。

对于推荐服务Agent

记忆重点包括:用户的显式反馈(如用户给某本书点赞或明确表达不喜欢某商品)和隐式反馈(如浏览记录、点击行为、购买历史),以此构建兴趣档案,在后续交互中个性化推荐,并持续学习,对过往推荐的反馈(是否点击、购买),不断调整推荐策略,更新画像,提高推荐转化率也增强用户忠诚度。

记忆管理的实际案例

以下是在一个长文档处理的Agent项目中使用的上下文压缩提示词,当上下文超过指定的限额时,将触发基于LLM的压缩机制。

# Custom system prompt for document processing domain summarizationcustom_system_prompt = """您正在总结文档处理工作流对话。创建一个简明扼要的要点摘要,该摘要: 专注于文档处理任务、章节生成和工作流进度 保留特定文件路径、章节名称和任务完成状态 维护待办事项列表状态和进度跟踪信息 省略对话元素,专注于可操作的工作流信息 使用适合文档处理和内容生成的技术术语 保留错误消息和重要状态更新 以要点形式呈现,不使用对话语言,按以下方式组织: 文档处理:[关键处理步骤和结果] 章节生成:[已完成的章节和当前进度] 待办状态:[当前工作流状态和待处理任务] 文件位置:[重要文件路径和输出] 错误/问题:[遇到的任何问题及解决方案] """

左右滑动查看完整示意

记忆策略

Agent的记忆更新可通过轮数或事件触发。轮数触发是每隔3-5轮对话自动生成摘要存入记忆;事件触发则在完成任务、场景转换等关键节点记录信息。例如,客服完成问题处理时保存解决方案,个人助理更新日程后写入日历。

开发者可实现监控逻辑,在对话累积或话题转换时,让大模型对近期对话生成摘要,提取关键信息并添加标签便于检索。

系统也可支持用户主动标记需要记住的信息,如通过口头指令或界面操作。这不仅让用户指定重要内容,也支持删除特定记忆的需求,确保用户对数据的控制权。

记忆存储:记忆组织结构设计

记忆数据通常采用用户→会话→记忆片段的三层结构管理:

  • 用户层区分不同账号空间

  • 会话层隔离各对话上下文

  • 记忆片段层存储具体内容及元数据(如时间、关键词、来源等)

复杂系统可能需要维护多个记忆库,包括短期工作记忆、长期情节记忆、语义知识库等。合理的结构设计有助于快速检索和有效管理记忆内容。

记忆检索:记忆查询与召回逻辑

Agent需要基于当前对话意图从记忆库中检索相关信息。主要检索方法包括关键词匹配、向量语义搜索和元数据过滤

系统将检索到的记忆按相关度排序,选取最相关内容加入到对话上下文中,用于生成更准确的响应。例如在推荐场景中,可基于用户历史偏好记忆提供个性化建议。

上下文工程与记忆

上下文工程

上下文工程(Context Engineering)与记忆系统形成共生关系,共同支撑Agent的认知能力。记忆系统作为“信息仓库”,存储历史对话、知识和用户偏好;而上下文工程则扮演“智能调度员”,决定从记忆中检索哪些信息及如何组织呈现给LLM。

上下文工程的核心在于,LLM的性能和有效性根本上取决于其接收的上下文。实现了上下文工程的系统一般包含三类基础组件:

  • 上下文检索与生成:涵盖Prompt生成和外部知识获取。

  • 上下文处理:涉及长序列处理、自我完善和结构化信息集成。

  • 上下文管理:关注记忆层次、压缩技术和优化策略。

这些组件是高级应用实现(如RAG、显式记忆系统和Agent系统)的基石。由此,可以将上下文工程定义为:上下文工程将上下文C重新概念化为一组动态结构化的信息组件,c1,c2,…,cn。这些组件由一组函数进行来源获取、过滤和格式化,最终由高级组装函数A进行编排。

上下文工程与记忆的关系

上下文工程与记忆系统紧密且共生,都是AI Agent的重要构建手段。

一方面,记忆是上下文的“仓库”,Agent的记忆系统(如历史对话、知识库、用户偏好)是信息存储地,为LLM提供潜在上下文。

另一方面,上下文工程是记忆的“调度员”和“优化器”,上下文工程决定从记忆中检索哪些信息及如何检索,确保提取最相关的记忆片段。

上下文工程在项目中的案例

在一个文档自动化处理生成的Agent项目中,面临一项关键挑战:输入文档总量超过500页,远超模型的最大token限制,同时项目对生成内容的召回率和准确率有较高要求。

为解决这一问题,实施以下上下文工程策略:

  • 文档分块处理:将大型文档集合切分为适当大小的chunks,并存储在文件系统中。

  • 摘要生成:为每个文档块生成精炼的文字摘要,提供内容概览。并生成整个文档的摘要信息。

  • 动态上下文管理:赋予Agent自主选择的能力,使其可以根据任务需求动态调取相关文档块。

  • 上下文优化:任务完成后自动释放不再需要的上下文,优化资源利用。

这种方法使Agent能够在保持高准确率的同时,有效处理超过模型上下文限制的文档集合。

主流记忆框架分析

基于上个章节介绍的设计思路、核心组件和优化策略,业界涌现了多种记忆机制的实现方案。

下文将从以下两个角度,对目前主流的Agent记忆方案进行分析,比较其特点、适用场景以及部署成本:

  • 开源框架:Mem0,MemGPT,LangMem及其与亚马逊云科技服务的集成。

  • 亚马逊云科技商业解决方案:AI Agent构建托管服务Amazon Bedrock AgentCore的记忆模块。

Mem0

Mem0是专为AI Agent设计的开源记忆框架,通过智能记忆管理帮助Agent实现状态持久化。它支持工作记忆、事实记忆、情景记忆和语义记忆等多种类型,提供智能的LLM提取、过滤和衰减机制,有效降低计算成本。同时支持多模态处理和Graph记忆功能,既可使用托管服务也可自建部署。

从架构来看,Mem0包含几个核心模块:

  • 核心记忆层:是构建核心逻辑来判断新增、检索、更新和删除记忆的相应实现。

  • LLM层:负责根据用户输入提取出关键信息,以及生成如何更新记忆的决策。

  • 嵌入模型层与向量存储层:负责支持记忆的向量化存储和检索。

  • 图存储层:负责存储抽取出的实体关系,丰富记忆的组织形态。

  • 持久化存储层:负责存储对记忆系统的操作信息。

这种分层架构设计确保了记忆系统的可扩展性和可维护性,每层职责明确,便于针对不同场景进行优化配置。

Mem0的设计理念专注于智能记忆管理而非简单数据存储,融合了几个关键技术创新:

  • 双LLM架构:系统通过两次不同的LLM调用实现复杂的分工。第一次专注于信息提取,第二次专门处理决策过程,提高准确性并允许专门优化。

  • 上下文感知处理:在现有记忆上下文中分析新数据,确保记忆系统一致性和连贯性,防止碎片化并维护信息间逻辑关系。

  • 智能去重机制:结合向量相似性搜索与LLM判断,防止冗余信息存储,保持记忆质量和系统效率。

  • 冲突解决能力:当出现矛盾信息时,智能确定保留、更新或删除的适当行动,适应用户偏好和环境的动态变化。

Mem0与Agent框架的集成

开发者可以通过两种方式集成Mem0:

1.在环境变量配置依赖信息后,直接调用Mem0的接口函数(如添加、查找、更新记忆等)。

2.将Mem0封装成工具传入Agent框架,由Agent根据处理逻辑自主调用相应方法。

Mem0与亚马逊云科技的集成

亚马逊云科技的多项服务均支持与Mem0集成,为开发者提供完整的企业级记忆解决方案。

1.模型服务集成:支持Amazon Bedrock的多种模型,包括Claude-3.7-Sonnet用于复杂推理、Titan-Embed-Text-v2用于向量化处理。

2.存储服务集成:

  • 向量存储:Amazon Aurora Serverless V2 for PostgreSQL、Amazon OpenSearch

  • 图数据存储:Amazon Neptune Analytics

3.开发框架集成:亚马逊云科技开源的StrandsAgent框架中内置了基于Mem0能力封装的mem0_memory工具。

Mem0作为开源解决方案,为开发者提供了灵活的记忆管理能力。结合亚马逊云科技服务,可以构建高性能、可扩展的Agent记忆系统,适合需要深度定制和成本优化的企业级应用场景。

关于Mem0的深度解析以及和亚马逊云科技服务集成的更多信息,请参阅博客。

博客:

https://amazon.awsapps.com/workdocs-amazon/index.html#/document/17faaf605c2b12a543d5b9223ec5301aca29c03ffd5f3d1f5dd929d5496471bc

Letta

Letta(前身为MemGPT)是一个专注于构建具有持续记忆能力的AI Agent的框架,它的设计思路是将LLM Agent类比为计算机操作系统,采用“虚拟内存”的概念来管理Agent的记忆。

其核心创新在于双层记忆架构:

  • 上下文内记忆:直接存在于模型上下文窗口中的系统指令、可读写记忆块和当前对话。

  • 上下文外记忆:存储历史对话和外部知识的长期存储。

当上下文窗口接近填满时,系统会自动将对话历史压缩为递归摘要并存储为记忆块,同时保留原始对话供后续检索,通过工具如core_memory_append、core_memory_replace和recall实现记忆的编辑与检索,从而使AI Agent能够在长期交互中保持连贯性,真正实现记住过去、学习新知并随时间演化的能力。

Letta与亚马逊云科技的深度集成

Letta可无缝对接亚马逊云科技服务栈,以下是一个通过Letta框架搭建的电商客服机器人问答流程示例:

  • 使用Amazon Bedrock的Claude或Titan模型作为基础LLM。

  • 采用Amazon PostgreSQL、OpenSearch作为向量存储后端。

  • 利用Amazon ElastiCache缓存来提升推理(框架原生支持)、问答等场景(需要搭建缓存中间件)的效率。

  • 通过Amazon Lambda实现记忆管理的Serverless架构。

通过Letta框架搭建的电商客服机器人问答流程示例

LangMem

LangMem是由LangChain开发的,旨在解决AI Agent的“健忘症”问题。

传统的LLM在会话结束或上下文窗口被超出时会丢失之前的交互信息,而LangMem为AI Agent提供了长期记忆能力,使其能够跨会话保持知识连续性,记住用户的偏好、过往交互和重要事实。

这一创新将AI Agent从简单的反应系统转变为能够随时间学习和适应的动态助手。例如:您的AI助手能够记住您上周提到的项目细节,了解您的工作习惯,甚至记得您喜欢的咖啡类型。

LangMem框架的设计理念是借鉴人类心理学对记忆的分类,为Agent设计了三种核心记忆类型,每种类型都有其独特的功能和应用场景。

语义记忆(Semantic Memory)

语义记忆是Agent的知识基础,存储客观事实、用户偏好和基础知识,作为长期持久化记忆嵌入系统提示中,可通过Collection方式保存完整历史信息,或通过Profile方式只保留最新状态,为Agent提供稳定的知识支撑,确保其能够准确理解和回应用户需求。

情节记忆(Episodic Memory)

捕捉Agent的交互经历,不仅存储对话内容,还包含完整上下文和推理过程,作为短期记忆主要用于构建用户提示词,使Agent能够从过往经验中学习,参考成功案例调整响应策略,从而在类似情境中提供更加个性化和有效的解决方案。

程序记忆(Procedural Memory)

专注于“如何做”的实操知识,从初始系统提示开始,通过持续反馈和经验积累不断优化,作为短期记忆帮助Agent学习最有效的行为模式,既可用于系统提示也可用于用户提示,使Agent能够根据不同情境灵活调整策略,提高解决问题的效率和准确性。

LangMem不仅能存储对话中的重要信息,还能优化提示和行为,在多次交互后提供更连贯、个性化的响应。它消除了传统AI Agent在会话结束后丢失上下文的问题,减少了重复询问用户已提供信息的需要,显著提升了用户体验的连贯性和个性化程度。

LangMem提供通用存储兼容性和热路径内存工具,使AI Agent能在实时会话中即时保存和检索信息。其智能后台内存管理功能自动提取、汇总并更新知识库,且与LangGraph无缝集成。

LangMem的高级特性包括主动记忆管理、共享内存机制、命名空间组织和个性化持续进化能力,使AI Agent能根据重要性动态存储信息,支持多个Agent之间的知识共享,高效组织检索信息,并不断适应用户需求变化,提供越来越精准的服务。

目前LangMem主要是与LangGraph集成,支持Amazon Bedrock。在记忆存储层面,针对开发场景,有内置的InMemoryStore,支持快速的迭代、测试和原型设计;另外,提供对PostgresqlSQL的支持。对于其他记忆存储引擎,LangMem提供开放的接口实现方式,需要用户定制开发集成。

亚马逊云科技的托管记忆解决方案

Amazon Bedrock AgentCore Memory

相比开源框架,亚马逊云科技也提供开箱即用的托管服务,通过AI Agent构建服务Amazon Bedrock AgentCore中的记忆模块帮助开发者更快捷地为AI Agent赋能记忆功能。您无需运维任何底层资源,只需一键即可集成业界领先的记忆系统。

Amazon Bedrock AgentCore中的记忆模块核心功能展示

记忆的存储

Memory模块在架构上采用分层存储策略:

  • 短期记忆层:存储原始交互事件作为即时上下文。

  • 长期记忆层:存储从事件提取的概要知识。

Memory服务背后实现了自动的信息处理流水线:当新的事件被存储时,如果Memory配置了长期记忆策略,服务会异步地对事件内容进行分析(例如调用基础模型)来提炼出可长期保存的知识片段。

AgentCore Memory内置了多种记忆策略(Memory Strategy)来定义如何将原始对话转化为结构化长期记忆。例如:

  • SemanticMemoryStrategy(语义记忆策略):从对话中抽取出事实和知识,以便日后查询。

  • SummaryMemoryStrategy(摘要策略):为每个会话生成对话摘要,提炼主要内容。

  • UserPreferenceMemoryStrategy(用户偏好策略):捕获用户的偏好、风格和重复选择等信息。

使用内置策略时,无需额外配置模型,AgentCore Memory服务会在后台使用预置的模型来完成提取和归纳。当开发者调用CreateEvent保存新事件后,这些策略会被自动触发,异步运行LLM分析内容并产生长期记忆记录(memory records)。长期记忆记录生成后存储于Memory中,对应特定的命名空间和类型(如事实、摘要、偏好),每条记录也有唯一ID以供检索。

此外,AgentCore允许自定义记忆策略(CustomMemoryStrategy),开发者可提供自定义的提示词(prompt)和选择特定的基础模型来执行记忆提取,例如只提取某类domain知识。

记忆的使用

Memory模块提供检索API,供应用在调用LLM推理时提取相关记忆并注入对话上下文中。在LLM生成回复时,可以通过Memory提供的内容获得额外的上下文信息。

例如,开发者可以在每次生成回复前,调用list_events获取短期记忆的对话记录,将其附加到LLM的提示中,以维护对话连续性。对于跨会话的信息,可以使用retrieve_memories接口通过语义查询长期记忆,例如查询某用户的偏好或某主题的事实知识,然后把检索到的内容纳入提示。

这种机制确保LLM在回答新问题时,不仅有当前对话文本,还能利用Memory中沉淀的历史知识,提高响应的相关性和智能性。

Memory as tool:Memory模块还可以与Agent框架的推理流程集成,实现自动的上下文注入。AgentCore Memory可被包装成一个工具供LLM调用。

以Strands Agents框架为例,开发者通过AgentCoreMemoryToolProvider将Memory注册为工具,使得当模型需要回忆信息时,可以自主调用如agent_core_memory工具执行retrieve动作来查询记忆,或用record动作将新的信息存入记忆。这种工具调用方式也可以通过MCP等标准,让LLM在推理中动态决定何时读写记忆,使Agent能够更加自主地管理上下文。

所有数据由亚马逊云科技以加密方式存储,并使用命名空间(namespace)进行隔离分区,确保不同应用或用户的记忆数据彼此分隔。这一完全托管的记忆基础设施让开发者无需自己搭建数据库或向量存储,就能方便地让Agent拥有记忆功能。

有关Amazon Bedrock AgentCore Memory的深度解析,请参阅博客。

Amazon Bedrock AgentCore Memory博客:

https://quip-amazon.com/FnmbAhKxwo6m

总结

记忆机制为Agentic AI注入了持续演进的灵魂,使Agent能像人类一样从过去的互动中学习,在未来表现得更聪明、更贴心。

无论是通过开源框架构建内部记忆模块,还是借助商业方案快速赋能,都应将记忆视作AI Agent的基础而非可选项。

可以肯定的是,在Agentic AI的大潮中,拥抱并善用记忆者,才能打造出真正有认知连续性的下一代Agent,而亚马逊云科技也会持续走在技术与方案的前沿,与客户竭诚合作共创成功。

技术资料链接

Strands Agent:

https://aws.amazon.com/cn/blogs/china/practical-guide-to-building-agentic-ai-applications-for-aws-china-region/

Amazon Bedrock AgentCore Memory官方文档:

https://docs.aws.amazon.com/zh_cn/bedrock-agentcore/latest/devguide/memory.html

Amazon Bedrock AgentCore代码样例:

GitHub–awslabs/amazon-bedrock-agentcore-sample

后续将推出更多Agentic AI基础设施的实践经验参考,敬请期待!

本篇作者

Gao Yunyi

亚马逊云科技生成式AI解决方案架构师,负责亚马逊云科技的人工智能与机器学习、生成式AI方案及架构设计咨询。

马丽丽

亚马逊云科技数据库解决方案架构师,十余年数据库行业经验,先后涉猎NoSQL数据库Hadoop/Hive、企业级数据库DB2、分布式数仓Greenplum/Apache HAWQ以及亚马逊云科技云原生数据库的开发和研究。

姬军翔

亚马逊云科技资深解决方案架构师,在快速原型团队负责创新场景的端到端设计与实现。

陈阳

亚马逊云科技数据库专家架构师,拥有十余年数据库行业经验,主要负责基于亚马逊云科技云计算数据库产品的解决方案与架构设计工作。

黄霄

亚马逊云科技数据分析解决方案架构师,专注于大数据解决方案架构设计,具有多年大数据领域开发和架构设计经验。

潘超

亚马逊云科技数据分析解决方案架构师,负责客户大数据解决方案的咨询与架构设计,在开源大数据方面拥有丰富的经验。

李君

亚马逊云科技数据库解决方案技术专家,负责基于亚马逊云科技云计算数据库产品的技术咨询与解决方案工作,特别专注于从SQL到NoSQL数据库的设计、测试、迁移、运维及优化等工作。

往期精彩内容

re:Invent 2025中国行

于12月18日正式开启

即刻点击小程序卡片,抢占席位

↓↓↓

新用户注册海外区域账户,可获得最高200美元服务抵扣金,覆盖Amazon Bedrock生成式AI相关服务。“免费计划”账户类型,确保零花费,安心试用。

星标不迷路,开发更极速!

关注后记得星标「亚马逊云开发者」

听说,点完下面4个按钮

就不会碰到bug了!

点击阅读原文查看博客!获得更详细内容!

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/3/5 1:37:28

DiskSpd存储性能测试实战:从入门到精通的完整操作指南

DiskSpd是微软开发的专业存储性能测试工具,广泛应用于Windows服务器和云基础设施的性能评估。无论您是系统管理员、存储工程师还是开发人员,掌握DiskSpd都能帮助您快速诊断存储瓶颈,优化系统性能。 【免费下载链接】diskspd DISKSPD is a sto…

作者头像 李华
网站建设 2026/3/4 17:12:26

Langchain-Chatchat如何设置敏感词过滤?内容安全控制策略

Langchain-Chatchat如何设置敏感词过滤?内容安全控制策略 在企业级AI应用日益普及的今天,一个看似智能的知识问答系统,可能因为一句不当输出而引发严重的合规风险。尤其是在政企、金融、医疗等对数据隐私和内容安全高度敏感的领域&#xff0c…

作者头像 李华
网站建设 2026/3/7 9:35:34

iOS CMake工具链终极指南:跨平台开发配置全解析

想要在苹果生态系统中进行C/C/Objective-C跨平台开发?iOS CMake工具链就是你的完美解决方案。这个强大的工具链文件专为iOS、macOS、watchOS、tvOS和visionOS平台设计,提供完整的仿真器支持和灵活的配置选项,让你的开发工作变得前所未有的简单…

作者头像 李华
网站建设 2026/3/7 10:07:17

Pipecat多模态交互框架:让AI真正看懂你的表情和手势

Pipecat多模态交互框架:让AI真正看懂你的表情和手势 【免费下载链接】pipecat Open Source framework for voice and multimodal conversational AI 项目地址: https://gitcode.com/GitHub_Trending/pi/pipecat 想象一下这样的场景:你正在和AI助手…

作者头像 李华
网站建设 2026/3/5 11:30:49

RouterOS 7.19.2 arm64版本技术深度解析

RouterOS 7.19.2 arm64版本技术深度解析 【免费下载链接】MikroTikPatch 项目地址: https://gitcode.com/gh_mirrors/mikr/MikroTikPatch 随着网络基础设施的持续演进,MikroTik推出的RouterOS 7.19.2 arm64版本为嵌入式网络设备管理带来了突破性进展。该版本…

作者头像 李华
网站建设 2026/3/3 23:18:22

Vkvg:基于Vulkan的高性能2D图形库终极指南

Vkvg:基于Vulkan的高性能2D图形库终极指南 【免费下载链接】vkvg Vulkan 2D graphics library 项目地址: https://gitcode.com/gh_mirrors/vk/vkvg Vkvg是一个基于Vulkan图形API构建的高性能2D图形库,采用C语言开发,为现代应用提供快速…

作者头像 李华