letta-ai/letta:AI记忆管理平台
Letta是一个构建状态化智能代理的平台,提供高级记忆功能,使AI能够随时间学习和自我改进。它面向开发者,特别是那些需要构建具有持久记忆和学习能力的AI应用的开发者。Letta的核心功能包括内存分层、内存块、代理上下文工程和持续自我改进的代理。其技术架构亮点在于对MemGPT LLM OS原则的遵循,支持多种模型和工具集成。在LLM生态中,Letta的价值在于其独特的记忆管理和多代理共享内存能力,为开发者提供了一种新的AI应用范式。
精选 10 篇,从 14800+ 条中筛选
Letta是一个构建状态化智能代理的平台,提供高级记忆功能,使AI能够随时间学习和自我改进。它面向开发者,特别是那些需要构建具有持久记忆和学习能力的AI应用的开发者。Letta的核心功能包括内存分层、内存块、代理上下文工程和持续自我改进的代理。其技术架构亮点在于对MemGPT LLM OS原则的遵循,支持多种模型和工具集成。在LLM生态中,Letta的价值在于其独特的记忆管理和多代理共享内存能力,为开发者提供了一种新的AI应用范式。
OpenAI发布了GPT-5.2-Codex,这是专为复杂软件工程设计的最先进的代理式编码模型。该模型通过上下文压缩提升了长周期工作能力,增强了网络安全性能,并实施了全面的安全措施。GPT-5.2-Codex在网络安全和生物学领域表现出色,但在AI自我改进方面尚未达到高级水平。
OpenAI发布了GPT-5.2-Codex,这是其最先进的编码模型,旨在推动真实世界软件工程和防御性网络安全的发展。该模型在长上下文理解、工具调用、事实准确性和原生压缩方面有所提升,并在基准测试中表现出色,同时增强了网络安全能力,OpenAI正通过逐步发布和增加安全措施来部署该模型。
OpenAI发布了GPT-5.2-Codex,这是其最先进的编码模型,专注于软件工程和网络安全。该模型在代码重构、迁移、Windows环境性能和网络安全能力方面有显著提升,并在基准测试中表现出色。OpenAI还推出了一个邀请制的“受信任访问”试点计划,以加速网络防御工作。
OpenAI与美国能源部签署谅解备忘录,旨在深化人工智能在科学领域的合作,加速科学发现,支持DOE的“创世任务”。该合作是OpenAI“科学AI计划”的一部分,旨在将前沿AI模型应用于真实研究环境,以帮助科学家更快地探索想法、验证假设并从洞察中获得结果。
OpenAI 正式更新了其模型规范,引入了针对未成年人的U18原则,旨在为13至17岁的青少年提供安全、适合年龄的AI体验。这一更新强调了预防、透明度和早期干预,并得到了外部专家的指导,包括美国心理学会。OpenAI还实施了多层保护措施,并与专家合作,以加强青少年安全工作。
OpenAI发布了面向青少年和家长的人工智能素养资源,包括家庭指南和家长提示,旨在帮助用户安全、负责任地使用ChatGPT,并培养批判性思维。
OpenAI发布了一项关于思维链可监测性的新框架和评估套件,通过13项评估覆盖24个环境,发现监测模型的内部推理比单独监测输出更有效,为AI系统可扩展控制提供了有希望的途径。
这篇论文提出了一种基于语义驱动的强化学习方法(SRL)用于医学报告生成,该方法在大型视觉语言模型(LVLM)上实现,通过优化报告级别的奖励来提高临床正确性,并在IU X-Ray和MIMIC-CXR数据集上取得了最先进的性能。
这篇论文介绍了INTELLECT-3,一个基于大规模强化学习训练的106B参数混合专家模型。该模型在数学、代码、科学和推理基准测试中达到了最先进的性能,并开源了模型及其基础设施栈,包括强化学习框架、完整配方和用于训练和评估的环境集合。论文还介绍了prime-rl,一个用于大规模异步强化学习的开放框架。
这篇论文提出了动态秩强化学习(DR-RL),一种通过结合强化学习和在线矩阵扰动理论来自适应优化大型语言模型(LLMs)中多头自注意力(MHSA)低秩分解的新框架。该方法动态选择秩,以实时序列动态、层特定敏感性和硬件约束为基础,通过平衡注意力保真度与计算延迟来优化性能,同时减少浮点运算次数,特别适用于长序列处理。
本文提出了一种名为EVICPRESS的KV缓存管理系统,旨在通过联合优化KV缓存的压缩和驱逐策略,以最小化平均生成延迟并保持高质量。EVICPRESS通过考虑压缩和驱逐对整体生成质量和延迟的影响,实现了一个统一的效用函数,并通过快速启发式算法在多个存储层级上重新排列KV缓存,从而在保证生成质量的同时,显著提高了LLM推理系统的效率。
这篇论文提出了LLMQ,一种针对消费级GPU的高效低精度预训练方法,通过优化激活检查点、卸载和基于copy-engine的集体通信等技术,实现了在低内存和高延迟的GPU上训练大型语言模型,如7B和32B参数模型,同时保持了与数据中心级GPU相当的效率。
这篇论文提出了QuadSentinel,一个用于多智能体系统的机器可检查控制的安全机制。它通过将安全策略表达为序列,并使用四个智能体(状态跟踪器、策略验证器、威胁观察者和裁判)来编译这些策略为可机器检查的规则,从而提高了安全控制的准确性和规则召回率,同时减少了误报。
这篇论文提出了PyFi,一个用于金字塔式金融图像理解的框架,通过对抗性代理使视觉语言模型(VLMs)能够通过问题链以渐进、简单到复杂的方式推理。PyFi-600K数据集包含600K金融问答对,组织成一个推理金字塔,通过多智能体对抗机制和蒙特卡洛树搜索(MCTS)范式进行合成,从而实现数据可扩展性。实验表明,在金融领域,对VLMs进行微调可以显著提高其回答复杂问题的准确性。
这篇论文提出了VERAFI,一个结合神经符号策略生成的代理金融智能框架,旨在解决金融AI系统在推理过程中产生的计算错误和监管违规问题。VERAFI通过结合先进的密集检索和交叉编码重排序,以及金融工具和自动化推理策略,实现了对GAAP合规性、SEC要求和数学验证的覆盖,显著提高了金融AI的准确性。
这篇论文提出了一种名为DrugRAG的检索增强生成(RAG)管道,通过从验证来源检索结构化药物知识并增强模型提示,显著提高了大型语言模型(LLM)在药房许可式问答任务上的准确性。研究通过在141个问题的药房数据集上对11个不同参数规模的LLM进行基准测试,并开发了一个三步RAG管道,展示了外部结构化药物知识集成对LLM准确性的提升效果。