thedormack/claude-mem:智能编码记忆助手
Claude-Mem是一个为Claude Code构建的插件,旨在通过自动捕获编码会话中的所有操作,使用AI进行压缩,并将相关上下文注入到未来的会话中,从而实现跨会话的上下文持久化。该项目主要面向开发者,通过智能记忆和搜索功能,优化了编码过程中的知识连续性和效率。
精选 19 篇,从 17800+ 条中筛选
Claude-Mem是一个为Claude Code构建的插件,旨在通过自动捕获编码会话中的所有操作,使用AI进行压缩,并将相关上下文注入到未来的会话中,从而实现跨会话的上下文持久化。该项目主要面向开发者,通过智能记忆和搜索功能,优化了编码过程中的知识连续性和效率。
google/adk-samples是一个基于Agent Development Kit (ADK)的LLM相关项目,旨在提供一系列预构建的智能代理示例,加速开发过程。该项目定位为开发者工具,通过提供多种语言的示例代理,解决复杂多代理工作流程的开发难题。其技术栈亮点在于ADK的集成,支持Python、Go和Java,且具有丰富的示例应用。在LLM生态中,该项目通过提供多样化的代理示例,助力开发者快速构建智能应用。
NewBie-image-Exp0.1是一款基于Next-DiT架构的文本到图像生成模型,定位为多模态模型。该模型采用Gemma3-4B-it作为文本编码器,结合Jina CLIP v2进行特征融合,使用FLUX.1-dev VAE进行图像编码。模型在大型动漫数据集上预训练,具有生成高质量动漫图像的能力。性能方面,未提供具体基准测试结果,但模型在动漫风格图像生成方面具有显著优势。开源协议为newbie-nc-1.0,适合对动漫图像生成有特定需求的场景。
🔥 zai-org/GLM-4.6V-Flash 是一款轻量级的多模态模型,定位于通用大模型领域。该模型具有9B参数量,支持中英双语,具备原生多模态函数调用能力,能够实现图像、文本的混合内容生成。在视觉理解方面,该模型在同类参数规模模型中达到SoTA性能。其性能在多个基准测试中表现优异,尤其在多模态内容生成方面具有显著优势。模型适用于需要低延迟、轻量级部署的场景,如桌面助手应用等。
GLM-4.6V是一款由zai-org开发的通用大模型,具有106B的参数量,支持中英双语。该模型在视觉理解方面表现出色,并首次集成了原生函数调用能力,实现了从视觉感知到执行动作的统一技术基础。其在多个基准测试中取得了同类模型中的领先地位。GLM-4.6V适用于云和集群场景,并提供了轻量级版本GLM-4.6V-Flash,适用于本地部署和低延迟应用。
🔥 ostris/Z-Image-De-Turbo是一款基于Tongyi-MAI/Z-Image-Turbo的微调模型,定位为多模态模型。其核心技术为diffusers库和safetensors,支持text-to-image的pipeline。该模型在Hugging Face Hub上下载量达147,234次,具有较好的性能表现。适用于图像生成等任务,具有开源协议Apache-2.0,适合在多种硬件上运行。
EssentialAI的rnj-1-instruct模型是一款针对代码和STEM领域优化的开源大模型,具有8B参数量。该模型在多种编程语言中表现优异,具备强大的代理能力和工具调用功能,同时在数学和科学领域也有出色表现。模型在HuggingFace平台上具有较高的下载量和点赞数,表明其在LLM领域具有一定的竞争力。rnj-1-instruct的核心技术在于其开放权重和密集的模型架构,以及针对特定领域的优化。在性能上,该模型在多个基准测试中取得了良好的成绩,特别是在代码生成和数学推理方面。该模型适用于需要高性能代码生成和数学计算的场景,如教育、科研和软件开发。
LongCat-Image是一款定位在多模态模型领域的开源基础模型,具有6B参数量,专注于图像生成。其核心能力在于高效的模型设计、强大的中文文本渲染和出色的图像真实感。在性能表现上,LongCat-Image在多个基准测试中展现出超越同类模型的潜力。该模型适用于需要高效图像生成的场景,具有开源Apache-2.0协议,对硬件要求适中,推理效率较高。
Devstral-Small-2-24B-Instruct-2512是一款专注于软件工程任务的代码能力领先的专用大模型。该模型基于Mistral-Small-3.1-24B-Base-2503基座模型,采用FP8格式,具有256k的上下文窗口。它在SWE-bench基准测试中表现出色,适用于AI代码助手、软件工程任务等。模型具有轻量级、开源Apache 2.0协议等特点,适用于本地部署和设备使用。
ServiceNow-AI的Apriel-1.6-15b-Thinker是一款多模态推理模型,定位为通用大模型。该模型基于Transformer架构,具有15B参数,上下文长度未明确提及。它在多个基准测试中表现出色,如Artificial Analysis Index和Tau2 Bench Telecom,效率高,推理token使用量减少超过30%。该模型适用于需要高效推理和多模态理解的应用场景,如企业领域。
澳大利亚联邦银行与OpenAI合作,向5万名员工推出ChatGPT Enterprise,旨在大规模提升AI应用能力,以改善客户服务和欺诈响应。
OpenAI与德国电信合作,将先进的AI技术引入欧洲市场,旨在为数百万用户提供多语言、简洁且注重隐私的AI体验,并部署ChatGPT Enterprise以优化德国电信的工作流程和加速创新,预计服务将于2026年开始推出。
OpenAI与Linux基金会共同创立了Agentic AI Foundation,旨在推动开源代理式AI的发展,并捐赠了AGENTS.md以支持开放、可互操作的标准。此举旨在解决代理式AI发展中的碎片化问题,通过共享投资、开放开发和社区主导的标准,促进代理式AI的透明、协作发展。
Scout24发布了一款名为HeyImmo的智能对话式房地产助手,该助手利用GPT-5和生成式AI技术,旨在为用户提供更智能、个性化的房地产搜索体验。助手能够提供摘要、要点、图片预览等自适应答案格式,并注重智能交互,旨在提供指导而非仅仅是搜索结果。
这篇论文提出了一种将强化学习与自主代理结合的框架,用于从业务需求文档中自动生成软件测试用例,从而在质量工程(QE)工作流程中实现测试用例编写过程的持续改进。该框架通过使用代理从QE反馈、评估和缺陷发现结果中学习,自动优化其测试用例生成策略,结合了专门代理和混合向量图知识库,通过先进的强化学习算法如PPO和DQN,提高了测试用例的生成准确性和缺陷检测率。
这篇论文提出了Astra,一个交互式通用世界模型,通过自回归去噪架构和时序因果注意力机制,能够从过去的观察和动作预测长期未来,适用于多种场景和动作形式,如自动驾驶和机器人抓取。Astra通过噪声增强历史记忆和动作感知适配器,实现了交互性、一致性和通用的长期视频预测。
这篇论文提出了一种名为PHM(Parameterized Hypercomplex Multiplication)的渐进式重参数化策略,用于压缩多模态语言模型(MLLMs),通过将密集的前馈网络块替换为紧凑的PHM层,从而在保持性能的同时显著减少模型大小和推理延迟。
这篇论文深入分析了Segment Anything Model (SAM)系列中的SAM2到SAM3的差距,解释了基于提示的专家知识为何无法迁移到多模态概念驱动的SAM3。论文对比了SAM2的基于空间提示的几何和时序分割与SAM3的统一视觉-语言架构,包括开放词汇推理、语义定位、对比对齐和基于示例的概念理解。
这篇论文提出了WAM-Flow,一种将自我轨迹规划视为结构化标记空间上的离散流匹配的视觉-语言-动作(VLA)模型。WAM-Flow通过结合度量对齐的数值标记器、几何感知的流目标函数和模拟引导的GRPO对齐,实现了并行、双向去噪,并能够进行粗到细的细化。实验结果表明,WAM-Flow在闭环性能上优于基于自回归和扩散的VLA基线,在NAVSIM v1基准测试中取得了显著的性能提升。
这篇论文提出了BabelCoder,一个基于代理的代码翻译框架,通过将代码翻译任务分解为专门的代理(翻译、测试和改进),以实现更精确的代码翻译。该方法在多个基准数据集上优于现有方法,平均准确率达到94.16%。
这篇论文提出了一种名为Argus的多智能体敏感信息泄露检测框架,该框架利用分层参考关系有效地检测代码仓库中的敏感信息泄露。它通过整合关键内容、文件上下文和项目参考关系,显著降低了误报率,提高了检测的准确性。
这篇论文提出了一种名为SPAD的新方法,用于检测RAG(检索增强生成)中的幻觉。SPAD通过将每个词的概率分配到七个不同的来源,包括查询、RAG、过去生成的词、当前词、FFN、最终LayerNorm和初始嵌入,来量化每个来源对当前词生成的贡献。通过聚合这些分数并识别异常,SPAD能够有效地检测幻觉。
这篇论文提出了Eyes-on-Me,一种针对检索增强生成(RAG)系统的数据中毒攻击方法。该方法通过可转移的注意力引导吸引子,将对抗性文档分解为可重用的组件,从而实现高效的数据中毒攻击。实验表明,Eyes-on-Me在多个RAG设置中显著提高了攻击成功率,且无需针对新的目标重新训练。