Yeachan-Heo/oh-my-claudecode:简化Claude Code的多代理协作工具
oh-my-claudecode是一个面向开发者的多代理编排工具,旨在简化Claude Code的使用。它通过提供自然语言接口和自动并行化,帮助开发者高效地构建和优化应用程序。该项目填补了LLM生态中自动化和协作工具的空白,通过其独特的团队模式,实现了多代理之间的协调工作,提高了开发效率。
精选 73 篇,从 360+ 条中筛选
oh-my-claudecode是一个面向开发者的多代理编排工具,旨在简化Claude Code的使用。它通过提供自然语言接口和自动并行化,帮助开发者高效地构建和优化应用程序。该项目填补了LLM生态中自动化和协作工具的空白,通过其独特的团队模式,实现了多代理之间的协调工作,提高了开发效率。
Vaibhavs10的insanely-fast-whisper项目是一个高性能的语音转文本工具,旨在为用户提供快速、高效的音频转录服务。该项目通过优化OpenAI的Whisper模型,实现了在NVIDIA GPU上对150分钟音频的转录时间缩短至不到2分钟。它为开发者提供了一个轻量级的命令行界面,支持多种模型和优化技术,如Flash Attention 2,显著提升了转录速度。该项目填补了LLM生态中快速音频转录工具的空白,为研究者、应用开发者提供了强大的工具。
Chandra项目是一个专注于文档智能处理的OCR模型,旨在将复杂表格、表格、手写文档转换为结构化的HTML/Markdown/JSON格式,同时保留布局信息。该项目面向研究者、应用开发者和企业用户,通过其强大的多语言支持、手写识别能力和表格处理能力,为文档处理提供了高效解决方案。Chandra基于Python语言开发,利用HuggingFace和VLLM技术,实现了高性能的文档解析和转换。在LLM生态中,Chandra以其独特的文档解析能力和多语言支持,填补了市场空白,为用户提供了一种新的文档处理范式。
AgentScope是一个面向开发者构建智能代理应用的框架,提供易于使用且可扩展的抽象,支持模型微调和多种工具集成。它旨在解决LLM应用开发中的复杂性和效率问题,通过提供丰富的功能和灵活的架构,帮助开发者快速构建、部署和优化智能代理。
Jackrong/Qwen3.5-9B-Claude-4.6-Opus-Reasoning-Distilled-v2-GGUF 是一个推理优化版本的大语言模型,专注于提高推理效率和准确性。该模型基于Qwen3.5-9B进行微调,结合了Claude 4.6 Opus风格的推理样本,特别强调在减少内部冗余循环的同时提升跨任务泛化能力。模型在推理速度和成本效益上有所提升,同时在基准测试中表现出色。适用于需要高效推理和准确性的场景,如代码生成、数学推理等。
Jackrong/Qwen3.5-4B-Claude-4.6-Opus-Reasoning-Distilled-v2-GGUF 是一款专注于推理优化的推理模型,定位为领域大模型。该模型基于 Qwen3.5-4B 进行微调,采用 Claude 4.6 Opus 风格的推理样本,优化推理经济性和结构效率。模型在 HumanEval 和 HumanEval+ 等基准测试中表现出色,尤其在跨任务泛化方面有显著提升。其核心能力在于高效的推理和逻辑分析,适用于需要深度推理和逻辑判断的场景。模型开源,适用于对推理效率有较高要求的场景。
Voxtral-4B-TTS-2603是一款专注于语音合成的LLM,定位为特定领域微调模型。其核心技术包括Transformer架构和Voxtral TTS模型,支持多语言和方言,具有低延迟和高性能的特点。在基准测试中表现出色,适用于客户支持、金融服务等多个场景。开源协议为CC BY-NC 4.0,对硬件要求较高,推理效率高。
CohereLabs的cohere-transcribe-03-2026模型定位为特定领域微调模型,专注于语音识别与转录任务。该模型采用自动语音识别技术,具有自动化的数据处理流程。技术特点包括Transformer架构和自动语音识别技术。性能方面,模型在Hugging Face排行榜上表现良好,具有高效的处理速度和准确的转录结果。主要应用场景包括语音转文本、会议记录等。该模型适合对语音识别和转录有较高要求的场景,具有较好的开源协议和硬件兼容性。
Jackrong/Qwen3.5-27B-Claude-4.6-Opus-Reasoning-Distilled-GGUF 是一个基于 Qwen3.5 架构的推理模型,专注于结构化推理逻辑。该模型采用 CoT 技术和 Claude-4.6 Opus 的推理链进行微调,具有高效的推理效率和减少冗余认知循环的能力。模型定位为推理模型,具有 27B 参数量,支持多种语言,适用于需要复杂推理和精确解决方案的场景。性能方面,模型在相关基准测试中表现良好,具有开源协议,适合在多种硬件和推理框架上使用。
Tesslate/OmniCoder-9B是一款针对代码生成和推理的领域大模型,基于Qwen3.5-9B架构,参数量达到9B。该模型在代码生成、工具使用、终端操作和多步推理等任务上表现出色,具有强大的自恢复能力和遵循LSP诊断的能力。在AIME 2025、GPQA Diamond和Terminal-Bench 2.0等基准测试中取得了优异的成绩。模型开源,适用于需要高效代码生成和推理的场景。
Qwen3.5-35B-A3B是一款定位在通用大模型领域的LLM,具备高效的混合架构和强大的多模态学习能力。该模型具有35B的参数量,支持1M的上下文长度,采用Apache-2.0开源协议。在性能上,Qwen3.5在多个基准测试中表现出色,尤其在多模态任务上具有显著优势。其主要应用场景包括多语言处理、代码生成和视觉理解等,适合需要高性能和高效推理的应用。
HauhauCS/Qwen3.5-9B-Uncensored-HauhauCS-Aggressive 是一款通用大模型,具有9B参数和32层,支持多语言和上下文长度可扩展至1M。该模型在HuggingFace平台上具有较高下载量和点赞数,其核心能力在于无审查的文本生成,具有更强的拒绝处理能力。在性能表现上,该模型在MMLU、GPQA、IFEval等基准测试中表现良好,具有多模态支持,适用于需要无审查文本生成的场景。其开源协议为Apache-2.0,硬件需求较高,推理效率中等,与vLLM、TGI等流行推理框架兼容。
Lightricks/LTX-2.3是一款专注于图像到视频生成的基础模型,定位为多模态模型。它基于DiT架构,具有高效的音频和视频生成能力,支持多种语言和格式。该模型在HuggingFace平台上具有较高的下载量和点赞数,表明其在社区中受到认可。LTX-2.3在性能上表现出色,尤其在图像到视频转换任务上具有显著优势。其开源协议和丰富的应用场景使其在多媒体内容创作领域具有广泛应用潜力。
鱼声科技S2 Pro是一款领先的文本到语音(TTS)模型,专注于精细的韵律和情感控制。该模型采用双自回归架构,结合强化学习和超过10M+小时的音频数据训练,支持80多种语言。S2 Pro在LLM生态中定位为特定领域微调模型,具有多语言能力和指令遵循能力。其在TTS任务上表现出色,具有高效的推理性能和良好的开源协议。主要应用场景包括多语言语音合成、个性化语音助手等。
HauhauCS/Qwen3.5-35B-A3B-Uncensored-HauhauCS-Aggressive 是一个基于 Qwen3.5-35B-A3B 的开源模型,专注于图像-文本到文本的转换。该模型定位为多模态模型,具有无审查的特性,适用于需要生成丰富文本内容的应用。其核心技术包括MoE架构和Qwen3.5-35B-A3B基座模型,支持多语言,上下文长度大,参数量高。在性能上,该模型在多个基准测试中表现出色,尤其在图像-文本转换任务中具有显著优势。主要应用场景包括内容生成、图像描述等。该模型开源,硬件需求较高,推理效率中等。
Jackrong/Qwen3.5-27B-Claude-4.6-Opus-Reasoning-Distilled 是一个基于 Qwen3.5 架构的推理模型,专注于结构化推理逻辑。该模型通过从 Claude-4.6 Opus 中提取的 CoT 技术进行微调,具有高效的推理效率和减少冗余认知循环的能力。模型定位为推理模型,具有 27B 参数量,支持文本生成。在性能上,模型在推理任务上表现出色,特别适合需要复杂推理和逻辑分析的场景。开源协议为 Apache-2.0,适合在多种硬件和推理框架上使用。
Qianfan-OCR是一款由百度Qianfan团队开发的4B参数端到端文档智能模型,定位为多模态模型。其核心技术为统一的视觉-语言架构,支持直接从图像到Markdown的转换,具有文档解析、布局分析和文档理解等功能。在OmniDocBench和OlmOCR Bench等基准测试中表现出色,尤其在文档解析和OCR任务上取得了领先成绩。该模型适用于文档智能处理、信息提取等场景,具有开源协议Apache-2.0,适合在多种硬件和推理框架上使用。
RoyalCities/Foundation-1是一款专注于音乐生成的领域大模型,旨在为现代音乐制作提供结构化的文本到样本生成。该模型具有独特的音乐结构理解能力,能够生成与节奏同步、关键和感知、条形感知的样本,适用于音乐制作工作流程。其核心技术包括基于stabilityai/stable-audio-open-1.0的基座模型,并支持多种音乐生成相关标签。在性能表现上,该模型在音乐生成领域具有优势,但在通用基准测试中的排名未提及。实用考量方面,该模型的开源协议、硬件需求和推理效率等信息未明确提供。
Qwen/Qwen3.5-9B是一款通用大模型,具备9B参数,支持多模态学习。其核心技术包括多模态融合训练、高效的混合架构、可扩展的强化学习泛化能力、全球语言覆盖和下一代训练基础设施。在基准测试中表现出色,尤其在多模态理解和推理任务上。适用于需要多语言、多模态理解和高效推理的场景,如对话系统、内容生成等。
Nemotron-Cascade-2-30B-A3B是一款开源的30B MoE模型,具备强大的推理和代理能力。该模型在数学和计算机科学竞赛中表现出色,具有推理和指令遵循模式。其核心技术包括MoE架构、强大的推理能力,以及针对特定数据集的微调。在基准测试中,该模型在数学推理任务中取得了优异成绩。适用于需要高级推理能力的应用场景,如数学问题解决和代码生成。
zai-org/GLM-OCR是一款基于GLM-V架构的多模态OCR模型,专注于复杂文档理解。该模型采用多令牌预测损失和稳定的全任务强化学习,结合CogViT视觉编码器和GLM-0.5B语言解码器,实现高效训练和识别。在OmniDocBench V1.5基准测试中排名第一,适用于复杂表格、代码密集型文档等场景,支持vLLM、SGLang和Ollama等推理框架,易于集成到现有生产流程中。
这篇论文提出了Visual Chronometer,一种从视觉动态中直接恢复物理帧率(PhyFPS)的方法,以解决生成视频模型中物理运动速度的不稳定性和时间尺度的不确定性。通过控制时间重采样训练,该方法能够估计运动本身所暗示的真实时间尺度,从而提高AI生成视频的自然度。
这篇论文探讨了使用大型语言模型(LLMs)进行迭代生成优化时的挑战。作者指出,尽管生成优化在理论上很有前景,但在实践中却很脆弱,因为工程师需要做出一些隐含的设计选择,如优化器可以编辑的内容和每个更新时应提供的“正确”学习证据。通过案例研究,作者发现设计决策对生成优化的成功至关重要,但这些问题在以往的研究中很少被明确讨论。
这篇论文提出了SpectralSplats,一种通过频谱矩监督实现鲁棒可微跟踪的方法。它通过将优化目标从空间域转移到频域,解决了3D Gaussian Splatting渲染器在野外的可微性问题,即使在像素重叠完全不存在的情况下,也能确保存在有效的梯度方向。
这篇论文提出了Qworld,一种针对大型语言模型(LLMs)在开放性问题上的评估方法。Qworld通过递归扩展树生成特定于问题的评估标准,从而解决了现有方法在处理不同问题上下文依赖性时的局限性。
这篇论文提出了一种名为6Bit-Diffusion的混合精度量化框架,用于视频扩散模型。该框架通过动态分配NVFP4和INT8精度,优化了内存压缩和计算速度,同时引入了Temporal Delta Cache来减少计算成本,实现了高效的推理。
这篇论文提出了一种名为LagerNVS的神经网络,用于实时生成新视角的图像。该网络通过使用3D感知的潜在特征,结合了3D重建网络和轻量级解码器,实现了实时、高分辨率的新视角合成,且无需显式的3D重建。
这篇论文提出了一种名为TRACE的提示方法,旨在解决现有多模态大型语言模型在3D空间推理方面的困难。TRACE通过将视频输入转换为基于文本的空间表示,引导模型进行更准确的空间问答。实验表明,这种方法在多个MLLM基座上实现了显著的性能提升。
这篇论文提出了StreamingClaw,一个用于实时视频理解和具身智能的统一代理框架。它解决了当前智能体在实时推理、长期多模态记忆和主动交互方面的不足,通过集成实时推理、多模态长期记忆和主动交互等功能,使智能体能够在现实环境中持续感知、实时决策和执行动作。
这篇论文提出了EVA,一个高效的强化学习框架,用于端到端视频智能体。EVA通过迭代总结-计划-行动-反思推理,实现了对视频内容的自适应理解。论文设计了监督微调、卡尼曼-特沃斯基优化和广义奖励策略优化等学习管道,以支持稳定和可复制的训练,并在六个视频理解基准测试中取得了显著的性能提升。
这篇论文研究了PLDR-LLMs在自组织临界性预训练下的推理能力。通过分析PLDR-LLMs在临界点的推理输出,论文发现其推理输出表现出类似二阶相变的特征,并能够从训练数据集中学习到等价于缩放函数、普适类和重整化群的表示,从而实现泛化和推理能力。
UniFunc3D提出了一种统一的、无需训练的框架,通过将语义、时间和空间推理整合到一个前向传递中,实现了3D场景中功能分割的主动空间时间定位。该方法通过自适应选择视频帧并关注细节部分,同时保持全局上下文,在SceneFun3D数据集上实现了最先进的性能。
这篇论文提出了T-MAP,一种基于轨迹感知的进化搜索方法,用于对抗性测试大型语言模型(LLM)的代理。该方法通过分析执行轨迹来发现对抗性提示,能够自动生成绕过安全防护并实现有害目标的攻击。实验表明,T-MAP在攻击实现率(ARR)上显著优于基线,并且对前沿模型如GPT-5.2、Gemini-3-Pro、Qwen3.5和GLM-5有效。
这篇论文探讨了自我蒸馏技术在大型语言模型(LLM)中可能导致推理能力下降的现象。研究发现,自我蒸馏在数学推理任务中可能会缩短回答长度,同时降低性能,这归因于模型在推理过程中不确定性表达的抑制。通过控制实验,论文揭示了在教师模型上使用丰富信息会抑制不确定性表达,从而在有限的任务覆盖下实现快速领域优化,但损害了泛化性能。实验结果表明,在Qwen3-8B、DeepSeek-Distill-Qwen-7B和Olmo3-7B-Instruct上,性能下降可达40%。论文强调,适当地表达不确定性对于稳健的推理至关重要。
这篇论文提出了4DGS360,一种从单目视频中重建360°动态物体的无扩散框架。它通过先进的3D原生初始化和3D追踪器AnchorTAP3D来减少遮挡区域的几何模糊,实现了连贯的360°重建。实验表明,4DGS360在iPhone360、iPhone和DAVIS数据集上取得了最先进的性能。
这篇论文提出了UI-Voyager,一个自进化的GUI代理,通过失败经验进行学习。它采用拒绝微调和分组相对自蒸馏技术,在AndroidWorld上实现了超过人类水平的GUI自动化性能。
这篇论文提出了CUA-Suite,一个大规模的专家视频演示和密集注释的生态系统,用于计算机使用代理(CUAs)。它通过提供连续的屏幕录制、运动轨迹和多层推理注释,解决了现有数据集在视频演示方面的不足,并支持了新兴的研究方向,如通用屏幕解析、连续空间控制和基于视频的奖励建模。
这篇论文提出了一种名为PhyGenesis的世界模型,旨在生成具有高视觉保真度和物理一致性的驾驶视频。该模型通过将无效轨迹转换为物理上合理的条件,并使用物理增强的视频生成器来生成多视图驾驶视频,从而解决了现有驾驶视频生成模型在挑战性轨迹上的物理不一致性问题。
这篇论文提出了OmniWeaving,一个多模态视频生成模型,它通过强大的多模态组合和推理能力,实现了视频生成的统一框架。OmniWeaving利用大规模预训练数据集,学习将文本、多图像和视频输入进行时间绑定,同时作为智能代理来推断复杂用户意图,以创建高级视频。此外,论文还介绍了IntelligentVBench,这是第一个用于严格评估高级智能统一视频生成的全面基准。
这篇论文提出了GameplayQA,一个用于评估3D虚拟代理决策密集型POV同步多视频理解的基准框架。该框架通过密集标注多玩家3D游戏视频,并使用时间同步的、围绕自我、其他代理和世界三重系统的状态、动作和事件字幕,来评估代理中心的感知和推理能力。实验结果表明,当前的多模态LLM在时间定位、跨视频定位、代理角色归因和游戏决策密度处理方面存在显著差距。
该论文提出了一种无监督的自进化训练框架,用于多模态推理,通过采样多个推理轨迹并联合建模其内部结构,使用演员自我一致性信号作为训练先验,并引入有界法官调节,以实现推理性能的稳定提升,无需使用人工标注答案或外部奖励模型。
SPEED-Bench是一个统一且多样化的基准测试,旨在解决大型语言模型(LLM)推断中推测解码(SD)评估碎片化且不具代表性的问题。它通过引入两个专用数据集拆分和一个统一测量框架,提供了一种评估SD在不同语义领域和实际服务环境下的性能的方法。
本文介绍了KV缓存技术,这是一种优化Transformer推理效率的方法。通过缓存中间计算结果,模型可以避免重复计算,从而加快文本生成速度,提高效率。
NVIDIA发布Nemotron 3 Nano 4B,这是Nemotron 3系列中最紧凑的成员,采用混合Mamba-Transformer架构,专为边缘设备部署优化,提供高效、准确的小型语言模型,支持FP8和Q4_K_M GGUF量化,旨在降低模型大小和VRAM使用,提高吞吐量和降低延迟。
暂无摘要
暂无摘要
Cohere Labs 发布了 cohere-transcribe-03-2026,这是一个拥有20亿参数的先进语音识别模型,在 Hugging Face 上以 Apache 2.0 许可证开源。该模型专为14种企业关键语言训练,包括中文普通话,实现了最先进的准确性,并具有高效率。它在英语识别方面在 Hugging Face Open ASR 排行榜上位居第一,在其他13种语言中也表现出色。
Hugging Face 发布了其语义分块算法 semchunk 的新 AI 分块模式,该模式利用 Kanon 2 Enricher 模型,显著提高了检索增强生成 (RAG) 的准确性,特别是在法律 RAG 问答任务中。这一更新通过将非结构化文档转换为结构化的知识图谱,提取实体并分割结构元素,从而提升了 RAG 系统的性能。
本文介绍了名为“abliteration”的技术,该技术可以取消任何大型语言模型(LLM)的审查机制,使其能够响应所有类型的提示。这项技术通过修改模型权重来阻止模型拒绝请求,从而提高了模型的灵活性和响应能力。
NVIDIA近日发布了Alpamayo 1.5模型,这是一个基于推理的自动驾驶汽车(AV)的开放平台,旨在提供更强大的推理模型、灵活的仿真工具和高质量的数据集。该平台包括文本引导的轨迹规划、灵活的多摄像头支持、用户问答等功能,并支持在更广泛的驾驶数据上进行评估。
这篇公告详细介绍了小型语言模型(SLM)的概念、制作方法、优势、局限性以及在实际应用中的使用。SLM是一种轻量级的语言模型,适用于资源受限的环境,如智能手机和嵌入式系统。它们保留了核心的自然语言处理能力,同时具有低计算需求、低能耗和快速推理等优势。公告还介绍了如何使用Ollama和PocketPal等工具在边缘设备上运行SLM,以及如何通过微调来提高模型性能。
暂无摘要
NVIDIA发布了NVIDIA KGMON(NeMo Agent Toolkit)数据探索器,这是一种用于构建自主数据分析智能体的架构,旨在处理多步骤推理、工具调用和迭代数据分析。该架构在DABStep基准测试中排名第一,展示了其在复杂数据分析任务中的高效性和准确性。
NVIDIA NeMo Retriever团队发布了新一代的智能体检索管道,该管道在多个基准测试中取得了优异的成绩,展示了其在通用性、超越语义相似性检索方面的优势,并采用了ReACT架构和进程内线程安全的单例检索器,以提高速度和可扩展性。
Hugging Face 发布了 ATE-2(Armenian Text Embeddings 2)模型,这是一个用于阿姆哈拉语文本嵌入的最新模型,同时开源了用于阿姆哈拉语文本嵌入的完整生态系统,包括新的基础和大型模型、ArmBench-TextEmbed 标准化基准和底层训练数据集。该模型通过使用少量噪声合成数据展示了在低资源语言(LRLs)文本嵌入方面的突破。
这篇Hugging Face博客文章介绍了状态空间模型(SSM)的基本概念,包括其在控制理论和深度学习中的应用。文章详细解释了SSM的三个视图:连续视图、递归视图和卷积视图,并讨论了它们各自的优势和局限性。
这篇博客详细介绍了在Transformer模型中处理张量维度的重要性,包括矩阵乘法、嵌入层、位置编码、解码器层和注意力机制等关键概念,旨在帮助读者更好地理解Transformer架构。
这篇公告讨论了G2P(Graphemes to Phonemes)在语音模型中的应用,提出通过G2P预处理可以压缩语音模型,减少模型和数据的规模,从而提高效率。文章还探讨了不同类型的G2P解决方案,包括基于查找表、规则和神经网络的方案,并强调了G2P在语音模型中的重要性。
本文介绍了从GRPO到DAPO再到GSPO的强化学习技术演进,重点关注了在大型语言模型中如何优化长文本输出和复杂任务的性能。文章详细讨论了每种方法的原理、优势和局限性,并展示了如何通过改进采样、剪枝和梯度计算等细节来提高效率和稳定性。
暂无摘要
这篇论文提出了一种名为合成混合训练的新方法,通过结合合成问答和合成文档来扩展参数知识获取。这种方法利用了合成数据的互补训练信号,使得模型在合成数据量和生成器强度增加时能够实现对数线性改进,从而在QuaLITY等基准测试中超越RAG模型,实现了显著的性能提升。
这篇论文提出了一个名为“认知防火墙”的解决方案,用于保护基于浏览器的AI代理免受间接提示注入攻击。该方案采用三阶段的分计算架构,结合客户端和云端的计算资源,通过本地视觉哨兵、云端的深度规划器和执行时间政策的确定性守卫来提高安全性。实验结果表明,该方案能够显著降低攻击成功率,同时减少延迟和隐私问题。
这篇论文提出了EMoT框架,一个受真菌菌丝启发的高层次推理架构,它通过四个级别的层次结构(微观、中观、宏观、元)组织认知处理,实现了推理节点的战略休眠和重新激活,并集成了五种记忆宫殿记忆编码风格。EMoT旨在解决大型语言模型在复杂、多领域问题上的推理能力不足,通过实验证明在跨领域综合推理方面优于现有方法。
这篇论文提出了一种名为注意力不平衡校正(AIR)的方法,用于减轻大型视觉语言模型(LVLMs)中的对象幻觉问题。通过识别和校正模型在视觉和语言模态之间以及模态内部(单个标记之间)的不平衡注意力分配,该方法显著降低了对象幻觉的发生率,同时提升了模型在多种视觉语言任务上的性能。
这篇论文提出了Sparse Growing Transformer(SGT),一种在训练时通过渐进式注意力循环进行稀疏深度分配的框架。SGT通过仅在训练过程中逐步增加一小部分参数的深度,从而减少计算冗余,并在多个参数规模上优于静态块级循环的基线。
这篇论文提出了AutoProf,一个多智能体编排框架,用于自主的AI研究监督。它通过持续的研究世界模型,实现从文献综述到方法开发、评估和论文撰写的全流程监督,通过自主探索和自我修正更新,解决现有自动化研究系统缺乏持续理解和结构化分析的问题。
Composer 2 是一个针对软件工程设计的专用模型,通过预训练和强化学习,提高了长期规划和编码智能,并在真实世界编码问题中展现出强大的推理和执行能力。
这篇论文提出了OneSearch-V2,一个增强型自蒸馏生成式搜索框架,通过深度查询理解、推理内化的自蒸馏训练和偏好对齐优化系统,解决了复杂查询理解、用户意图利用和偏好拟合等问题,显著提升了搜索系统的性能。
这篇论文提出了一种基于检索增强生成(RAG)的管道,用于伊斯兰遗产分配的计算和继承人分配问题。该方法结合了规则基础的合成数据生成、混合检索(密集和BM25)以及跨编码重排序,并通过符号继承计算器生成高质量的合成语料库,以实现法律和数值一致性。实验结果表明,该系统在QIAS 2026盲测试中排名第一,证明了检索基础、模式感知的生成在阿拉伯法律推理任务中的可靠性。