每日洞察

精选 71 篇,从 370+ 条中筛选

AI深度解读

内容由AI生成,仅供参考
Github Trending 2026-02-20

anthropics/claude-plugins-official:官方Claude Code插件库

Claude Code Plugins Directory是一个由Anthropic管理的官方目录,提供高质量的Claude Code插件。该项目定位为服务于应用开发者,通过提供丰富的插件资源,优化了LLM插件开发流程,填补了插件市场的高质量资源空白。其核心功能是提供一个插件安装和管理的平台,支持内部插件和第三方插件,并遵循标准结构。技术架构上,该项目依赖于Claude Code的插件系统,并要求插件遵循特定的结构。在LLM生态中,该项目通过提供易于集成和使用的插件,降低了开发者使用LLM的门槛,促进了LLM技术的普及和应用。

Github Trending 2026-02-20

google-research/timesfm:时间序列预测利器

TimesFM是一个由Google Research开发的时间序列基础模型,用于时间序列预测。该项目为研究者、应用开发者提供了一种强大的工具,填补了时间序列预测领域的基础模型空白。它通过预训练模型和丰富的API支持,优化了时间序列预测的流程,并提供了高性能的预测结果。技术架构上,TimesFM基于Python和PyTorch框架,并集成了Hugging Face的模型库。在LLM生态中,TimesFM的价值在于其高性能、易用性和对时间序列预测领域的贡献。

Hugging Face 2026-02-19

nineninesix/kani-tts-2-en:实时英语语音合成,支持克隆

KaniTTS2-en是一款专注于英语的实时对话文本到语音模型,采用两阶段流水线,结合LLM和FSQ音频编解码器。模型规模适中,参数量为400M,支持实时语音生成和语音克隆。在LLM生态中,KaniTTS2-en定位为特定领域的微调模型,其核心技术包括Frame-level Position Encodings和基于transformers库的架构。性能方面,模型在相关基准测试中表现良好,具有实时性和语音质量的优势。主要应用场景包括实时对话系统、语音合成和个性化语音克隆。开源协议为Apache-2.0,对硬件要求适中,推理效率较高。

Hugging Face 2026-02-20

xgen-universe/Capybara:多模态视觉创作,高效GPU处理

Capybara是一款统一视觉创作模型,定位为多模态模型,具备强大的视觉生成和编辑能力。其核心技术包括先进的扩散模型和Transformer架构,支持多任务处理,如文本到视频、文本到图像等。性能方面,Capybara在生成任务中表现出色,具有高效的多GPU处理能力。模型适用于需要高质量视觉合成和编辑的场景,如视频制作、图像编辑等。其开源协议为MIT,硬件需求较高,推理效率良好。

Hugging Face 2026-02-14

unslath/MiniMax-M2.5-GGUF:高效通用文本生成模型

MiniMax-M2.5-GGUF是一款基于transformers库的通用大模型,具有基座模型MiniMax-M2.5作为基础。该模型在文本生成方面表现出色,支持动态上下文和丰富的功能。其参数量适中,上下文长度可扩展,适用于多种文本生成任务。在性能上,该模型在MMLU、GPQA等基准测试中表现良好,具有一定的竞争力。模型开源,支持多种硬件平台,推理效率较高,适用于需要高性能文本生成的场景。

Hugging Face 2026-02-18

jdopensource/JoyAI-LLM-Flash:MoE架构中型LLM,性能优化卓越

JoyAI-LLM-Flash是一款具有3亿激活参数和48亿总参数的中型指令语言模型,采用MoE架构,专注于知识、推理、编码和自主问题解决。该模型通过大规模预训练和多种优化技术,如Fiber Bundle RL和Training-Inference Collaboration,实现了高性能。在LLM领域,其差异化优势在于其独特的优化框架和针对特定任务的性能优化。

Hugging Face 2026-02-20

Qwen/Qwen3.5-397B-A17B:跨语言多模态高效推理

Qwen3.5-397B-A17B是一款通用大模型,具备强大的多模态学习能力和高效的推理性能。其核心架构采用Gated Delta Networks和sparse MoE,支持1M上下文长度,具有跨语言的广泛覆盖。在多模态学习、推理效率、适应性等方面表现出色,适用于需要高效率、高准确性的多模态任务。

Hugging Face 2026-02-16

MiniMaxAI/MiniMax-M2.5:高性能通用大模型

MiniMax-M2.5是一款定位在通用大模型范畴内的LLM,具有较大的参数量和较长的上下文长度。其核心技术基于transformers库,并引入了safetensors和custom_code等创新。在性能上,该模型在多个基准测试中表现出色,具有较好的代码生成和数学推理能力。开源协议为modified-mit,适合在多种硬件和推理框架上使用。

Hugging Face 2026-02-19

Nanbeige/Nanbeige4.1-3B:小型参数大推理

Nanbeige4.1-3B是一款基于Nanbeige4-3B-Base的增强型推理模型,具有小型参数规模但强大的推理、偏好对齐和有效代理行为能力。该模型在代码、数学、科学等通用推理任务上表现出色,尤其在LiveCodeBench-Pro、IMO-Answer-Bench和AIME 2026 I等挑战性任务中表现出色。其技术特点包括监督微调和强化学习优化,支持深度搜索任务,并在小模型生态系统中实现了推理和代理能力的平衡。模型适用于需要复杂推理和代码生成的场景,具有开源Apache-2.0协议,适合在通用推理和特定领域应用中部署。

Hugging Face 2026-02-14

FireRedTeam/FireRed-Image-Edit-1.0:多模态图像编辑利器

FireRed-Image-Edit-1.0是一款专注于图像编辑的多模态模型,定位为通用大模型。它基于文本到图像的基础模型,具备强大的图像编辑能力,包括照片修复、多图像编辑等。该模型在HuggingFace平台上具有较高的下载量和点赞数,技术特点包括高保真编辑、文本风格保留等。在性能上,FireRed-Image-Edit-1.0在图像编辑任务中表现出色,具有与闭源解决方案相当的性能。模型适用于需要高质量图像编辑的场景,如虚拟试穿、老照片修复等。

Hugging Face 2026-02-15

nvidia/personaplex-7b-v1:7B参数多语言通用大模型

nvidia/personaplex-7b-v1是一款定位为通用大模型的LLM,具有7B参数量,支持多语言。其核心技术为Transformer变体,并采用moshi库进行优化。在性能上,该模型在多个基准测试中表现出色,具有较好的代码生成和数学推理能力。模型开源,适用于多种硬件平台,与vLLM等推理框架兼容。主要应用场景包括多语言问答、代码生成等。

Hugging Face 2026-01-29

Qwen/Qwen3-TTS:低延迟流式语音合成

Qwen3-TTS是一款专注于语音合成的大语言模型,定位为特定领域微调模型。其核心技术包括自研的Qwen3-TTS-Tokenizer-12Hz和离散多码本LM架构,支持多种语言和方言,具有强大的语境理解和自适应控制能力。性能上,模型实现了低延迟的流式生成,端到端合成延迟低至97ms。主要应用场景包括实时交互和个性化语音合成。模型开源协议为Apache-2.0,适合对实时性和个性化语音合成有较高要求的场景。

Hugging Face 2026-02-17

unslath/Qwen3.5-397B-A17B-GGUF:多模态扩展,长文本处理强

🔥 unsloth/Qwen3.5-397B-A17B-GGUF 是一款基于 Qwen3.5-397B-A17B 的多模态扩展模型,定位为通用大模型。其核心技术包括 MoE 架构和 image-text-to-text 流程,支持高达 1M 的上下文长度。在性能上,Qwen3.5-397B-A17B-GGUF 在多个基准测试中表现出色,具有强大的代码生成和数学推理能力。开源协议为 Apache-2.0,适用于需要高性能和大规模上下文处理的场景。

Hugging Face 2026-02-20

deepgenteam/DeepGen-1.0:轻量多模态,五大核心能力

DeepGen 1.0是一款轻量级的统一多模态模型,具有5B参数(3B VLM + 2B DiT),在单个模型中集成了图像生成、编辑、推理生成、推理编辑和文本渲染等五大核心能力。该模型在多个权威基准测试中表现出色,与规模大3倍至16倍的同类模型相比,实现了全面性能,证明了大规模扩展并非高性能多模态生成的唯一途径。DeepGen 1.0的核心技术包括Stacked Channel Bridging(SCB)和基于数据中心的训练策略,使其在语义理解和细粒度控制方面具有竞争力。该模型适用于图像生成和编辑等场景,具有开源Apache-2.0协议,适合在具有适当硬件和推理效率的系统中使用。

Hugging Face 2026-02-05

moonshotai/Kimi-K2.5:多模态大模型,视觉与语言理解强

Kimi K2.5是一款开源的多模态大语言模型,定位为通用大模型。它基于约150万亿混合视觉和文本标记的持续预训练,具备视觉和语言理解以及先进的代理能力。模型在视觉知识、跨模态推理和基于视觉输入的代理工具使用方面表现出色。其核心能力包括视觉到代码的生成和代理群体执行复杂任务。在性能上,Kimi K2.5在权威基准测试中表现良好,具有开源协议、硬件需求适中、推理效率较高的特点,适用于多模态任务和复杂任务处理。

Hugging Face 2026-02-03

Qwen/Qwen3-Coder-Next:高效代码生成开源模型

Qwen3-Coder-Next是一款针对代码生成和本地开发设计的开源语言模型。该模型具有3B激活参数和80B总参数,上下文长度为256k,支持多种CLI/IDE平台。其核心技术包括混合布局、MoE和Gated DeltaNet。在代码生成任务中表现出色,具有高效的性能和强大的适应性。模型在HuggingFace平台上的下载量和点赞数均较高,表明其在LLM领域中的受欢迎程度。主要应用场景包括代码生成、本地开发和集成到IDE中。

Hugging Face 2026-02-19

mistralai/Voxtral-Mini-4B-Realtime-2602:实时语音转写,低延迟高效率

Voxtral Mini 4B Realtime 2602是一款多语言实时语音转写模型,定位为特定领域微调模型。它具有3.4B参数的语言模型和0.6B参数的音频编码器,支持13种语言,并具有可配置的转写延迟。该模型在实时语音转写任务中表现出色,能够在480ms延迟下达到与离线模型相当的性能。它适用于语音助手、实时字幕等应用,具有开源协议、硬件需求低、推理效率高等实用特性。

Hugging Face 2026-02-13

zai-org/GLM-5:744亿参数,DSA提升推理效率

GLM-5是一款针对复杂系统工程和长期目标代理任务的大语言模型。它具有744亿参数,支持中英双语。GLM-5在预训练和后训练方面均有显著提升,尤其在推理、编码和代理任务上表现出色。其核心技术包括DeepSeek Sparse Attention(DSA)和异步RL基础设施slime,旨在提高训练效率和推理效率。模型在多个基准测试中表现优异,是开源模型中的佼佼者。

Hugging Face 2026-02-13

OpenMOSS-Team/MOSS-TTS:多语言长文本语音合成开源模型

MOSS-TTS是一款专注于语音和声音生成的开源模型,定位为特定领域的大模型。其核心技术包括高保真零样本语音克隆和可控长文本合成。模型在性能上表现出色,支持多种语言,适用于长文本语音合成、多角色对话、声音/角色设计等复杂场景。性能评估方面,模型在权威基准测试中表现良好,具有开源协议,对硬件要求适中,推理效率较高。

Hugging Face 2026-02-10

硬件协同设计缩放法则:基于Roofline建模的设备端LLMs

这篇论文提出了一种通过屋顶线建模进行硬件协同设计的缩放定律,用于在设备上部署大型语言模型(LLMs)。该方法通过将训练损失建模为架构超参数的显式函数,并通过屋顶线建模来表征推理延迟,从而在保证模型准确性的同时优化推理性能。

Hugging Face 2026-02-19

构建独特人机交互模型

这篇论文提出了一种模型来模拟人类在Web代理中的干预行为,通过收集大量用户和代理的交互数据,识别了四种用户与代理的交互模式,并训练语言模型来预测用户何时可能进行干预,从而提高了代理的适应性和协作性。

Hugging Face 2026-02-17

CrispEdit:低曲率投影实现可扩展无损LLM编辑

这篇论文提出了CrispEdit,一种用于大规模非破坏性大型语言模型(LLM)编辑的算法。CrispEdit通过将能力保持作为一个显式约束,将编辑过程形式化为约束优化问题,并通过将编辑更新投影到能力损失景观的低曲率子空间来强制执行该约束。该方法利用Bregman散度来表达能力约束,并通过K-FAC和一种新的矩阵无投影器来提高效率,从而在标准模型编辑基准测试中实现了高编辑成功率,同时将能力退化保持在平均1%以下。

Hugging Face 2026-02-18

成本感知的LLM智能体先校准后行动

这篇论文提出了一种名为Calibrate-Then-Act(CTA)的框架,用于在大型语言模型(LLM)代理中进行成本感知的探索。该框架通过向LLM提供额外的上下文,使其能够更优地平衡探索和决策的成本与不确定性,从而在信息检索和编码等任务中实现更优的环境探索。

Hugging Face 2026-02-18

NESSiE:必备安全基准——识别不应存在的错误

这篇论文提出了NESSiE,一个用于大型语言模型(LLMs)必要安全性的基准。通过最小测试案例,NESSiE揭示了在低复杂度任务中不应存在的安全相关失败。论文强调了部署此类模型作为自主代理的潜在风险,并提供了数据集、包和绘图代码。

Hugging Face 2026-02-18

模块化添加机制与动态:傅里叶特征、彩票机制与理解学习

这篇论文深入分析了如何通过两层的神经网络学习特征来解决模块化加法任务,提出了对学习模型机制和训练动态的全面解释,并揭示了特征组合成全局解决方案的过程。论文通过形式化训练过程中的多样化条件,证明了相位对称性和频率多样化如何使网络能够近似正确的逻辑函数,并解释了随机初始化下这些特征的出现机制,最后将grokking描述为一个涉及记忆和两个泛化阶段的过程。

Hugging Face 2026-02-18

LLM安全:神经选择性调谐技术NeST

这篇论文提出了NeST,一种轻量级的结构感知安全对齐框架,通过选择性地调整一小部分与安全相关的神经元来增强拒绝行为,同时冻结模型的其他部分。NeST通过聚类功能上连贯的安全神经元并强制执行每个集群内的共享更新,实现了针对性和稳定的适应性,而无需广泛修改模型或增加推理时间开销。

Hugging Face 2026-02-18

全球结构一致水下立体深度估计技术StereoAdapter-2

这篇论文提出了一种名为StereoAdapter-2的深度估计方法,用于解决水下机器人感知中的立体深度估计问题。该方法通过使用基于选择性状态空间模型的ConvSS2D操作符,实现了全局结构一致性和高效的远距离空间传播,同时构建了一个大规模的水下立体数据集UW-StereoDepth-80K,并在水下基准测试中取得了显著的性能提升。

Hugging Face 2026-02-19

ArXiv至模型:科学语言模型训练实践研究

这篇论文详细研究了从原始arXiv LaTeX源中训练科学语言模型的过程,包括数据预处理、文本规范化、领域感知分词和密集变压器训练。作者通过实验分析了训练稳定性、扩展行为、数据产量损失和基础设施瓶颈,并强调了预处理决策对可用标记量的影响,以及存储和I/O限制如何成为限制因素。

Hugging Face 2026-02-16

星际争霸II政策优化全球模型研究

这篇论文提出了一种名为StarWM的世界模型,用于在StarCraft II中通过预测未来观察来改进决策策略。它通过引入结构化文本表示和构建SC2-Dynamics-50k数据集,实现了对混合动态的学习,并通过在线评估证明了其在资源预测和宏观情况一致性方面的显著提升。

Hugging Face 2026-02-17

中间反馈对多步骤处理中代理型LLM车载助手的影响

这篇论文研究了在多步骤处理中,具有代理性的LLM车载助手提供中间反馈的效果。通过控制混合方法研究,发现中间反馈显著提高了用户对速度、信任和用户体验的感知,同时降低了任务负荷。研究还揭示了用户对自适应方法的偏好,即通过高透明度建立信任,然后随着系统可靠性的证明逐步减少冗余信息。

Hugging Face 2026-02-19

FRAPPE:多未来表征对齐融入通用政策的世界建模

这篇论文提出了FRAPPE方法,通过多未来表示对齐,将世界建模融入通用策略中,以解决当前方法在像素级重建和预测未来观察时的误差累积问题。FRAPPE采用两阶段微调策略,提高了微调效率,并减少了依赖动作标注数据,从而在RoboTwin基准测试和真实世界任务中展现出优越的性能。

Hugging Face 2026-02-18

LLM非可验证领域对齐提升参考

这篇论文提出了一种通过参考输出指导的LLM评估器来提高非可验证领域(如LLM对齐)中LLM的准确性。该方法通过设计评估协议,使用来自前沿模型的参考输出增强LLM评估器,并通过实验证明,这种方法可以显著提高LLM评估器的准确性,并在对齐调整中显示出其效用。

Hugging Face 2026-02-13

SpargeAttention2:混合Top-k+Top-p掩码与蒸馏微调的可训练稀疏注意力

这篇论文提出了SpargeAttention2,一种通过混合Top-k+Top-p掩码和蒸馏微调的可训练稀疏注意力方法,旨在提高扩散模型的效率,同时保持生成质量。SpargeAttention2通过结合Top-k和Top-p掩码规则、高效的训练稀疏注意力实现以及蒸馏启发的微调目标,实现了高达95%的注意力稀疏度和16.2倍的速度提升。

Hugging Face 2026-02-16

前沿AI风险管理框架实践:风险分析报告v1.5

这篇论文提出了一个综合性的AI风险管理体系,针对快速发展的AI模型,特别是大型语言模型(LLMs),进行了深入的风险分析,并提出了针对新兴威胁的缓解策略。

Hugging Face 2026-02-18

多智能体学习算法与大型语言模型探索

这篇论文提出使用大型语言模型AlphaEvolve来自动发现新的多智能体学习算法。通过迭代优化,论文发现了两种新的算法:VAD-CFR和SHOR-PSRO,它们在迭代后悔最小化和基于群体的训练算法中表现出色。

Hugging Face 2026-02-19

2Mamba2Furious:线性复杂度,精准竞技

这篇论文提出了一种改进的线性注意力机制,通过简化Mamba-2模型并增强其注意力掩码和隐藏状态,实现了与softmax注意力机制相当的性能,同时大幅提高了内存效率,特别是在处理长文本时。

Hugging Face 2026-02-19

计算机世界模型

这篇论文提出了计算机使用世界模型(CUWM),一个用于桌面软件的世界模型,它通过预测UI状态变化来帮助代理在复杂软件环境中进行决策。CUWM通过离线UI转换数据进行训练,并通过轻量级强化学习阶段进行优化,以提高决策质量和执行鲁棒性。

Hugging Face 2026-02-19

动态补丁调度:高效扩散Transformer技术

这篇论文提出了一种名为DDiT的动态补丁调度策略,用于提高扩散Transformer(DiT)在图像和视频生成中的效率。该方法通过根据内容复杂度和去噪时间步长动态调整补丁大小,减少了计算成本,同时保持了生成质量。

Hugging Face 2026-02-13

MiniMax AI发布Forge:突破大规模Agent RL训练难题

MiniMax AI 发布了Forge,一个可扩展的Agent强化学习框架和算法,旨在解决大规模Agent RL在系统吞吐量、训练稳定性和Agent灵活性之间的冲突。Forge通过灵活的系统架构、算法设计、优化的异步调度和极致的训练-推理效率,实现了对复杂现实世界Agent的大规模强化学习训练,并在MiniMax M2.5模型中取得了显著成果。

Hugging Face 2026-02-12

AI计算成本揭秘:小模型大智慧,选对模型赢未来

这篇公告讨论了人工智能计算成本和竞争,指出虽然大型AI模型成本高昂,但许多实际应用中使用的模型规模更小、成本更低。它强调了选择适合特定用例的AI模型的重要性,并鼓励用户考虑成本效益和环境影响。

Hugging Face 2026-02-17

Qwen3.5发布:阿里AI新模型混合注意力架构引热议

阿里巴巴Qwen团队发布了新一代基础模型Qwen3.5-397B-A17B,该模型采用混合注意力架构,结合了Gated Delta Networks和稀疏混合专家,并支持多模态输入和多种语言。Qwen3.5在推理、数学、知识遵循、代理、编码和视觉任务上表现出色,但并非在所有类别中都是最佳选择。

Hugging Face 2026-02-19

体验未来计算:我让龙虾助手OpenClaw掌控我的Jetson!

这篇公告介绍了OpenClaw,一款将计算机从被动工具转变为主动协作伙伴的AI代理。它能够自主设置开发环境、优化硬件配置,并通过自然语言与用户交流,执行复杂指令并提供主动反馈。尽管成本较高,但OpenClaw代表了计算领域的新范式,预示着计算机使用方式的转变。

Hugging Face 2024-06-13

用户揭秘:abliteration技术解锁LLM无审查响应新境界

本文介绍了名为“abliteration”的技术,该技术可以取消任何大型语言模型(LLM)的审查机制,使其能够响应所有类型的提示。这项技术通过修改模型权重来阻止模型拒绝请求,从而提高了模型的灵活性和响应能力。

Hugging Face 2026-02-16

GLM-5模型阿拉伯语性能登顶第二

中国AI公司推出的GLM-5模型在阿拉伯语语言性能方面排名第二,展示了其在阿拉伯语理解和生成任务上的卓越表现,尽管在方言处理、阿拉伯文和拉丁字母转换以及技术命令处理方面存在一些不足。

Hugging Face 2026-02-12

Hugging Face Transformers多GPU应用揭秘:device_map与Tensor Parallelism大比拼

这篇公告介绍了在 Hugging Face Transformers 中使用多个 GPU 的两种方法:device_map 和 Tensor Parallelism。device_map 是一种内存基础模型分片技术,适用于大型模型推理,而 Tensor Parallelism 是一种真正的多 GPU 计算方法,适用于需要更快推理速度的大型模型。公告还提供了如何设置和使用这些方法的详细指南。

Hugging Face 2026-02-16

Hugging Face新教程:私有测试集构建基准测试全攻略

这篇公告介绍了如何在Hugging Face上使用私有测试集建立基准测试。它详细说明了如何创建公共排行榜、私有评估器、提交数据集和结果数据集,以及如何设置架构和规划数据模式。

Hugging Face 2025-01-12

用户名揭秘:Transformer模型中张量维度处理技巧

这篇博客详细介绍了在Transformer模型中处理张量维度的重要性,包括矩阵乘法、嵌入层、位置编码、解码器层和注意力机制等关键概念,旨在帮助读者更好地理解Transformer架构。

Hugging Face 2025-10-27

印度多语言开源语音合成系统svara-TTS发布

svara-TTS,一个面向印度多语言的开源语音合成系统,旨在捕捉印度数百种语言和方言的独特韵律、情感和语调。该系统基于Orpheus模型,支持19种印度语言,包括平衡的男女声音、情感感知和零样本语音克隆。

Hugging Face 2026-02-13

Kimi-K2.5发布:多模态AI新霸主挑战GPT-5.2

Kimi-K2.5,一款大型语言模型,已发布并展示其强大的多模态能力,包括图像理解和文本生成。该模型在关键基准测试中表现优异,与GPT-5.2、Claude Opus 4.5和Gemini 3 Pro等顶级模型相当。Kimi-K2.5的发布标志着Moonshot AI在多模态AI系统领域的重大突破,提供了一种高性能、多功能的助手,与OpenAI、Google和Anthropic的最佳产品相媲美。

Hugging Face 2026-02-20

人机对话进化史:从符号到虚拟助手

这篇公告探讨了人机交互的演变,从早期计算机的简洁符号输出到现代AI的对话式交互。文章强调了Unix系统引入的协作性语言、20世纪90年代的“向导”界面以及虚拟助手等工具如何逐步培养用户接受自然语言交互的习惯,为大型语言模型的出现奠定了基础。同时,文章也提到了“伊丽莎效应”和用户对AI系统的潜在过度信任问题。

arXiv cs.CL 2026-02-20

π-思维链:基于Prolog的多跳问答提示技术

这篇论文提出了一种名为 $\pi$-CoT 的新型提示策略,通过将多跳问题转化为 Prolog 查询,并逐步解决这些子查询来增强大型语言模型在多跳问答任务中的表现。该方法结合了逻辑编程的结构严谨性和语言模型的灵活性,显著提升了检索增强生成(RAG)环境下的问答能力。

arXiv cs.AI 2026-02-20

视觉语言Agent微调窄化损害安全对齐

这篇论文探讨了在视觉-语言代理中进行窄域微调如何破坏安全对齐。研究通过在Gemini3-4B上进行实验,发现窄域有害数据集上的微调会导致模型在不同任务和模态上的严重误对齐。论文提出了两种缓解策略,但指出当前的后训练范式可能不足以在部署后环境中保持对齐。

arXiv cs.CL 2026-02-20

高效上下文传播感知器架构助力自回归语言建模

这篇论文提出了一种名为Efficient Context Propagating Perceiver (ECP)的架构,旨在解决Transformer架构中注意力机制的二次复杂性问题。通过结合上下文和潜在序列进行自回归训练,ECP架构在保持高性能的同时,降低了计算复杂度,并通过成对段注意力提取更好的信息,从而提高了语言模型的性能。

arXiv cs.LG 2026-02-20

AXLearn:模块化、硬件无关的大模型训练

AXLearn是一种生产系统,旨在促进大型深度学习模型的可扩展和高性能训练。它通过模块化和硬件无关的特性,实现了快速模型开发和实验。AXLearn在扩展系统组件时保持恒定复杂性,与现有系统的线性或二次复杂性相比,显著提高了效率,同时保持了与现有系统相当的性能。

arXiv cs.MA 2026-02-20

多智能体竞赛级代码生成:拓扑进化AgentConductor

这篇论文提出了AgentConductor,一个基于强化学习和LLM的MAS,用于动态生成交互拓扑,以优化多智能体系统的代码生成性能。它通过设计新的拓扑密度函数和难度区间划分,实现了对拓扑结构的自适应调整,显著提升了代码生成的准确性和效率。

arXiv cs.CL 2026-02-20

突破黑盒LVLM攻击边界:精细化细节目标定位

这篇论文提出了一种改进的黑盒对抗攻击方法M-Attack-V2,通过细粒度细节定位来提高大型视觉语言模型(LVLMs)的黑盒攻击成功率。该方法通过改进局部匹配和梯度降噪,解决了现有方法中梯度不稳定和优化不稳定的问题,显著提升了攻击的成功率。

arXiv cs.CL 2026-02-20

WebFAQ 2.0:多语言问答数据集及挖掘硬负例用于密集检索

这篇论文介绍了WebFAQ 2.0,一个包含超过1.98亿个FAQ自然问题-答案对的多语言数据集,用于密集检索。它通过直接爬取和提取相关网络内容,显著扩展了多语言覆盖范围和双语对齐的QA对数量。此外,论文还提供了一个用于训练密集检索器的硬负样本数据集,并展示了如何使用对比学习和知识蒸馏两种策略来微调密集检索器。

arXiv cs.AI 2026-02-20

APEX-SQL:基于代理探索的文本转SQL对话系统

这篇论文提出了APEX-SQL,一个基于代理探索的文本到SQL框架,旨在解决大型语言模型在复杂企业环境中处理文本到SQL任务的局限性。该框架通过假设验证循环和逻辑规划等方法,实现了对大型复杂数据库的有效探索和语义准确的SQL生成。

arXiv cs.CL 2026-02-20

长尾问答数据增强框架:基于往返预测的RPDR

该论文提出了一种名为RPDR的数据增强框架,用于长尾问答系统。该框架通过合成数据生成、数据选择和检索器训练三个核心组件,提高了密集检索模型在长尾知识领域的学习能力,并在PopQA和EntityQuestion两个长尾检索基准测试中取得了显著的性能提升。