Hugging Face
2026-02-05
Schematron-3B是一款专注于HTML到JSON转换的领域大模型,采用meta-llama/Llama-3.2-3B-Instruct作为基座模型。其核心能力在于将噪声HTML转换为符合自定义模式的严格JSON,适用于网络抓取和数据导入。模型在HTML到JSON转换质量上表现出色,具有长上下文处理能力。性能上,Schematron-3B在Gemini 2.5 Pro基准测试中取得了4.41的分数,优于Gemini-3B-Base。模型适用于需要结构化数据处理的场景,如网络爬虫和数据导入系统。
Hugging Face
2026-02-13
Ring-2.5-1T是一款开源的通用大模型,具有混合线性注意力架构,参数量达到万亿级别。该模型在生成效率、深度思考和长期任务执行能力方面表现出色,尤其在数学和代码生成任务上具有显著优势。其在MMLU、GPQA等基准测试中取得了优异成绩,适用于需要深度推理和复杂任务执行的场景。
Hugging Face
2026-02-02
MOVA-360p是一款多模态模型,定位为通用大模型,具有强大的视频和音频生成能力。其核心技术包括不对称双塔架构和双向交叉注意力机制,采用MoE设计,参数量达到32B。在性能上,MOVA在唇同步和音效方面表现优异,并在开源模型中处于领先地位。该模型适用于需要高质量视频和音频同步生成的场景,具有开源协议、高效的推理性能和良好的兼容性。
Hugging Face
2026-02-12
Ming-flash-omni 2.0 是一款通用大模型,采用 LLM 架构,具有 100B 总参数和 6B 活跃参数。其核心技术为 MoE 框架,具备多模态认知能力,尤其在视觉知识、语音合成和图像生成方面表现优异。该模型在多个基准测试中取得了 SOTA 成绩,适用于多模态理解和合成任务。开源协议为 MIT,硬件需求较高,推理效率良好。
Hugging Face
2026-02-05
Kimi K2.5是一款开源的多模态大语言模型,定位为通用大模型。它基于约150万亿混合视觉和文本标记的持续预训练,具备视觉和语言理解以及先进的代理能力。模型在视觉知识、跨模态推理和基于视觉输入的代理工具使用方面表现出色。其核心能力包括视觉到代码的生成和代理群体执行复杂任务。在性能上,Kimi K2.5在权威基准测试中表现良好,具有开源协议、硬件需求适中、推理效率较高的特点,适用于多模态任务和复杂任务处理。
Hugging Face
2026-02-01
Anima模型定位为特定领域微调模型,专注于动漫风格的艺术图像生成。其核心技术为基于扩散模型的单文件库,参数量为20亿。模型在动漫风格图像生成方面表现出色,但未公开权威基准测试结果。主要应用场景为动漫艺术创作,使用时需考虑开源协议和硬件需求。
Hugging Face
2026-02-13
Step 3.5 Flash是一款高效的开源基础模型,定位于通用大模型领域。它采用稀疏混合专家(MoE)架构,参数量196B,上下文长度未指定。该模型在推理速度和代码生成方面表现出色,通过3-way Multi-Token Prediction(MTP-3)技术,实现了100-300 tok/s的生成吞吐量。在SWE-bench和Terminal-Bench 2.0基准测试中分别取得了74.4%和51.0%的优异成绩。模型开源协议为Apache 2.0,适用于需要快速推理和代码生成的场景。
Hugging Face
2026-02-09
zai-org/GLM-OCR是一款基于GLM-V架构的多模态OCR模型,专注于复杂文档理解。该模型采用多令牌预测损失和稳定的全任务强化学习,结合CogViT视觉编码器和GLM-0.5B语言解码器,实现高效训练和识别。在OmniDocBench V1.5基准测试中排名第一,适用于复杂表格、代码密集型文档等场景,支持vLLM、SGLang和Ollama等推理框架,易于集成到现有生产流程中。
Hugging Face
2026-02-03
Qwen3-Coder-Next是一款针对代码生成和本地开发设计的开源语言模型。该模型具有3B激活参数和80B总参数,上下文长度为256k,支持多种CLI/IDE平台。其核心技术包括混合布局、MoE和Gated DeltaNet。在代码生成任务中表现出色,具有高效的性能和强大的适应性。模型在HuggingFace平台上的下载量和点赞数均较高,表明其在LLM领域中的受欢迎程度。主要应用场景包括代码生成、本地开发和集成到IDE中。
Hugging Face
2026-02-03
ACE-Step/Ace-Step1.5是一款针对音乐生成领域的开源模型,定位为多模态模型。其核心技术为结合语言模型和扩散模型,支持从简短循环到10分钟长曲的创作。该模型在训练数据上具有商业合规性,支持多种风格的音乐生成,且在消费级硬件上运行高效。在性能上,ACE-Step/Ace-Step1.5在音乐生成速度上表现出色,能够在短时间内生成完整的歌曲。主要应用场景包括音乐创作、音频编辑等。
Hugging Face
2026-02-13
MiniCPM-o 4.5是一款多模态大语言模型,定位为通用大模型。该模型基于SigLip2、Whisper-medium、CosyVoice2和Qwen3-8B构建,参数量达9B。它在视觉、语音和全双工多模态直播方面表现出色,支持双语实时语音对话和全双工直播功能。性能上,MiniCPM-o 4.5在OpenCompass等基准测试中表现出色,超越了GPT-4o等模型。该模型适用于需要多模态交互和实时处理的场景,如直播互动、多语言对话等。
Hugging Face
2026-02-13
Qwen3-Coder-Next是一款针对代码生成和本地开发设计的开源语言模型,具有高效的性能和先进的代理能力。该模型采用3B激活参数,性能可与参数量多10-20倍的模型相媲美,适用于代理部署。它具备长距离推理、复杂工具使用和恢复能力,适用于代码生成、数学推理等任务。模型基于transformers库,支持2-bit XL量化,对硬件要求较高。在LLM领域,Qwen3-Coder-Next以其高效的代码生成能力和先进的代理技术脱颖而出。
Hugging Face
2026-02-13
Voxtral Mini 4B Realtime 2602是一款多语言实时语音转写模型,定位为特定领域微调模型。它具有3.4B参数的语言模型和0.6B参数的音频编码器,支持13种语言,并具有可配置的转写延迟。该模型在实时语音转写任务中表现出色,能够在480ms延迟下达到与离线模型相当的性能。它适用于语音助手、实时字幕等应用,具有开源协议、硬件需求低、推理效率高等实用特性。
Hugging Face
2025-12-12
VulnLLM-R-7B是一款专注于软件漏洞检测的推理型大型语言模型。该模型具有7B参数,采用Qwen/Qwen2.5-7B-Instruct作为基座模型,通过推理能力分析代码中的漏洞。它在多个基准测试中表现出色,优于商业模型和行业标准工具。VulnLLM-R-7B适用于代码安全审计和漏洞检测,具有高效、准确和覆盖面广的特点。
Hugging Face
2026-02-11
MiniCPM-SALA是一款大型混合模型,定位为通用大模型,具有创新性的混合架构,结合了稀疏和线性注意力机制,实现了百万级别上下文建模。其核心技术为稀疏注意力与线性注意力混合架构,上下文长度可达百万以上,参数量适中。在性能上,MiniCPM-SALA在基准测试中表现出色,具有高效的推理速度和较低的内存占用。主要应用场景包括文本生成、对话系统等,适合对上下文长度有较高要求的任务。其开源协议为Apache-2.0,硬件需求适中,与主流推理框架兼容。
Hugging Face
2026-02-13
GLM-5是一款针对复杂系统工程和长期目标代理任务的大语言模型。它具有744亿参数,支持中英双语。GLM-5在预训练和后训练方面均有显著提升,尤其在推理、编码和代理任务上表现出色。其核心技术包括DeepSeek Sparse Attention(DSA)和异步RL基础设施slime,旨在提高训练效率和推理效率。模型在多个基准测试中表现优异,是开源模型中的佼佼者。
Hugging Face
2026-02-12
🔥 unsloth/GLM-5-GGUF是一款通用大模型,具有744亿参数,支持中英双语。其基于Transformer架构,采用MoE和DSA技术,上下文长度可达200K。在MMLU、GPQA等基准测试中表现优异。适用于复杂系统工程和长周期智能任务,具有开源协议、高效推理等实用特性。
Hugging Face
2026-02-13
MOSS-TTS是一款专注于语音和声音生成的开源模型,定位为特定领域的大模型。其核心技术包括高保真零样本语音克隆和可控长文本合成。模型在性能上表现出色,支持多种语言,适用于长文本语音合成、多角色对话、声音/角色设计等复杂场景。性能评估方面,模型在权威基准测试中表现良好,具有开源协议,对硬件要求适中,推理效率较高。
Hugging Face
2026-02-14
MiniMax-M2.5是一款定位在通用大模型范畴内的LLM,具有较大的参数量和较长的上下文长度。其核心技术基于transformers库,并引入了safetensors和custom_code等创新。在性能上,该模型在多个基准测试中表现出色,具有较好的代码生成和数学推理能力。开源协议为modified-mit,适合在多种硬件和推理框架上使用。
Hugging Face
2026-02-13
Nanbeige4.1-3B是一款基于Nanbeige4-3B-Base的增强型推理模型,具有小型参数规模但强大的推理、偏好对齐和有效代理行为能力。该模型在代码、数学、科学等通用推理任务上表现出色,尤其在LiveCodeBench-Pro、IMO-Answer-Bench和AIME 2026 I等挑战性任务中表现出色。其技术特点包括监督微调和强化学习优化,支持深度搜索任务,并在小模型生态系统中实现了推理和代理能力的平衡。模型适用于需要复杂推理和代码生成的场景,具有开源Apache-2.0协议,适合在通用推理和特定领域应用中部署。
Hugging Face
2026-02-08
这篇论文提出了MemFly,一个基于信息瓶颈原理的框架,用于在大型语言模型(LLM)中实现即时内存优化。MemFly通过最小化压缩熵并最大化相关性熵来构建分层内存结构,同时采用混合检索机制以处理复杂的跨跳查询,显著提升了内存的连贯性、响应准确性和准确性。
Hugging Face
2026-02-12
这篇论文重新审视了单减树级n胶子散射振幅,发现它们在某些“半共线”配置下不为零,并推导出一个分段常数封闭形式的表达式,描述单个减自旋胶子衰变为n-1个加自旋胶子的过程,满足多个一致性条件,包括Weinberg的软定理。
Hugging Face
2026-02-10
这篇论文提出了Stemphonic,一个基于扩散/流的框架,用于多声部音乐生成。它能够一次性生成多个同步的声部,克服了现有方法中固定架构或逐个生成声部的限制,显著提高了生成效率和音质。
Hugging Face
2026-02-05
这篇论文提出了一种名为SparseVideoNav的新方法,通过生成稀疏视频来推进超越视界的视觉语言导航。该方法利用视频生成模型的长时监督能力,实现了在未知环境中仅通过简单意图导航到远处目标,显著提高了导航任务的效率和成功率。
Hugging Face
2026-02-10
这篇论文提出了EgoHumanoid框架,通过结合大量的人类自视角演示和有限的机器人数据,实现了人形机器人在真实世界环境中进行移动操作。该框架通过硬件设计到数据处理的全系统对齐管道,解决了人类与机器人之间的具身差距,并通过实验证明,使用无机器人自视角数据显著优于仅使用机器人数据的基线,特别是在未见过的环境中。
Hugging Face
2026-02-12
这篇论文提出了一种针对电子商务领域的大规模视觉-语言模型(VLM)的定制化适应方法,通过大规模实验证明,这种方法可以在保持通用多模态能力的同时,显著提升电子商务性能,并引入了一个新的评估套件,涵盖深度产品理解、严格指令遵循和动态属性提取。
Hugging Face
2026-02-09
这篇论文提出了一种名为 χ_{0} 的资源感知鲁棒操作框架,旨在通过解决人类演示分布、策略学习归纳偏差和测试时执行分布之间的分布不一致性,来提高机器人操作的鲁棒性。该框架通过模型算术、阶段优势和训练部署对齐三个技术支柱,实现了高效的数据利用和长期任务的高可靠性。
Hugging Face
2026-02-12
这篇论文提出了ExStrucTiny,一个用于从文档图像中进行结构化信息提取的新基准数据集。该数据集旨在解决现有数据集在实体类型、查询复杂性和文档类型上的局限性,通过结合人工和合成样本,提供多样化的文档类型和提取场景,以评估和改进通用视觉语言模型在结构化信息提取方面的能力。
Hugging Face
2026-02-12
该论文提出了一种名为Composition-RL的方法,通过将多个问题组合成新的可验证问题,以利用有限的验证性提示,从而提高大型语言模型在强化学习中的推理能力。该方法通过逐步增加组合深度,进一步提升了性能,并支持跨领域强化学习。
Hugging Face
2026-02-11
这篇论文提出了一种名为RISE的机器人强化学习框架,通过组合世界模型和想象中的模拟来提高机器人在动态任务中的鲁棒性。该框架使用可控动力学模型预测多视角的未来,并使用进度价值模型评估想象中的结果,从而在不需要昂贵物理交互的情况下,通过想象中的模拟不断生成、估计优势并更新策略。
Hugging Face
2026-02-12
这篇论文提出了一种名为“Thinking with Drafting”的方法,通过逻辑重构实现视觉输入的光学解压缩,旨在解决现有多模态大型语言模型在复杂推理任务中的精度悖论。该方法使用一种最小化的领域特定语言(DSL)作为中间表示,迫使模型将心理模型转化为可执行代码,从而提供确定性的视觉证明进行自我验证。
Hugging Face
2026-02-11
这篇论文提出了MetaphorStar,一个基于端到端视觉强化学习的图像隐喻理解和推理框架。该框架通过精细粒度的数据集、视觉强化学习方法以及结构化的基准测试,显著提升了图像隐喻任务的表现,特别是在复杂视觉推理能力上。
Hugging Face
2026-02-12
这篇论文提出了一种名为Min-kNN Distance的新方法,用于检测强化学习与可验证奖励(RLVR)训练数据。该方法通过分析训练过程中遇到的提示词,发现RLVR训练导致生成的文本更加严格和相似,而未见过的提示词则保持更多样性。实验表明,Min-kNN Distance能够可靠地区分已见和未见示例,并优于现有的成员推理和强化学习污染检测基线。
Hugging Face
2026-02-12
这篇论文提出了P-GenRM,一个个性化的生成式奖励模型,通过测试时基于用户的缩放机制,解决了在开放场景中获取准确用户特定奖励信号的问题。P-GenRM通过将偏好信号转换为结构化的评估链,实现自适应的角色和评分标准,同时通过用户原型聚类和双重粒度缩放机制,提高了对未见用户的泛化能力。
Hugging Face
2026-02-12
这篇论文提出了DeepSight,一个综合性的大型语言模型(LLM)安全工具包,旨在解决当前LLMs和MLLMs在安全评估、诊断和对齐方面的不足。DeepSight通过整合评估和诊断工具,实现了从黑盒到白盒的安全洞察,并支持前沿的AI风险评估。
Hugging Face
2026-02-12
这篇论文提出了一种名为Length-Incentivized Exploration的方法,通过长度激励和冗余惩罚来鼓励模型进行更深入的上下文探索,从而提高模型在测试时的扩展能力。该方法通过解决自动回归生成中序列采样概率的指数衰减问题,实现了更广泛的状态覆盖,并在不同模型上取得了显著的性能提升。
Hugging Face
2026-02-12
DeepGen 1.0 是一种轻量级的统一多模态模型,通过引入堆叠通道桥接(SCB)框架和基于奖励函数的强化学习,实现了高效的图像生成和编辑,同时保持了低训练成本和部署足迹。
Hugging Face
2026-02-09
这篇论文提出了NarraScore,一个基于情感控制的分层框架,用于将视觉叙事和音乐动态相结合。该框架利用预训练的视觉语言模型(VLM)作为情感传感器,将视觉信息转化为情感轨迹,并通过双分支注入策略实现全局结构和局部动态的协调,从而为长视频生成连贯的配乐。
Hugging Face
2026-02-12
这篇论文提出了一种名为T3D的少步骤扩散语言模型,通过轨迹自蒸馏和直接判别优化来提高少步骤解码的效率。该方法通过蒸馏模型自身的生成轨迹,结合直接判别优化,在有限的步骤预算下,显著提升了文本生成的质量。
Hugging Face
2026-02-09
这篇论文提出了PISCO,一种用于精确视频实例插入的视频扩散模型,通过稀疏的关键帧控制实现精确的时空定位、物理一致的场景交互和原始动态的忠实保存。PISCO通过变量信息指导和分布保持时间掩码等技术,解决了预训练视频扩散模型中稀疏条件引起的分布偏移问题,并通过PISCO-Bench基准测试展示了其在稀疏控制下的优越性能。