skt/A.X-K1:混合专家架构,高效推理数学模型
A.X K1是一款定位为通用大模型的混合专家语言模型,拥有519亿参数,其中33亿为活跃参数。其核心技术为混合专家架构,支持深度推理与低延迟响应的灵活切换。在性能上,A.X K1在MMLU、GPQA等基准测试中表现出色,具有高效推理和强大的数学推理能力。适用于需要复杂推理和指令遵循的场景,如代码生成和数学问题解决。开源协议为Apache-2.0,适合在多种硬件和推理框架上使用。
精选 9 篇,从 11000+ 条中筛选
A.X K1是一款定位为通用大模型的混合专家语言模型,拥有519亿参数,其中33亿为活跃参数。其核心技术为混合专家架构,支持深度推理与低延迟响应的灵活切换。在性能上,A.X K1在MMLU、GPQA等基准测试中表现出色,具有高效推理和强大的数学推理能力。适用于需要复杂推理和指令遵循的场景,如代码生成和数学问题解决。开源协议为Apache-2.0,适合在多种硬件和推理框架上使用。
HyperCLOVA X SEED 32B Think 是一款基于Transformer架构的多模态推理模型,定位为多模态模型。该模型具有32B的参数量,支持长达128K的上下文长度,并具备深度推理能力。它在多个基准测试中表现出色,尤其在视觉理解和代理任务方面。该模型适用于需要多模态理解和深度推理的场景,如文本生成、图像理解等。
Tongyi-MAI/MAI-UI-8B是一款面向现实世界应用的基础GUI代理模型,具有2B至235B-A22B不同规模变体。该模型通过自进化的数据管道、设备-云协作系统和在线强化学习框架,实现了GUI接地和移动导航的新突破。在ScreenSpot-Pro、MMBench GUI L2等基准测试中达到领先水平,适用于需要高精度GUI交互和导航的场景。
Wuli-art/Qwen-Image-2512-Turbo-LoRA是一款针对Qwen Image 2512的4或8步turbo LoRA模型,旨在提供快速且高质量的图像生成。该模型定位为多模态模型,具有快速推理和优化图像生成的特点。其核心技术包括LoRA和distillation技术,显著提高了生成速度。性能方面,模型在图像生成任务上表现出色,但未提供具体的基准测试结果。主要应用场景为图像生成和创意设计,使用时需考虑其开源协议和硬件需求。
这篇论文提出了一种名为ClinicalReTrial的自进化AI代理框架,用于临床试验方案的优化。该框架通过将临床试验推理视为迭代协议重设计问题,结合故障诊断、安全感知修改和候选评估,在一个闭环、奖励驱动的优化框架中实现。ClinicalReTrial通过模拟环境提供低成本评估协议修改,并通过维护层次化记忆来支持高效的探索。
这篇论文通过比较DistilBERT、MiniLM和ALBERT三种轻量级Transformer模型在多领域企业自然语言处理任务中的效率,分析了不同模型在不同任务上的表现,并探讨了准确性与效率之间的权衡。
这篇论文提出了一种名为Defensive M2S的训练范式,通过在压缩的多轮对话上微调安全护栏模型,以降低大型语言模型部署的计算成本。该方法通过将多轮对话压缩为单轮对话,显著减少了训练和推理所需的token数量,同时保持了攻击检测的准确性。
这篇论文介绍了LG AI Research开发的EXAONE 3.0指令微调语言模型,这是LLM家族中的第一个开源模型。论文重点介绍了7.8B指令微调模型,并通过广泛的基准测试证明了其在遵循指令方面的竞争力,特别是在韩语处理和复杂推理任务上的卓越表现。
这篇论文提出了一种新的基准测试方法JourneyBench,用于评估客户支持中的大型语言模型(LLM)代理在遵循业务规则和现实支持工作流程方面的能力。通过引入用户旅程覆盖分数这一新指标,论文评估了静态提示代理(SPA)和动态提示代理(DPA)在多个领域中的表现,发现DPA显著提高了策略遵循性。