MiniMaxAI/MiniMax-M2.1:通用大模型,FP8高精度,多能高效推理
MiniMax-M2.1是一款定位在通用大模型范畴内的LLM,具有高性能和丰富的功能。它基于transformers库,采用自定义的架构,支持FP8精度,上下文长度可达200K。在性能上,该模型在多个基准测试中表现出色,具有代码生成、数学推理等多方面的能力。开源协议为modified MIT,适合在多种硬件和推理框架上使用。
精选 9 篇,从 12900+ 条中筛选
MiniMax-M2.1是一款定位在通用大模型范畴内的LLM,具有高性能和丰富的功能。它基于transformers库,采用自定义的架构,支持FP8精度,上下文长度可达200K。在性能上,该模型在多个基准测试中表现出色,具有代码生成、数学推理等多方面的能力。开源协议为modified MIT,适合在多种硬件和推理框架上使用。
LiquidAI/LFM2-2.6B-Exp 是一款专注于指令遵循、知识和数学的实验性模型,基于 LFM2-2.6B 构建,采用纯强化学习训练。该模型在特定领域表现出色,尤其在指令遵循方面超越了大模型 DeepSeek R1-0528。模型适用于数据提取、RAG、创意写作和多轮对话等任务,但不宜用于知识密集型或编程技能要求高的任务。该模型具有较小的参数量和上下文长度,适合在窄用例上进行微调。
这篇论文介绍了Erkang-Diagnosis-1.1模型,这是一个基于Alibaba Qwen-3模型的AI医疗咨询助手。该模型整合了约500GB的高质量结构化医学知识,采用混合方法结合增强预训练和检索增强生成,以创建一个安全、可靠且专业的AI健康顾问。通过3-5轮高效的交互,Erkang Diagnosis能够准确理解用户症状,进行初步分析,并提供有价值的诊断建议和健康指导。
这篇论文提出了一种结合了SHAP可解释性和多模态LLM驱动的迭代优化的Agentic XAI框架,用于生成更详细的解释。该框架在农业推荐系统中进行了测试,通过11轮迭代优化,显著提高了推荐质量,但同时也揭示了过度优化的风险。
这篇论文提出了Memory Bear系统,该系统通过构建基于认知科学原理的人类化记忆架构,解决了大型语言模型在记忆方面的局限性,如上下文窗口限制、长期知识遗忘、冗余信息积累和幻觉生成。Memory Bear通过整合多模态信息感知、动态记忆维护和自适应认知服务,实现了LLM记忆机制的全面重建,并在医疗保健、企业运营和教育等领域展示了显著的工程创新和性能突破。
这篇论文提出了一种名为TGC-Net的文本引导医学图像分割框架,该框架通过结合临床报告作为辅助信息,提高了分割精度。它解决了现有方法中图像和文本编码器未对齐、复杂临床描述建模不足以及领域特定语义错位等问题,通过引入语义-结构协同编码器、领域增强文本编码器和视觉-语言校准模块,实现了参数高效的特定任务适应。
这篇论文提出了AIAuditTrack(AAT),一个基于区块链的框架,用于记录和治理AI使用流量。AAT利用去中心化身份(DID)和可验证凭证(VC)来建立可信的AI实体,并在链上记录实体间的交互轨迹,以实现跨系统监督和审计。该框架通过动态交互图模型和风险扩散算法,追踪风险行为的起源并传播早期警告,同时通过区块链TPS指标评估系统性能,证明了其在大规模交互记录中的可行性和稳定性。
这篇论文提出了RoboSafe,一个基于可执行安全逻辑的混合推理运行时保护机制,用于保护由视觉语言模型(VLMs)驱动的具身智能体。它通过结合短期和长期安全记忆,实现了对智能体行为的动态和上下文感知的安全监控,显著减少了危险行为的发生。
这篇论文提出了BitRL-Light,一个结合1位量化大型语言模型(LLM)和深度Q网络(DQN)强化学习的框架,用于边缘设备上的实时智能家居照明控制。该框架在保持智能控制能力的同时,实现了能源的高效利用,通过多目标强化学习平衡了能耗、舒适度和昼夜节律。