eigent-ai/eigent:填补LLM生态自动化空白
Eigent是一个开源的协同工作台,旨在通过多智能体工作力和本地部署,为用户提供强大的自动化任务执行能力。它填补了LLM生态中自动化复杂工作流程的空白,为开发者、企业和研究者提供了高效的生产力工具。
精选 22 篇,从 6300+ 条中筛选
Eigent是一个开源的协同工作台,旨在通过多智能体工作力和本地部署,为用户提供强大的自动化任务执行能力。它填补了LLM生态中自动化复杂工作流程的空白,为开发者、企业和研究者提供了高效的生产力工具。
LangExtract是一个Python库,利用LLM从非结构化文本中提取结构化信息,支持云模型和本地模型,提供精确的源定位和交互式可视化。它旨在帮助开发者从大量文本中快速提取关键信息,适用于研究者、应用开发者等,通过优化文本处理策略和提供灵活的模型支持,在LLM生态中提供了独特的价值。
Zilliz团队发布了名为'zilliz/semantic-highlight-bilingual-v1'的语义高亮模型,该模型旨在降低RAG(Retrieval-Augmented Generation)中的Token成本,同时提供中英双语支持。该模型基于轻量级的Encoder-Only架构,并使用BGE-M3 Reranker v2作为基础模型,通过LLM标注和推理过程训练,实现了在多个数据集上的最先进性能。
Hugging Face发布了BERT Hash Embeddings模型系列,这些模型基于BERT Hash模型系列,生成固定维度的向量,用于语义文本相似度、语义搜索、释义挖掘、文本分类、聚类等。这些模型参数量小,性能优异,适用于边缘和低资源计算环境。
Hugging Face的官方博客发布了一篇关于小型语言模型最优架构的文章,介绍了通过实验发现的最优模型配置,包括深度、宽度、架构类型等,并推出了新的扩散模型Dhara-70M,该模型在保持较高准确性的同时,实现了更高的吞吐量和事实性。
Pruna社区成员Parag Ekbote通过使用Pruna库和PyTorch的torch.compile功能,对SmolLM模型进行了量化压缩和编译优化,显著提升了模型的速度和效率,同时保持了较高的准确度,使得模型在资源受限的硬件上也能高效运行。
Hugging Face发布了名为“Proof of Time (PoT)”的新基准框架,旨在评估科学想法的判断。该框架通过将科学想法的判断与未来可观察的下游信号(如引用次数、同行评审奖项等)联系起来,实现了可验证的评估和可扩展的基准测试。PoT采用离线沙盒设计,确保模型改进来自对相同证据的更好利用,而非获取新信息,并包含四个任务家族,分别评估影响预测、同行评审奖项、研究演化和技术前沿。
Hugging Face宣布其MiniMax-M2.1模型在多语言和多任务编码方面取得了显著进步,该模型在代码生成、工具使用、指令遵循和长期规划方面表现出色。它通过构建覆盖多种编程语言的全面数据管道,实现了对真实世界编码场景的增强,并展示了在多种基准测试中的优异性能。
Falcon H1R 7B,由阿布扎比的科技创新研究所(TII)开发,是一款仅具有解码功能的7B参数大型语言模型。它基于Falcon-H1 Base模型,在推理能力上取得了重大进步,参数效率极高,在多个推理密集型基准测试中表现出色。
本文介绍了KV缓存技术,这是一种优化Transformer推理效率的方法。通过缓存中间计算结果,模型可以避免重复计算,从而加快文本生成速度,提高效率。
这篇公告详细介绍了小型语言模型(SLM)的概念、制作方法、优势、局限性以及在实际应用中的使用。SLM是一种轻量级的语言模型,适用于资源受限的环境,如智能手机和嵌入式系统。它们保留了核心的自然语言处理能力,同时具有低计算需求、低能耗和快速推理等优势。公告还介绍了如何使用Ollama和PocketPal等工具在边缘设备上运行SLM,以及如何通过微调来提高模型性能。
NVIDIA发布了一种名为Nemotron Speech ASR的新实时语音识别模型,该模型通过缓存感知流式处理技术,实现了更高的效率和更低的延迟,为实时语音代理提供了新的基准。
本文介绍了如何利用开源模型DeepSeek-OCR和FineVision进行大规模OCR任务,并展示了如何在不同的GPU基础设施上运行批量OCR推理。文章详细介绍了如何设置DeepSeek-OCR进行高吞吐量文档处理,设计模块化管道提取文档内容,并在多个云平台上部署批量推理作业。此外,还讨论了优化批量大小和并发性以提高GPU利用率,以及成本估算和扩展处理能力的方法。
LoongFlow,一款由百度百度的Baige团队开发的进化智能体框架,被宣传为是超越传统OpenEvolve的“思考型”演进。它通过引入PES(规划-执行-总结)范式,实现了比OpenEvolve更高的效率和稳定性,特别是在解决复杂现实任务时。LoongFlow在基准测试中表现出色,特别是在圆填充问题实验中,其成功率和迭代次数均优于OpenEvolve。
本文介绍了如何从头开始实现一个稀疏混合专家语言模型(makeMoE),该模型基于Andrej Karpathy的项目“makemore”,并借鉴了其许多可复用组件。makeMoE是一个自回归字符级语言模型,采用稀疏混合专家架构,旨在帮助读者理解其工作原理。
本文介绍了名为“abliteration”的技术,该技术可以取消任何大型语言模型(LLM)的审查机制,使其能够响应所有类型的提示。这项技术通过修改模型权重来阻止模型拒绝请求,从而提高了模型的灵活性和响应能力。
ColPali 是一种基于视觉语言模型的高效文档检索技术,通过直接嵌入文档页面的图像来简化索引过程,并利用后期交互机制进行多向量检索。这项技术显著提高了文档检索的效率和准确性,在 ViDoRe 基准测试中表现出色,尤其在处理视觉丰富的信息检索任务中优于其他系统。
Hugging Face发布了《大型语言模型课程》,这是一套全面的教育资源,旨在帮助人们深入了解大型语言模型(LLM)。课程分为两部分:LLM科学家和LLM工程师,分别侧重于构建和部署LLM。课程内容涵盖LLM架构、预训练、后训练数据集、微调、偏好对齐、评估、量化和新趋势等多个方面,并提供交互式LLM助手。
本文介绍了从GRPO到DAPO再到GSPO的强化学习技术演进,重点关注了在大型语言模型中如何优化长文本输出和复杂任务的性能。文章详细讨论了每种方法的原理、优势和局限性,并展示了如何通过改进采样、剪枝和梯度计算等细节来提高效率和稳定性。
本文介绍了从Image-to-LoRA到In-Context Edit的图像编辑技术进展,重点介绍了Qwen-Image-Edit-2511模型。该模型通过In-Context Edit技术,利用多图像编辑能力,实现了从示例图像对中理解并应用编辑转换到新图像的功能,为图像编辑领域带来了新的突破。
本文介绍了“Reviewer Two”,一个基于 Meta 的 OpenEnv 框架构建的强化学习环境,旨在训练 AI 代理生成高质量的研究计划。该环境通过提供反馈和惩罚机制,引导代理不断改进其研究计划,旨在培养代理的迭代改进、学习反馈和有效利用资源的能力,使其能够更好地与人类合作进行科学研究。