timescale/pg-aiguide:AI赋能,提升PostgreSQL代码质量
pg-aiguide是一个专注于提升AI编码工具生成PostgreSQL代码质量的平台,通过语义搜索、AI优化的技能和扩展生态系统文档,帮助开发者创建更优、更现代的数据库架构。
精选 14 篇,从 12000+ 条中筛选
pg-aiguide是一个专注于提升AI编码工具生成PostgreSQL代码质量的平台,通过语义搜索、AI优化的技能和扩展生态系统文档,帮助开发者创建更优、更现代的数据库架构。
🔥 unsloth/GLM-4.7-GGUF 是一款通用大模型,具有强大的代码生成、数学推理和多语言能力。该模型基于GLM-4.7架构,参数量庞大,上下文长度长,训练数据丰富。在多个基准测试中表现出色,尤其在代码生成和数学推理方面。模型适用于需要高性能代码生成和复杂推理任务的场景,如开发、教育和研究。其开源协议、硬件需求适中,推理效率较高,与主流推理框架兼容。
WeDLM-8B-Instruct是一款由腾讯推出的旗舰级指令微调扩散语言模型,基于WeDLM-8B模型进行优化。该模型在数学推理任务上比vLLM-optimized Qwen3-8B快3-6倍,并在大多数基准测试中优于基座模型Qwen3-8B-Instruct。它支持原生KV缓存,与FlashAttention、PagedAttention、CUDA Graphs兼容。模型参数量为8B,上下文长度为32,768。WeDLM-8B-Instruct适用于需要高性能语言生成的场景,如对话系统、文本生成等。
FLUX.2 [dev] Turbo LoRA 是一个针对 FLUX.2 [dev] 的精简 LoRA 适配器,旨在实现高质量的图像生成。该模型在LLM生态中定位为多模态模型,具有8步推理的快速生成能力,同时保持了与原始模型相当的质量。其核心技术包括LoRA适配器和diffusers库,支持文本到图像和图像编辑。在性能上,该模型在Hugging Face Hub上获得了815次下载和104个点赞,表现良好。主要应用场景包括图像生成和编辑,适用于需要快速生成高质量图像的场景。
HY-Motion 1.0是一款基于Diffusion Transformer和Flow Matching的文本到3D人体运动生成模型,定位为多模态模型。该模型具有大规模参数量,能够从简单文本提示生成骨骼动画,适用于3D动画管道。其在LLM领域中的差异化优势在于其先进的3D运动生成能力。性能方面,模型在相关基准测试中表现出色,具有高效的推理效率和良好的开源协议。主要应用场景包括3D动画制作和虚拟现实。
这篇论文提出了一种名为Bidirectional RAG的新型RAG架构,通过多阶段验证确保安全地扩展语料库,通过高质量生成响应的验证写回,实现了自我改进的检索增强生成。该方法结合了基于NLI的蕴涵、归因检查和新颖性检测,防止幻觉污染,同时积累知识。实验表明,在多个数据集上,Bidirectional RAG在覆盖率和文档数量上优于标准RAG。
这篇论文提出了PathFound,一个旨在支持病理诊断中证据寻求推理的代理多模态模型。该模型结合了病理视觉基础模型、视觉语言模型和强化学习训练的推理模型,通过主动信息获取和诊断细化,在多个大型多模态模型上实现了诊断精度的提升。
这篇论文提出将神经科学中的动作整合、组合结构和情景记忆整合到AI模型中,以实现安全、可解释和类似人类的AI。作者强调了当前基础模型忽视的三个关键组件,并提出了增强这些模型的方法,以解决当前模型中存在的问题,如幻觉、概念理解不足、缺乏责任感和能源效率低下。
这篇论文提出了RollArc,一个针对分布式基础设施的多任务代理强化学习训练系统。RollArc通过硬件亲和性工作负载映射、细粒度异步性和状态感知计算,有效地提高了训练吞吐量,并显著减少了训练时间。
这篇论文提出了一种自适应GPU资源分配框架,用于在无服务器环境中部署多智能体协作推理系统。该框架通过动态分配GPU资源,根据工作负载特征、智能体优先级和最小资源需求,实现了85%的延迟降低,同时保持了与静态分配相当的吞吐量。
这篇论文提出了一种名为Anka的领域特定语言,用于可靠地生成LLM代码。Anka通过限制性语法减少了代码生成中的歧义,并在复杂的多步骤编程任务中显著提高了代码生成的准确性。实验表明,LLMs可以从上下文提示中学习Anka,达到接近母语的准确性,并且Anka在多步骤任务中的准确性比Python高出40个百分点。
这篇论文提出了一种名为EntroDrop的熵引导的标记丢弃方法,用于在有限领域数据上训练自回归语言模型。该方法通过在训练过程中选择性地掩盖低熵标记,并使用课程表调整正则化强度,以解决多轮训练中模型性能下降的问题,从而提高了模型在有限数据上的泛化能力。
这篇论文介绍了Mirage Persistent Kernel (MPK),一个自动将多GPU模型推理转换为高性能单一巨核的编译器和运行时系统。MPK通过引入SM级别的图表示来捕捉数据依赖,实现跨操作符的软件流水线、细粒度内核重叠等GPU优化。实验表明,MPK将端到端推理延迟减少了高达1.7倍,将LLM推理性能推向接近硬件极限。
这篇论文提出了GraphOracle,一个基于关系依赖图(RDG)的全新框架,用于解决全归纳知识图谱推理问题。GraphOracle通过将知识图谱转换为RDG,减少图密度并捕获关键组合模式,从而实现鲁棒的全归纳推理。该方法使用多头注意力机制在RDG上传播信息,生成上下文感知的关系嵌入,并引导第二个图神经网络(GNN)在原始知识图谱上进行归纳消息传递,从而预测全新实体和关系。实验表明,GraphOracle在完全归纳和跨域场景中分别比先前方法提升了25%和28%。