240 发简信
IP属地:广东
  • Resize,w 360,h 240
    tkgqa/gnn

    1 ARI(ACL2024) 主要分为两个阶段:基于知识的交互和知识无关推理。 基于知识的交互:提取子图,建立候选动作集,过滤得到与问题相似度高...

  • Resize,w 360,h 240
    Q-KGR精读笔记

    原文:https://arxiv.org/abs/2410.01401[https://arxiv.org/abs/2410.01401] 知识...

  • Resize,w 360,h 240
    QA论文泛读笔记

    @[toc] 使用WebQSP结果较好:ChatKBQA、GoG使用多跳推理数据集HotpotQA等:KGP-T5,LongRAG,GNN-Re...

  • Resize,w 360,h 240
    大模型基础知识学习笔记之Tokenizer

    1 Tokenizer的作用 将文本序列转化为数字序列,作为transformer输入 是训练和微调LLM必不可少的一部分 2 三种不同分词粒度...

  • Resize,w 360,h 240
    POP-3D(NeurIPS 2023)精读笔记

    1 介绍 输入:同一相机位置的环视图像组输出:密集的3D语言嵌入体素图,该图能够支持一系列开放词汇量的任务。 主要分为三步: 2D-3D编码器从...

  • Resize,w 360,h 240
    QA论文精读笔记

    RAG-KG 1 概述 传统的大模型(LLMs)检索增强生成(RAG)法将大量过去的问题作为纯文本处理,忽略了内部结构和联系,本文介绍一种新的客...

  • Resize,w 360,h 240
    节点分类论文笔记

    1 Disambiguated Node Classification with Graph Neural Networks (待续) 2 LA...

  • Resize,w 360,h 240
    QA/推理/节点分类方法概览

    数据集对比 QA不同方法以及实验结果 KAPING KAPING:从KG中获取相关信息放到输入中,再通过LLMs进行检索。挑战:从KG中获取到的...

  • Resize,w 360,h 240
    GenTKG:LLMs在时间知识图谱(tKG)上的生成性预测

    本文讨论了预训练的LLMs能否理解结构化的时间关系数据,并在时间知识图谱(tKG)领域取代现有占主导地位的机遇嵌入和规则的方法,作为时间关系预测...