大模型微调
为了高效优化微调过程,我们提出了一种轻量级对齐投影策略。在训练中,我们固定大语言模型和图编码器的参数,仅优化投影器的参数。...微调策略
在二阶段训练中,我们采用一阶段训练获得的结构感知投影器参数作为初始值。在此阶段,我们冻结大语言模型和图编码器的参数,仅优化投影器参数。...但由于思维链方法的效果与模型参数大小密切相关,如何在较小的模型中充分利用其优势成为关键。...为进一步优化性能,我们将生成的思维链指令数据与之前为任务特定指令微调阶段制定的指令结合起来,对图指令进行微调。
3....结果显示,GraphGPT在效率和准确性方面表现出色。需要注意的是,推理时间较短并不总是意味着更高的性能。尽管baichuan-7B响应速度很快,但其答案往往存在错误或与问题不相关的问题。