Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

上下文长度。我没有在说明中找到关于long writer的上下文长度,是否是沿用的glm4-128k的输入上下文长度。 #31

Open
2 tasks done
mhzn-yn opened this issue Sep 29, 2024 · 3 comments

Comments

@mhzn-yn
Copy link

mhzn-yn commented Sep 29, 2024

System Info / 系統信息

我想知道long writer 的输入上下文长度,在整篇文章中,只写了输出的长度。麻烦作者告知,万分感谢。
第二个问题:微调训练,是否可以在windows 上使用LLaMA-Factory。
LLaMA-Factory上有标注支持glm4微调。如果不支持,还请给点相关信息。

Who can help? / 谁可以帮助到您?

No response

Information / 问题信息

  • The official example scripts / 官方的示例脚本
  • My own modified scripts / 我自己修改的脚本和任务

Reproduction / 复现过程

我想知道long writer 的输入上下文长度,在整篇文章中,只写了输出的长度。麻烦作者告知,万分感谢。
第二个问题:微调训练,是否可以在windows 上使用LLaMA-Factory。
LLaMA-Factory上有标注支持glm4微调。

Expected behavior / 期待表现

期待回复,万分感谢。

@bys0318
Copy link
Member

bys0318 commented Sep 29, 2024

LongWriter的上下文长度为32k(输入长度+输出长度),但是我们在训练数据中并没有加入长输入的数据,模型可能在长输入场景下表现不理想。我们推荐在glm4-9b模型上做微调训练,你只需要下载LongWriter-6k数据即可,直接用LLaMA-Factory的代码就可以训练。

@mhzn-yn
Copy link
Author

mhzn-yn commented Sep 30, 2024

感谢。

@mhzn-yn
Copy link
Author

mhzn-yn commented Sep 30, 2024

明白了。

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

2 participants