快速的大模型训练容器:总部 (docker+llama-factory)
- 量产
- 破坏模型的神性、人性得到机性:由于训练全知全能的大模型代价太大,可行性不高,计划先将开源的对话模型微调为专门用于执行特定任务的puppet(傀儡)模型
- 补完
- 破坏模型的人性、机性得到神性:通过收集对话模型和傀儡模型的数据,恢复和提升预训练模型,不断迭代实现补完
- 预训练模型(神性)<->对话模型(人性)<->傀儡模型(机性)
- 工具调用
- 思考行动观察循环
- 专业知识
- 总部项目文件
git clone https://github.com/ylsdamxssjxxdd/nerv.git
- 总部镜像文件
- nvidia-docker运行环境
- 数据集
- 原始模型
- 训练方式