TechFoco Logo
Focus on Technology
© 2025 TechFoco. All rights reserved.
GitHub
返回首页

从0到1构建小参数量的 MiniLLM 聊天模型项目

2024年04月10日•来源: TechFoco
从0到1构建小参数量的 MiniLLM 聊天模型项目

本项目"从 0 到 1 构建一个 MiniLLM"的主要目标是创造一个参数量小,但是可以执行简单的聊天任务的微信机器人模型。我们的目标是以可控的成本,逐步实现预训练、指令微调、奖励模型和强化学习这四个阶段。到目前为止,我们已经成功完成了前两个阶段的工作。

项目采用了 bert4torch 训练框架,这是一个简洁而高效的框架,使用起来既方便又高效。训练可能是机器学习中最关键的一步,因此我们特别关注训练的效率和效果。我们的项目在训练过程中优化了文件读取方式,大大节省了内存占用,效率明显提高。

我们提供了透明的训练 log,供用户参照复现和比对,帮助用户理解和掌握训练过程。所有的训练 checkpoint 可以无缝衔接到 transformers,用户可以直接使用 transformers 包进行推理,省去了手动转换的繁琐流程。

项目中,我们增加了自我认知数据集,用户可以自定义机器人的名称、作者等属性,让机器人更具个性和特色。另一方面,这可以帮助用户更好地理解和掌握如何通过修改参数和特征来优化模型。

此外,我们的聊天模型支持多轮对话。多轮对话比单轮对话的复杂性和难度更高,但是我们成功处理了这个挑战。多轮对话可以模拟真实的对话环境,为用户提供更丰富、更自然的聊天体验。

总结来说,"从 0 到 1 构建一个 MiniLLM"项目目前已经完成了预训练和指令微调两个阶段,为后续的工作打下了坚实的基础。用户可以期待我们接下来的工作,我们将继续努力,为用户提供更高效、更方便的服务。

相关标签

MiniLLMbert4torchtransformers