Fox-1 – TensorOpera 开源的小语言模型系列
2025-01-14 13:23:12 小编:六六导航站
Fox-1是什么
Fox-1是TensorOpera推出的一系列小型语言模型(SLMs),包括Fox-1-1.6B和Fox-1-1.6B-Instruct-v0.1。Fox-1模型在3万亿个网络抓取的文档数据上预训练,在50亿个指令遵循和多轮对话数据上微调。Fox-1采用3阶段数据课程和深度架构设计,具有256K的扩展词汇量和GQA机制,提高了效率和性能。Fox-1模型在包括ARC Challenge、HellaSwag、MMLU、GSM8k等在内的多个标准语言模型基准测试中展现出卓越的性能,超越参数规模是其两倍的模型。

Fox-1的主要功能
文本生成与理解:Fox-1能处理和生成各种文本任务,如文本摘要、翻译、问答等。指令遵循:Fox-1-1.6B-Instruct-v0.1特别针对指令遵循任务进行微调,能理解和执行用户的直接指令。多轮对话:模型在多轮对话数据上进行微调,能在对话系统中使用,提供连贯和相关的回应。长上下文处理:采用Rotary Positional Embeddings (RoPE) 和3阶段数据课程,Fox-1能有效处理长达8K的序列,适合处理长文档和长篇文本。高效率推理:Fox-1在保持较小模型规模的同时,实现与更大模型相当的推理速度和吞吐量。Fox-1的技术原理
3阶段数据课程:Fox-1的预训练包括新颖的3阶段数据课程,逐步增加训练样本的块长度从2K到8K,优化长上下文处理能力。深度架构设计:Fox-1采用32层自注意力层的深度架构,相比其他模型更深,增强了模型的推理能力。分组查询注意力(GQA):将查询头分组,每个组共享相同的键值头,提高训练和推理速度,减少内存使用。共享输入输出嵌入:Fox-1共享输入和输出嵌入层,减少模型参数数量,提高权重利用率。扩展词汇量:模型用256K的词汇量,相比标准词汇量,能更有效地编码信息,减少未知词的概率,提高下游任务性能。预归一化:Fox-1用RMSNorm进行预归一化,有助于提高训练效率。RoPE位置编码:Fox-1采用RoPE,有助于编码 token 之间的相对位置依赖。Fox-1的项目地址
项目官网:tensoropera-unveils-foxHuggingFace模型库:https://huggingface.co/tensoropera/Fox-1-1.6Bhttps://huggingface.co/tensoropera/Fox-1-1.6B-Instruct-v0.1arXiv技术论文:https://arxiv.org/pdf/2411.05281Fox-1的应用场景
聊天机器人和客户服务:构建聊天机器人,提供客户咨询服务,处理多轮对话,解答用户问题。内容创作和编辑:在内容产业中,帮助生成创意文案、编辑和润色文章,及提供写作建议。语言翻译:应用于机器翻译领域,帮助用户进行语言间的翻译工作。教育和学习:在教育领域,作为教学辅助工具,提供语言学习支持,包括语法检查、写作辅导等。信息检索和问答系统:集成到搜索引擎和问答系统中,提供快速准确的信息检索和答案生成。- 猜你喜欢
-
词魂提示指令
-
ChatGPT Shortcut提示指令
-
Learning Prompt提示指令
-
-
PromptVine提示指令
-
-
-
MJ Prompt Tool提示指令
-
绘AI提示指令
- 相关AI应用
-
AIPRM提示指令
-
Snack Prompt提示指令
-
PublicPrompts提示指令
-
Generrated提示指令
-
LangGPT提示指令
-
AI Short提示指令
-
-
ClickPrompt提示指令
-
PromptHero提示指令
- 推荐AI教程资讯
- Perplexideez – 开源本地AI搜索助手,智能搜索信息来源追溯
- Micro LLAMA – 教学版 LLAMA 3模型实现,用于学习大模型的核心原理
- GenCast – 谷歌DeepMind推出的AI气象预测模型
- FullStack Bench – 字节豆包联合M-A-P社区开源的全新代码评估基准
- Motion Prompting – 谷歌联合密歇根和布朗大学推出的运动轨迹控制视频生成模型
- Fish Speech 1.5 – Fish Audio 推出的语音合成模型,支持13种语言
- ClearerVoice-Studio – 阿里通义实验室开源的语音处理框架
- PaliGemma 2 – 谷歌DeepMind推出的全新视觉语言模型
- Optimus-1 – 哈工大联合鹏城实验室推出的智能体框架
- Fox-1 – TensorOpera 开源的小语言模型系列