🔧 配置指南
简介
这个配置文件主要告诉你,麦麦使用的各个模型都是什么功能,是用什么大模型比较合适
模型详解
#下面的模型若使用硅基流动则不需要更改,使用ds官方则改成.env自定义的宏,使用自定义模型则选择定位相似的模型自己填写
# 额外字段
# 下面的模型有以下额外字段可以添加:
# stream = <true|false> : 用于指定模型是否是使用流式输出
# pri_in = <float> : 用于指定模型输入价格
# pri_out = <float> : 用于指定模型输出价格
# temp = <float> : 用于指定模型温度
# enable_thinking = <true|false> : 用于指定模型是否启用思考
# thinking_budget = <int> : 用于指定模型思考最长长度
[model]
model_max_output_length = 800 # 模型单次返回的最大token数
model_max_output_length
这个配置可以限制模型最大回复长度
[model.utils] # 在麦麦的一些组件中使用的模型,例如表情包模块,取名模块,消耗量不大
name = "Pro/deepseek-ai/DeepSeek-V3"
provider = "SILICONFLOW"
pri_in = 2 #模型的输入价格(非必填,可以记录消耗)
pri_out = 8 #模型的输出价格(非必填,可以记录消耗)
#默认temp 0.2 如果你使用的是老V3或者其他模型,请自己修改temp参数
temp = 0.2 #模型的温度,新V3建议0.1-0.3
[model.utils_small] # 在麦麦的一些组件中使用的小模型,消耗量较大
# 强烈建议使用免费的小模型
name = "Qwen/Qwen3-8B"
provider = "SILICONFLOW"
pri_in = 0
pri_out = 0
temp = 0.7
enable_thinking = false # 是否启用思考
[model.memory_summary] # 记忆的概括模型
name = "Qwen/Qwen3-30B-A3B"
provider = "SILICONFLOW"
pri_in = 0.7
pri_out = 2.8
temp = 0.7
enable_thinking = false # 是否启用思考
[model.vlm] # 图像识别模型
name = "Pro/Qwen/Qwen2.5-VL-7B-Instruct"
provider = "SILICONFLOW"
pri_in = 0.35
pri_out = 0.35
#嵌入模型
[model.embedding]
name = "BAAI/bge-m3"
provider = "SILICONFLOW"
pri_in = 0
pri_out = 0
这些模型是麦麦运行所必须的模型,但是并不直接生成回复 这意味着如果不配置,麦麦将无法正常工作。
这些模型不会直接影响麦麦回复的内容,会参与记忆,图像识别,关系,情感等等功能
model.utils
推荐使用V3这类性能较强的非推理模型,使用量不会特别大。不建议用推理模型(比如不建议R1)
model.utils_small
推荐使用 Qwen/Qwen3-8B或者 Qwen/Qwen2.5-7B 这类免费的小模型,使用量较大,但是性能要求不高。不建议用推理模型
model.memory_summary
是给记忆系统用的,可以用一个不大不小的模型,不建议用推理模型
model.vlm
识别图像用的,麦麦所有接收到的图像都通过这个模型理解,你需要用一个可以识图的模型
model.embedding
知识库会用到,可以用其他嵌入模型
[model.normal_chat_1] # 一般聊天模式的首要回复模型,推荐使用 推理模型
name = "Pro/deepseek-ai/DeepSeek-R1"
provider = "SILICONFLOW"
pri_in = 4.0 #模型的输入价格(非必填,可以记录消耗)
pri_out = 16.0 #模型的输出价格(非必填,可以记录消耗)
temp = 0.7
[model.normal_chat_2] # 一般聊天模式的次要回复模型,推荐使用 非推理模型
name = "Pro/deepseek-ai/DeepSeek-V3"
provider = "SILICONFLOW"
pri_in = 2 #模型的输入价格(非必填,可以记录消耗)
pri_out = 8 #模型的输出价格(非必填,可以记录消耗)
#默认temp 0.2 如果你使用的是老V3或者其他模型,请自己修改temp参数
temp = 0.2 #模型的温度,新V3建议0.1-0.3
这些模型是麦麦在一般水群normal模式需要用的,如果你不使用normal模式,可以不填写
这两个模型会根据配置的比例随机进行回复生成
[model.focus_working_memory] #工作记忆模型
name = "Qwen/Qwen3-30B-A3B"
provider = "SILICONFLOW"
enable_thinking = false # 是否启用思考(qwen3 only)
pri_in = 0.7
pri_out = 2.8
temp = 0.7
[model.focus_chat_mind] #聊天规划:认真聊天时,生成麦麦对聊天的规划想法
name = "Pro/deepseek-ai/DeepSeek-V3"
# name = "Qwen/Qwen3-30B-A3B"
provider = "SILICONFLOW"
# enable_thinking = false # 是否启用思考
pri_in = 2
pri_out = 8
temp = 0.3
[model.focus_tool_use] #工具调用模型,需要使用支持工具调用的模型
name = "Qwen/Qwen3-14B"
provider = "SILICONFLOW"
pri_in = 0.5
pri_out = 2
temp = 0.7
enable_thinking = false # 是否启用思考(qwen3 only)
[model.focus_planner] #决策:认真聊天时,负责决定麦麦该做什么
name = "Pro/deepseek-ai/DeepSeek-V3"
# name = "Qwen/Qwen3-30B-A3B"
provider = "SILICONFLOW"
# enable_thinking = false # 是否启用思考(qwen3 only)
pri_in = 2
pri_out = 8
temp = 0.3
#表达器模型,用于表达麦麦的想法,生成最终回复,对语言风格影响极大
#也用于表达方式学习
[model.focus_expressor]
name = "Pro/deepseek-ai/DeepSeek-V3"
# name = "Qwen/Qwen3-30B-A3B"
provider = "SILICONFLOW"
# enable_thinking = false # 是否启用思考(qwen3 only)
pri_in = 2
pri_out = 8
temp = 0.3
#自我识别模型,用于自我认知和身份识别
[model.focus_self_recognize]
# name = "Pro/deepseek-ai/DeepSeek-V3"
name = "Qwen/Qwen3-30B-A3B"
provider = "SILICONFLOW"
pri_in = 0.7
pri_out = 2.8
temp = 0.7
enable_thinking = false # 是否启用思考(qwen3 only)
这些模型是麦麦在专注聊天focus模式需要用的,如果你不使用focus模式,可以不填写
model.focus_working_memory
是工作记忆模型,负责在专注聊天时处理和存储短期信息。
model.focus_chat_mind
用于聊天规划,在认真聊天时,它会帮助麦麦生成对当前对话的规划和想法。推荐使用性能较强的模型。
model.focus_tool_use
是工具调用模型,负责在需要时调用外部工具或插件。你需要选用支持工具调用(function calling)的模型。
model.focus_self_recognize
是自我识别模型,用于麦麦的自我认知和身份识别,帮助麦麦理解自身在对话中的角色和状态。
以上这些模式属于信息处理器,部分可以关闭
model.focus_planner
用于决策,在认真聊天时,它负责决定麦麦接下来应该采取什么行动。推荐使用性能较强的模型。
model.focus_expressor
是表达器模型,用于生成麦麦的最终回复,对麦麦的语言风格影响极大。也用于学习不同的表达方式。
注意事项
API密钥安全:
- 妙善保管API密钥
- 不要将含有密钥的配置文件上传至公开仓库
配置修改:
- 修改配置后需重启服务
- 使用默认服务(硅基流动)时无需修改模型配置
- 模型名称可能更新,需定期检查控制台模型名
其他说明:
- 项目处于测试阶段,可能存在未知问题
- 建议初次使用保持默认配置
错误排查:
401
错误:检查xxxxxxxxx_KEY
是否有效404
错误:确认xxxxxxxxx_BASE_URL
路径正确