opencode对话式编程助手
opencode全局配置文件的位置:
- Linux/macOS: ~/.config/opencode/opencode.json
- Windows:
C:\Users\<用户名>\.config\opencode\opencode.json
常用配置:
{
"$schema": "https://opencode.ai/config.json",
"disabled_providers": [
"opencode"
],
"model": "",
"small_model": "",
"provider": {
"qaxtest": {
"npm": "@ai-sdk/openai-compatible",
"name": "test",
"options": {
"baseURL": "https://ip-or-domain/v2",
"apiKey": ""
},
"models": {
"Qwen3.5-122B-A10B": {
"name": "Qwen3.5-122B-A10B"
}
}
}
}
}
禁止使用 opencode web 命令 和 opencode serve 命令: Web UI 默认将所有请求代理到 app.opencode.ai,且无法通过参数关闭
small_model设置用来生成标题的模型,如果不设置,就会使用opencode默认模型,有泄露本地数据的可能
Plan模式 vs Build模式
plan模式:LLM只提供建议和计划,不修改代码
build模式:LLM可以直接修改代码文件
通过 Tab键 切换模式
最佳实践是:先用Plan模式讨论方案,确认后再切换到build模式执行。
常用命令:
/init 初始化项目,生成 AGENTS.md
/connect 配置LLM提供商
/models 选择使用的模型
/undo 撤销上一次修改
/redo 重做撤销的修改
/share 分享当前对话
项目感知:AGENTS.md
首先运行 /init 后,OpenCode 会在项目根目录生成 AGENTS.md 文件,帮助LLM理解:
- 项目的技术和框架
- 代码风格和命名规范
- 目录结构和模块划分
建议将此文件提交到版本控制,确保团队成员获得一致的LLM辅助体验
大模型的token是怎么算的,问一次算一次token么?
大模型的“Token”通常可以理解为语言模型处理文本的基本单位,它不仅指一个汉字或英文单词,也可能是更小的片段(如子词)。
关于计费,通常不是“问一次”算一次Token,而是按输入和输出的总Token数来计算的:
- 输入Token:你提交的问题/提示文本会被转换成Token。
- 输出Token:模型生成的回答也会被转换成Token。
- 总费用一般按“输入+输出”的Token总数,结合不同模型的单价来计算。
不要浪费deepseek的算力了,DeepSeek提示词库指南
官方地址: https://api-docs.deepseek.com/zh-cn/prompt-library/
避坑指南:
- 复杂度陷阱:提示词≠越长越好(实测20字提示>200字小作文)
- 迭代误区:3次追问未果→立即重构提示词
- 新手公式:需求场景+示例样本+输出格式
DISC原则是LLM时代的交互协议:本质是把LLM当实习生,指令越像操作手册,结果越靠谱
- 说人话(Definitive):别让LLM猜,直接下明确指令(如“递归改循环,以让代码速度提升10倍”)。
- 给例子(Illustrative):像老师教学生:甩个参考答案,LLM秒懂你要啥。
- 分步骤(Structured):把复杂任务拆成任务清单,LLM按顺序干活不跑偏。
- 定格式(Controlled):让LLM交作业时自带标准答题卡,方便你直接复制粘贴。
常用提示词:
- 代码改写提示词:下面这段代码的效率很低,且没有处理边界情况,请先解释这段代码的问题与解决方法,然后进行优化
- 代码生成:请帮我用HTML生成一个五子棋游戏,所有代码都保存在一个HTML中。
- 结构化输出:我将提供给你一段新闻内容,请你分析新闻内容,并提取其中的关键信息,以JSON的形式输出,输出的JSON需遵守以下的格式:
{ "entity": <新闻实体>, "time": <新闻时间,格式为 YYYY-mm-dd HH:MM:SS,没有请填 null>, "summary": <新闻内容总结> }
安全案例: AI云端同步和开源漏洞导致的境外窃密
某军工研发所的结构工程师,负责设计军机起重架零件图纸(机密级),为了提高绘图效率,他使用一款开源的工业AI绘图辅助工具,用来优化图纸的尺寸标注内核细节修改。
这款工具默认开启“云端同步”功能,工程师在上传图纸时未关闭该功能,也未检查工具的安全资质,导致图纸被自动同步到工具的云端服务器。
而这款开源AI工具的服务器存在明显安全漏洞,未设置严格的访问权限,不久后就被境外IP非法访问,部分图纸片段被下载窃取。
后续调查发现,这款工具的后台未进行涉密加密处理,甚至有境外势力人员参与工具的开源代码维护,相当于“开门揖盗”,把涉密图纸主动送到了境外势力手中。
虽未泄露完整图纸,但已对国防安全造成潜在威胁,该工程师被判处有期徒刑,研究所也承担了相应的管理责任。

