它还给我提供了另一种思路如下,您觉得可行吗,感谢您的关注:
精准分析:Qoder v0.2.20 是否能连接局域网 Ollama?
直接结论:
不能通过图形界面直接设置为 Ollama 模型
尚无内置 MCP 服务或“自定义 LLM API”配置项
但可通过“反向代理 + 协议转换”方式实现间接对接(技术可行)
这是当前阶段唯一可靠的方法。
方案:使用「本地代理服务器」伪装成 Qoder 的云端模型
我们不修改 Qoder 本身,而是让它以为自己在调用官方云服务,实际上请求被拦截并转发到你企业内网的 Ollama 服务。
[Qoder v0.2.20]
→ 发起请求到 https://api.qoder.ai/v1/chat/completions
→ 被本地代理拦截(如 mitmproxy / Flask)
→ 转换协议,调用 http://192.168.10.50:11434/api/generate
← 返回 Ollama 生成结果
← 再伪装成 Qoder 官方格式返回给客户端
效果:Qoder 完全无感,却用的是你们企业私有模型!
实现步骤(完整可操作)
第一步:确保 Ollama 可访问
假设你的 Ollama 运行在局域网某台机器上:
IP: 192.168.10.50
Port: 11434
Model: llama3 或 qwen:7b
从运行 Qoder 的电脑测试连通性:
curl http://192.168.10.50:11434/api/tags
应返回模型列表 
第二步:搭建本地代理服务器(Python 实现)
1. 准备环境
安装 Python(推荐 Python 3.10+ x64)
打开命令行安装依赖:
pip install flask requests
2. 创建代理脚本 qoder-proxy.py
python
# qoder-proxy.py
from flask import Flask, request, jsonify
import requests
import json
app = Flask(_name_)
# ================== 配置区 ==================
OLLAMA_BASE_URL = “http://192.168.10.50:11434” # 修改为你的 Ollama 地址
OLLAMA_MODEL = “llama3” # 修改为你使用的模型名
PROXY_HOST = “127.0.0.1”
PROXY_PORT = 443 # 模拟 HTTPS
USE_HTTPS = False # 先用 HTTP 测试,成功后再上 HTTPS
# ============================================
@app.route(‘/v1/chat/completions’, methods=[‘POST’])
def chat_completions():
try:
data = request.json
messages = data.get(“messages”, )
# 构造 prompt(简单拼接)
prompt = “”
for msg in messages:
role = msg[“role”].strip(“:”)
content = msg[“content”]
prompt += f"{role.capitalize()}: {content}\n"
prompt += "Assistant: "
# 调用 Ollama API
ollama_response = requests.post(
f"{OLLAMA_BASE_URL}/api/generate",
json={
“model”: OLLAMA_MODEL,
“prompt”: prompt,
“stream”: False
},
timeout=60
)
if ollama_response.status_code != 200:
return “Ollama Error”, 502
resp_data = ollama_response.json()
text = resp_data.get(“response”, “”).strip()
# 构造符合 Qoder 预期的响应格式(模拟 OpenAI 格式)
return jsonify({
“id”: “chat-”+str(hash(text))[:8],
“object”: “chat.completion”,
“created”: 1717171717,
“model”: OLLAMA_MODEL,
“choices”: [
{
“index”: 0,
“message”: {
“role”: “assistant”,
“content”: text
},
“finish_reason”: “stop”
}
],
“usage”: {
“prompt_tokens”: len(prompt.split()),
“completion_tokens”: len(text.split()),
“total_tokens”: len(prompt.split()) + len(text.split())
}
})
except Exception as e:
print(f"[ERROR] {e}")
return “Internal Server Error”, 500
if _name_ == ‘_main_’:
print(f"
Qoder-Ollama 代理服务器启动中…")
print(f"
访问地址: http://{PROXY_HOST}:{PROXY_PORT}/v1/chat/completions")
print(f"
将 Qoder 请求指向此代理(需配合 hosts 修改)")
app.run(host=PROXY_HOST, port=PROXY_PORT, ssl_context=‘adhoc’ if USE_HTTPS else None)
第三步:修改系统 hosts 文件(欺骗 DNS)
以管理员身份编辑:
C:\Windows\System32\drivers\etc\hosts
添加一行:
127.1.0.1 api.qoder.ai
注意:这里写 127.1.0.1 而不是 127.0.0.1 是为了避免与其他本地服务冲突,也可以用其他保留 IP 如 0.0.0.0
然后我们在本地监听这个 IP:
修改脚本中的 PROXY_HOST = "127.1.0.1"
第四步:运行代理服务
python qoder-proxy.py
你会看到输出:
✅ Qoder-Ollama 代理服务器启动中...
🌐 访问地址: http://127.1.0.1:443/v1/chat/completions
此时你的电脑就在 127.1.0.1:443 上监听了!
第五步:启动 Qoder 并测试
-
正常打开 Qoder v0.2.20
-
在聊天窗口输入问题,例如:“你好,你是谁?”
-
观察代理终端是否有日志打印
-
如果收到回复,并且内容来自你部署的模型(比如 llama3 的语气),就成功了!
进阶建议(提升稳定性)
| 功能 |
方法 |
| 支持 HTTPS |
使用 ssl_context=('cert.pem', 'key.pem') 生成证书 |
| 多模型切换 |
在 headers 中加 X-Model: qwen:7b 动态选择 |
| 日志记录 |
把请求/响应保存到文件用于调试 |
| 批量部署 |
打包成 .exe 分发给团队成员 |
我可以为你做什么?
如果你希望我帮你:
-
生成完整的 .py 文件包(带注释)
-
提供一键启动 .bat 脚本
-
编译成 Windows .exe(无需安装 Python)
-
支持自动后台运行(隐藏窗口)
-
添加简易配置界面(JSON 设置)
只需告诉我:
-
你的 Ollama 服务器 IP 和端口
-
使用的模型名称(如 qwen:7b)
-
是否需要 HTTPS 支持
-
是否希望打包成 .exe
我可以立即为你制作一个 开箱即用的企业内部署版本 
总结:你现在该怎么办?
| 步骤 |
操作 |
| 1 |
确认 Ollama 可访问(curl /api/tags) |
| 2 |
安装 Python,运行我提供的代理脚本 |
| 3 |
修改 hosts,将 api.qoder.ai 指向本地代理 |
| 4 |
启动代理 + 启动 Qoder,测试对话 |
| 5 |
成功后联系 Qoder 官方升级到 v0.6+,获得原生支持 |
强烈建议下一步:联系 Qoder 团队获取新版
你可以这样问他们:
“我们是企业用户,希望将 Qoder 对接内部 Ollama 模型,请问 v0.2.20 是否支持?如果不支持,最新版是否提供 MCP 或自定义 API 接入能力?能否提供 Windows 最新版安装包?”
一旦升级到 v0.6+,就可以直接在设置里填:
模型提供者:Custom (HTTP)
API Base URL: http://192.168.10.50:11434
Model Name: llama3
再也不用折腾代理了!