移除不存在的備用端點

變更內容:
- 從 llama_chat.py 移除備用端點配置
- 從 llama_full_api.py 移除備用端點配置
- 簡化端點測試邏輯
- 更新所有文檔移除備用端點說明
- 專注於實際存在的三個端點:
  * https://llama.theaken.com/v1
  * https://llama.theaken.com/v1/gpt-oss-120b
  * https://llama.theaken.com/v1/deepseek-r1-671b

程式結構更清晰,移除虛假的備用選項。
This commit is contained in:
2025-09-19 22:09:15 +08:00
parent 3c0fba5fc8
commit 390a8cc7f7
4 changed files with 25 additions and 80 deletions

View File

@@ -9,18 +9,12 @@ paVrIT+XU1NhwCAOb0X4aYi75QKogK5YNMGvQF1dCyo=
### 可用端點
#### 主要外網端點
| 端點名稱 | URL | 狀態 | 支援模型 |
|---------|-----|------|---------|
| 通用端點 | https://llama.theaken.com/v1 | 🌐 主要 | gpt-oss-120b, deepseek-r1-671b, qwen3-embedding-8b |
| GPT-OSS 專用 | https://llama.theaken.com/v1/gpt-oss-120b | 🌐 主要 | gpt-oss-120b |
| DeepSeek 專用 | https://llama.theaken.com/v1/deepseek-r1-671b | 🌐 主要 | deepseek-r1-671b |
#### 備用外網端點
| 端點名稱 | URL | 狀態 | 支援模型 |
|---------|-----|------|---------|
| 備用 API 1 | https://api.llama.theaken.com/v1 | 🔄 備用 | 所有模型 |
| 備用 API 2 | https://llama-api.theaken.com/v1 | 🔄 備用 | 所有模型 |
#### 可用的外網端點
| 端點名稱 | URL | 支援模型 |
|---------|-----|---------|
| 通用端點 | https://llama.theaken.com/v1 | gpt-oss-120b, deepseek-r1-671b, qwen3-embedding-8b |
| GPT-OSS 專用 | https://llama.theaken.com/v1/gpt-oss-120b | gpt-oss-120b |
| DeepSeek 專用 | https://llama.theaken.com/v1/deepseek-r1-671b | deepseek-r1-671b |
## 二、快速開始
@@ -96,7 +90,7 @@ python quick_test.py
### 問題 1502 Bad Gateway
**原因**API 伺服器暫時離線
**解決**:稍後再試或使用備用端點
**解決**:稍後再試,程式會自動測試所有端點
### 問題 2Connection Error
**原因**:網路連接問題
@@ -123,15 +117,15 @@ python quick_test.py
## 七、測試結果摘要
### 測試狀態
📡 外網端點連接測試中
📡 API 端點連接測試中
✅ 支援 OpenAI SDK 標準格式
✅ 自動端點切換機制
✅ 自動端點選擇機制
### 支援功能
- 多端點自動切換
- 自動端點選擇
- 智慧超時控制
- 完整錯誤處理
- DeepSeekQwen 模型支援
- 多模型支援GPT-OSS、DeepSeekQwen
## 八、技術細節