Files
pj_llama/操作指南.md
aken1023 390a8cc7f7 移除不存在的備用端點
變更內容:
- 從 llama_chat.py 移除備用端點配置
- 從 llama_full_api.py 移除備用端點配置
- 簡化端點測試邏輯
- 更新所有文檔移除備用端點說明
- 專注於實際存在的三個端點:
  * https://llama.theaken.com/v1
  * https://llama.theaken.com/v1/gpt-oss-120b
  * https://llama.theaken.com/v1/deepseek-r1-671b

程式結構更清晰,移除虛假的備用選項。
2025-09-19 22:09:15 +08:00

175 lines
3.9 KiB
Markdown
Raw Permalink Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

# Llama API 連接操作指南
## 一、API 連接資訊
### API 金鑰
```
paVrIT+XU1NhwCAOb0X4aYi75QKogK5YNMGvQF1dCyo=
```
### 可用端點
#### 可用的外網端點
| 端點名稱 | URL | 支援模型 |
|---------|-----|---------|
| 通用端點 | https://llama.theaken.com/v1 | gpt-oss-120b, deepseek-r1-671b, qwen3-embedding-8b |
| GPT-OSS 專用 | https://llama.theaken.com/v1/gpt-oss-120b | gpt-oss-120b |
| DeepSeek 專用 | https://llama.theaken.com/v1/deepseek-r1-671b | deepseek-r1-671b |
## 二、快速開始
### 1. 安裝依賴
```bash
pip install openai
```
### 2. 測試連接Python
#### 外網連接範例
```python
from openai import OpenAI
# 設定 API
API_KEY = "paVrIT+XU1NhwCAOb0X4aYi75QKogK5YNMGvQF1dCyo="
BASE_URL = "https://llama.theaken.com/v1" # 使用外網端點
# 創建客戶端
client = OpenAI(
api_key=API_KEY,
base_url=BASE_URL
)
# 發送請求
response = client.chat.completions.create(
model="gpt-oss-120b",
messages=[
{"role": "user", "content": "你好,請自我介紹"}
],
temperature=0.7,
max_tokens=200
)
# 顯示回應
print(response.choices[0].message.content)
```
## 三、使用現成程式
### 程式清單
1. **llama_chat.py** - 主要對話程式(智慧連接)
2. **llama_full_api.py** - 完整對話程式(多端點支援)
3. **quick_test.py** - 快速測試腳本
4. **test_all_models.py** - 模型測試工具
### 執行對話程式
```bash
# 執行主程式(智慧對話)
python llama_chat.py
# 執行完整版(自動測試所有端點)
python llama_full_api.py
# 快速測試
python quick_test.py
```
## 四、對話程式使用說明
### 基本操作
1. 執行程式後會自動測試可用端點
2. 選擇要使用的端點(輸入數字)
3. 選擇要使用的模型
4. 開始對話
### 對話中指令
- `exit``quit` - 結束對話
- `clear` - 清空對話歷史
- `model` - 切換模型
## 五、常見問題處理
### 問題 1502 Bad Gateway
**原因**API 伺服器暫時離線
**解決**:稍後再試,程式會自動測試所有端點
### 問題 2Connection Error
**原因**:網路連接問題
**解決**
1. 確認網路連接正常
2. 檢查防火牆或代理設定
3. 確認可以訪問 https://llama.theaken.com
### 問題 3編碼錯誤
**原因**Windows 終端編碼問題
**解決**:使用英文對話或修改終端編碼
### 問題 4回應包含特殊標記
**說明**:如 `<think>`, `<|channel|>`
**處理**:程式已自動過濾這些標記
## 六、API 回應格式清理
部分模型回應可能包含思考過程標記,程式會自動清理:
- `<think>...</think>` - 思考過程
- `<|channel|>...<|message|>` - 通道標記
- `<|end|>`, `<|start|>` - 結束/開始標記
## 七、測試結果摘要
### 測試狀態
📡 API 端點連接測試中
✅ 支援 OpenAI SDK 標準格式
✅ 自動端點選擇機制
### 支援功能
- 自動端點選擇
- 智慧超時控制
- 完整錯誤處理
- 多模型支援GPT-OSS、DeepSeek、Qwen
## 八、技術細節
### 使用 OpenAI SDK
```python
from openai import OpenAI
client = OpenAI(
api_key="你的金鑰",
base_url="API端點URL"
)
```
### 使用 requests 庫
```python
import requests
headers = {
"Authorization": "Bearer 你的金鑰",
"Content-Type": "application/json"
}
data = {
"model": "gpt-oss-120b",
"messages": [{"role": "user", "content": "你好"}],
"temperature": 0.7,
"max_tokens": 200
}
response = requests.post(
"API端點URL/chat/completions",
headers=headers,
json=data
)
```
## 九、建議使用方式
1. **開發測試**:使用內網端點(速度快、穩定)
2. **生產環境**:配置多個端點自動切換
3. **對話應用**:使用 llama_full_api.py
4. **API 整合**:參考 quick_test.py 的實現
---
最後更新2025-09-19
測試環境Windows / Python 3.13