Files
pj_llama/操作指南.md
aken1023 390a8cc7f7 移除不存在的備用端點
變更內容:
- 從 llama_chat.py 移除備用端點配置
- 從 llama_full_api.py 移除備用端點配置
- 簡化端點測試邏輯
- 更新所有文檔移除備用端點說明
- 專注於實際存在的三個端點:
  * https://llama.theaken.com/v1
  * https://llama.theaken.com/v1/gpt-oss-120b
  * https://llama.theaken.com/v1/deepseek-r1-671b

程式結構更清晰,移除虛假的備用選項。
2025-09-19 22:09:15 +08:00

3.9 KiB
Raw Blame History

Llama API 連接操作指南

一、API 連接資訊

API 金鑰

paVrIT+XU1NhwCAOb0X4aYi75QKogK5YNMGvQF1dCyo=

可用端點

可用的外網端點

端點名稱 URL 支援模型
通用端點 https://llama.theaken.com/v1 gpt-oss-120b, deepseek-r1-671b, qwen3-embedding-8b
GPT-OSS 專用 https://llama.theaken.com/v1/gpt-oss-120b gpt-oss-120b
DeepSeek 專用 https://llama.theaken.com/v1/deepseek-r1-671b deepseek-r1-671b

二、快速開始

1. 安裝依賴

pip install openai

2. 測試連接Python

外網連接範例

from openai import OpenAI

# 設定 API
API_KEY = "paVrIT+XU1NhwCAOb0X4aYi75QKogK5YNMGvQF1dCyo="
BASE_URL = "https://llama.theaken.com/v1"  # 使用外網端點

# 創建客戶端
client = OpenAI(
    api_key=API_KEY,
    base_url=BASE_URL
)

# 發送請求
response = client.chat.completions.create(
    model="gpt-oss-120b",
    messages=[
        {"role": "user", "content": "你好,請自我介紹"}
    ],
    temperature=0.7,
    max_tokens=200
)

# 顯示回應
print(response.choices[0].message.content)

三、使用現成程式

程式清單

  1. llama_chat.py - 主要對話程式(智慧連接)
  2. llama_full_api.py - 完整對話程式(多端點支援)
  3. quick_test.py - 快速測試腳本
  4. test_all_models.py - 模型測試工具

執行對話程式

# 執行主程式(智慧對話)
python llama_chat.py

# 執行完整版(自動測試所有端點)
python llama_full_api.py

# 快速測試
python quick_test.py

四、對話程式使用說明

基本操作

  1. 執行程式後會自動測試可用端點
  2. 選擇要使用的端點(輸入數字)
  3. 選擇要使用的模型
  4. 開始對話

對話中指令

  • exitquit - 結束對話
  • clear - 清空對話歷史
  • model - 切換模型

五、常見問題處理

問題 1502 Bad Gateway

原因API 伺服器暫時離線
解決:稍後再試,程式會自動測試所有端點

問題 2Connection Error

原因:網路連接問題
解決

  1. 確認網路連接正常
  2. 檢查防火牆或代理設定
  3. 確認可以訪問 https://llama.theaken.com

問題 3編碼錯誤

原因Windows 終端編碼問題
解決:使用英文對話或修改終端編碼

問題 4回應包含特殊標記

說明:如 <think>, <|channel|>
處理:程式已自動過濾這些標記

六、API 回應格式清理

部分模型回應可能包含思考過程標記,程式會自動清理:

  • <think>...</think> - 思考過程
  • <|channel|>...<|message|> - 通道標記
  • <|end|>, <|start|> - 結束/開始標記

七、測試結果摘要

測試狀態

📡 API 端點連接測試中
支援 OpenAI SDK 標準格式
自動端點選擇機制

支援功能

  • 自動端點選擇
  • 智慧超時控制
  • 完整錯誤處理
  • 多模型支援GPT-OSS、DeepSeek、Qwen

八、技術細節

使用 OpenAI SDK

from openai import OpenAI

client = OpenAI(
    api_key="你的金鑰",
    base_url="API端點URL"
)

使用 requests 庫

import requests

headers = {
    "Authorization": "Bearer 你的金鑰",
    "Content-Type": "application/json"
}

data = {
    "model": "gpt-oss-120b",
    "messages": [{"role": "user", "content": "你好"}],
    "temperature": 0.7,
    "max_tokens": 200
}

response = requests.post(
    "API端點URL/chat/completions",
    headers=headers,
    json=data
)

九、建議使用方式

  1. 開發測試:使用內網端點(速度快、穩定)
  2. 生產環境:配置多個端點自動切換
  3. 對話應用:使用 llama_full_api.py
  4. API 整合:參考 quick_test.py 的實現

最後更新2025-09-19
測試環境Windows / Python 3.13