aken1023 390a8cc7f7 移除不存在的備用端點
變更內容:
- 從 llama_chat.py 移除備用端點配置
- 從 llama_full_api.py 移除備用端點配置
- 簡化端點測試邏輯
- 更新所有文檔移除備用端點說明
- 專注於實際存在的三個端點:
  * https://llama.theaken.com/v1
  * https://llama.theaken.com/v1/gpt-oss-120b
  * https://llama.theaken.com/v1/deepseek-r1-671b

程式結構更清晰,移除虛假的備用選項。
2025-09-19 22:09:15 +08:00
2025-09-19 21:42:26 +08:00
2025-09-19 22:09:15 +08:00
2025-09-19 22:04:10 +08:00
2025-09-19 22:09:15 +08:00
2025-09-19 22:09:15 +08:00

Llama AI 對話程式

一個簡單易用的 Python 程式,用於連接和使用 Llama AI 模型進行對話。

🌟 主要功能

  • 支援多端點連接 - 自動偵測可用的 API 端點
  • 💬 互動式對話介面 - 像聊天一樣與 AI 對話
  • 🤖 多模型支援 - GPT-OSS、DeepSeek、Qwen 等多種模型
  • 🔄 自動端點選擇 - 自動測試並選擇可用端點
  • 🧹 智慧清理回應 - 自動移除 AI 思考過程的標記
  • 📝 對話歷史管理 - 保持上下文連貫的對話

🚀 快速開始

1. 安裝需求

確保你的電腦已安裝 Python 3.7 或更新版本。

# 安裝必要套件
pip install openai

2. 下載程式

# 複製專案
git clone https://gitea.theaken.com/aken1023/pj_llama.git
cd pj_llama

# 或直接下載 ZIP 檔案解壓縮

3. 執行對話程式

# 執行主程式(智慧對話)
python llama_chat.py

# 或執行完整版本(支援多端點)
python llama_full_api.py

📖 使用說明

基本對話

執行程式後,會出現以下畫面:

============================================================
Llama API 完整對話程式
時間: 2025-09-19 16:00:00
============================================================

[主要端點測試]
  測試 Llama 通用端點... [OK]
  測試 GPT-OSS 專用端點... [OK]
  測試 DeepSeek 專用端點... [OK]

找到 3 個可用端點,請選擇 (預設: 1): 

選擇端點後即可開始對話:

你: 你好
AI: 你好!有什麼我可以幫助你的嗎?

你: 1+1等於多少
AI: 1+1等於2。

對話指令

在對話中可以使用以下指令:

指令 功能
exitquit 結束對話
clear 清空對話歷史,開始新對話
model 切換使用的 AI 模型

🔧 程式檔案說明

檔案名稱 用途說明
llama_chat.py 主程式 - 智慧對話程式
llama_full_api.py 完整功能版本,支援多端點切換
quick_test.py 快速測試連接是否正常
test_all_models.py 測試所有模型的工具

🌐 可用的 API 端點

可用端點

端點 地址 支援模型
通用端點 https://llama.theaken.com/v1 所有模型
GPT-OSS 專用 https://llama.theaken.com/v1/gpt-oss-120b GPT-OSS-120B
DeepSeek 專用 https://llama.theaken.com/v1/deepseek-r1-671b DeepSeek-R1-671B

🤖 支援的 AI 模型

  1. GPT-OSS-120B - 開源 GPT 模型1200 億參數
  2. DeepSeek-R1-671B - DeepSeek 推理模型6710 億參數
  3. Qwen3-Embedding-8B - 通義千問嵌入模型80 億參數

常見問題

問題:程式顯示「無法連接」

解決方法:

  1. 檢查網路連接是否正常
  2. 確認可以訪問外部網站 (https://llama.theaken.com)
  3. 嘗試執行 python quick_test.py 測試連接
  4. 程式會自動測試所有端點並選擇可用的

問題AI 回應包含奇怪的標記

說明: 有時 AI 回應會包含 <think><|channel|> 等標記,這是 AI 的思考過程,程式會自動清理這些內容。

問題:對話不連貫

解決方法: 使用 clear 指令清空對話歷史,開始新的對話。

📝 簡單範例程式碼

如果你想在自己的程式中使用,可以參考以下程式碼:

from openai import OpenAI

# 設定連接
client = OpenAI(
    api_key="paVrIT+XU1NhwCAOb0X4aYi75QKogK5YNMGvQF1dCyo=",
    base_url="https://llama.theaken.com/v1"
)

# 發送訊息
response = client.chat.completions.create(
    model="gpt-oss-120b",
    messages=[
        {"role": "user", "content": "你好"}
    ]
)

# 顯示回應
print(response.choices[0].message.content)

🛠️ 進階設定

修改 API 金鑰

如果需要使用不同的 API 金鑰,編輯程式中的:

API_KEY = "你的新金鑰"

新增端點

llama_full_api.py 中的 ENDPOINTS 加入新端點:

ENDPOINTS = [
    {
        "name": "新端點",
        "url": "https://新的地址/v1",
        "models": ["gpt-oss-120b"]
    }
]

📄 授權條款

本專案採用 MIT 授權條款,可自由使用、修改和分發。

🤝 問題回報

如果遇到問題或有建議,歡迎在 Gitea 上開 Issue https://gitea.theaken.com/aken1023/pj_llama/issues

📊 測試狀態

最後測試時間2025-09-19

  • 📡 API 端點:正在測試中
  • 🔄 自動選擇:程式會自動選擇可用的端點

版本: 1.0.0
作者: Aken
專案網址: https://gitea.theaken.com/aken1023/pj_llama

Description
lllama_example
Readme MIT 94 KiB
Languages
Python 100%