ollama部署Qwen2.5

    ollama部署Qwen2.5

    yunxin 2025-03-30 凈化水設備 21 次瀏覽 0個評論

    前言

    2024年9月18日阿里開源了Qwen2.5一系列模型,及專門針對編程的 Qwen2.5-Coder 和數(shù)學的 Qwen2.5-Math 模型。所有開放權重的模型都是稠密的、decoder-only的語言模型,提供多種不同規(guī)模的版本,包括:

      除了3B和72B的版本外,Qwen2.5所有的開源模型都采用了 Apache 2.0 許可證。您可以在相應的模型倉庫中找到許可證文件。此外,本次通義千問團隊還開源了性能不輸于GPT-4o的 Qwen2-VL-72B

      具有以下特點:

        ollama 官方也第一時間升級支持Qwen2.5 0.5B 、1.5B 、7B 、32B、72B 模型

        下面我們就以7B模型給大家部署和演示以下Qwen2.5 模型到底怎么樣。

        ollama 版本升級

        ? 首先我們需要將本地ollama 升級到 最新版本v0.3.11 以便更好的支持最新的模型,我們從ollama 最新版本升級說明也可以看到本次版本對Qwen2.5 模型的支持

        ? 下載ollama 最新v0.3.11 版本(我們就以windows 版本為案例介紹)

        ?將下載的OllamaSetup.exe 下載到本地。

        檢查本地ollama

        ? 在安裝ollama 之前我們先檢查一下ollama ?本地環(huán)境的版本.windows cmd窗口中輸入

        ? ollama -v

        ? ?顯示是0.3.10 版本

        安裝ollama

        ?將剛才下載的OllamaSetup.exe 雙擊安裝。這個安裝比較簡單,這里就不詳細展開。

        模型下載

        接下來我們下載最新的qwen2.5 7B instruct模型

        我們在windows cmd窗口中輸入

        ollama pull qwen2.5:7b-instruct

        等待模型下載,下載的模型速度取決您的網(wǎng)絡速度。

        使用

        使用ollama 命令行窗口推理

        ? ? 啟動模型

        ollama run qwen2.5:7b-instruct

        ?模型啟動完成,這樣我們就可以實現(xiàn)模型推理了。

        我們查看顯卡,qwen2.5:7b-instruct 默認4B量化的模型大概占用 4.7GB顯存 推理速度也還可以。

        使用第三方chatbox 來實現(xiàn)推理

        ? ? ? ? ? 下載chatbox ?套殼軟件。 https://chatboxai.app/zh

        ? ? ? 下載好chatbox ?配置一下ollama

        ?點擊保存后,完成chatbox 設置

        ? 我找?guī)讉€有點難度的問題。

        回答正確,沒有翻車。

        ? 我們的問題 :

        ? 同源結(jié)構(gòu)經(jīng)常被引用作為自然選擇過程的證據(jù)。以下所有的結(jié)構(gòu)都是同源結(jié)構(gòu),除了 (A) 鳥的翅膀和蝙蝠的翅膀 (B) 鯨魚的鰭和人的手臂 (C) 海豚的胸鰭和海豹的鰭 (D) 昆蟲的前腿和狗的前肢

        ? ?回答的是正確的。

        總結(jié)

        ? ? ? 目前我們使用ollama ?提供的qwen2.5:7b-instruct ?(4B量化)模型在 4060顯卡上推理使用起來還是非常方便了,準確性和推理速度都可以滿足我們市場對模型使用。由于時間關系我這里就沒做詳細展開,據(jù)說它也是支持funcation call ?功能。下期我們分享和其他工具的組合使用,今天分享就到這里,感興趣小伙伴可以留言、點贊、收藏加關注。

        ollama部署Qwen2.5

        轉(zhuǎn)載請注明來自青島峻峰水處理設備有限公司,本文標題:《ollama部署Qwen2.5》

        百度分享代碼,如果開啟HTTPS請參考李洋個人博客
        每一天,每一秒,你所做的決定都會改變你的人生!
        Top