2025年12月28日 星期日

[Automation-tool]如何將ollama cloud 服務導入n8n工作流?

 

自從Google Gemini API被大幅度降低免費額度後,結合Gemini的n8n工作流使用起來有開始綁手綁腳,以LINE聊天機器人為使用場景,主要受限在於每日的請求數大幅下降,若以每日自動派送特定產業新聞的n8n工作流為使用場景,主要受制於每分鐘的請求數不夠使用。替代方案除了知名的OpenRouter之外,還有Ollama Cloud可供參考。本文以Ollama Cloud為主軸,包含定位,取得Device Key的方式和如何導入n8n工作流中等等內容,過程相當容易,讓n8n愛好者可無痛轉換。

Ollama Cloud定位:

Ollama Cloud是Ollama官方提供的雲端算力資源。當筆電的GPU記憶體不足以運行太大的語言模型(如 deepseek-v3:671b-cloud)時,其可將運算任務交給雲端Data Center等級的硬體,但使用介面依然是熟悉的本地終端機或Ollama App。換言之,其定位為本地端Ollama的運算延伸雲端平台,讓硬體裝置不夠強的本地端裝置也能藉由API運行大型開源語言模型。目前Ollama官方推出的是preview方案,不需要先行儲值和綁定信用卡其可使用,同時官網也未明確說明免費額度的計算方式,只有顯示每小時和每周的使用進度條狀態,如下圖一,建議可搭配既有工作流和服務來測試和監看進度條狀態,以取得使用的經驗值。

圖一、Ollama Cloud 使用進度條狀態
圖一、Ollama Cloud 使用進度條狀態


取得Device Key的方式:

1.要使用Ollama Cloud的服務,須先到Ollama官網註冊,如下圖二。

圖二、註冊Ollama Cloud服務
圖二、註冊Ollama Cloud服務

2.因本文是利用docker安裝Ollama,當申請Ollama帳號後,回到終端命令列中,在docker中的Ollama容器中,運行ollama signin指令即可取得device連結網址,指令如下。最後將device連結網址貼到瀏覽器後,其即跳轉到device key頁面中,同時看到ssh金鑰已被建立。

sudo docker exec -it ollama ollama signin

圖三、取得Device key
圖三、取得Device key

3.接著到Ollama model網頁中查詢哪些模型帶有cloud標籤,即是屬於Ollama Cloud服務範疇,本文選用qwen3-next:80b-cloud,以下列指令拉取和運行,建議測試其在終端命令列可運作正常,再進一步串接到n8n工作流。

sudo docker exec -it ollama ollama run qwen3-next:80b-cloud


將Ollama Cloud導入n8n工作流:

以LINE聊天機器人為例,建立webhook、AI agent、LINE和Ollama Chat Model等等節點,填入架設Ollama服務的主機ip和port資訊,並選擇上述拉取的雲端模型qwen3-next:80b-cloud,即可使用。


圖四、輸入ollama容器主機資訊
圖四、輸入ollama容器主機資訊


圖五、選擇ollama cloud 模型
圖五、選擇ollama cloud 模型

沒有留言:

張貼留言