2026年3月7日 星期六

用Ollama的離線模型來跑AI Agent

前陣子在逛Ollama的模型庫時,發現了有幾個模型的Ollama範例指令變了。
從最早單純的ollama run qwen3.5這種
變成了ollama launch claude --model=qwen3.5這種樣式
本來有點不以為意
後來因為接觸到claude code後,才驚覺這是用離線模型跑claude code的指令
然後才開始鑽研要怎麼使用

先說結論,現階段在claude code上用離線模型根本就是災難
連最基本的調用工具寫出檔案都有問題,根本連可用都稱不上
不過途中不死心,又找了其它幾套工具來使用
所以標題才會打上AI Agent,而不單指claude code
最後是勉強找到一套可以在公司電腦上運作的組合
就在此做個小記錄並分享一下
以下就進入詳細內容

2026年2月27日 星期五

用LLAMA.CPP來跑離線模型與應用

在去年接觸了Ollama之後
它就成為了我離線LLM的主要應用來源
安裝與使用簡易是最大的優點
包含後來更易用的視窗對話功能,可以隨選模型
外加直接拖拉檔案進行上傳,而不是在命令列貼上檔案來源就是超方便的
然後我也靠著ollama本身就有的python支援
寫了一個簡易的翻譯用工具,協助我日常工作上的文件處理

不過好用歸好用
當我整理硬碟,發現它現在本體不含模型就佔了5GB之後
真的有點嚇到,怎麼這麼肥?
換言之,如果只是要拿來翻譯工具進行簡單的翻譯應用
不含模型就是先吃掉5GB去了
當然我用的不只這些,還有加減試很多東西
所以還會繼續使用Ollama
只是這容量對我弄出來的翻譯工具要移殖給他人用來說,阻力太強了

問了AI,給了解套方案,要用llama.cpp
https://github.com/ggml-org/llama.cpp

2026年1月11日 星期日

在樹莓派1代上架設使用WSS連線的BBS站(MapleBBS-itoc)

想想上一篇熟悉的MapleBBS沒搞出來實在有點可惜
所以在上一次失敗後,還是有慢慢地在試
終於在最近得到了完整的解法
這版本建置過程的完善度真是輸夢之大地太多了,畢竟太舊了
不過舊也有舊的好處,比較熟悉所以感覺好上手多了
兩個版本要選,我是會選這個MapleBBS 3.10 itoc版

以下我會針對這版本遇到的問題儘量簡短一一說明
然後因為要修改的東西太多了
會提供一個可以一口氣修改所有Makefile用的prepare.sh
這檔案把前置工作搞定後
接下來就可以套用原本的安裝程序進行輕鬆且完整的安裝
那麼開始啦

2026年1月3日 星期六

在樹莓派1代上架設使用WSS連線的BBS站(使用DreamBBS)

在2026新年第一篇PO這篇真的蠻瘋的
不過蠻懷念也蠻有趣的
總之在與Gemini進行對話時
標題這念頭就像突然被電波打到一樣
出現在我的腦中
稍稍想想,可行性應該是有的
就向Gemini繼續詢問其可行性後
以玩樂性質執行下去

這次使用夢之大地版本架設