從月初的0.41版開始使用
現在已經一口氣改版到0.55版了
基本的操作介面並沒有什麼大改
所以上一篇操作說明的部分就不改動
但是關於LLM的部分算是一路大修到現在
所以這篇算是LLM功能的補充攻略
黑龍的單車與ACG誌
單車、機車、遊玩與ACG小記 附加:Ogre程式小心得
2026年4月30日 星期四
漫畫翻譯軟體Koharu的LLM使用補充說明
2026年4月25日 星期六
又又又重灌樹莓派1代啦
最近好像一年來一次啊
不過這次也沒辦法
某天發現樹莓派1的網站連不進去
本想說又是週期性當機啦
然後拔電重插數次都沒反應
接上螢幕,最後一行出現
end Kernel panic -- not syncing: VFS: unable to mount root fs on unknown block(179,2)
Kernel panic,這看來就非常不妙,後面的理由就是無法載入root的fs(檔案系統)
斷電,把SD卡拿到其它台樹莓派讀也看不到EXT4的磁碟槽
這張SD卡確定掛點了
這是跟這台1代B版樹莓派一起購入的卡片
經過多年的使用與重灌
加上今年初多次刪除並重灌BBS的摧殘後
把到用到掛點了
感謝它多年的工作,該淘汰了
2026年4月4日 星期六
新的漫畫翻譯器Koharu
最近網友推薦一個新的漫畫翻譯器叫Koharu
GitHub - mayocream/koharu: ML-powered manga translator, written in Rust. · GitHub
在Manga-Image-Translator搞定後,終於有空試著玩玩看
這真的有驚豔到我,不但安裝簡易,幾乎不用佈署什麼環境
而且看這簡單易懂的操作介面,還是全繁體中文的
稍稍試一下,連說明書都不用看就用到那邊去
超棒的
這一定要推一下
2026年3月29日 星期日
再戰manga-image-translator
去年學著使用Manga-Imgae-Translator
雖然已經玩到要改程式這步了,但玩完後就沒在使用了
主要還是沒有明確要使用的目標
就沒有什麼動力了
今年有了個目標,就重開要來好好用用
然後對程式的修改就越改越多了...........................................
2026年3月7日 星期六
用Ollama的離線模型來跑AI Agent
前陣子在逛Ollama的模型庫時,發現了有幾個模型的Ollama範例指令變了。
從最早單純的ollama run qwen3.5這種
變成了ollama launch claude --model=qwen3.5這種樣式
本來有點不以為意
後來因為接觸到claude code後,才驚覺這是用離線模型跑claude code的指令
然後才開始鑽研要怎麼使用
先說結論,現階段在claude code上用離線模型根本就是災難
連最基本的調用工具寫出檔案都有問題,根本連可用都稱不上
不過途中不死心,又找了其它幾套工具來使用
所以標題才會打上AI Agent,而不單指claude code
最後是勉強找到一套可以在公司電腦上運作的組合
就在此做個小記錄並分享一下
以下就進入詳細內容
2026年2月27日 星期五
用LLAMA.CPP來跑離線模型與應用
在去年接觸了Ollama之後
它就成為了我離線LLM的主要應用來源
安裝與使用簡易是最大的優點
包含後來更易用的視窗對話功能,可以隨選模型
外加直接拖拉檔案進行上傳,而不是在命令列貼上檔案來源就是超方便的
然後我也靠著ollama本身就有的python支援
寫了一個簡易的翻譯用工具,協助我日常工作上的文件處理
不過好用歸好用
當我整理硬碟,發現它現在本體不含模型就佔了5GB之後
真的有點嚇到,怎麼這麼肥?
換言之,如果只是要拿來翻譯工具進行簡單的翻譯應用
不含模型就是先吃掉5GB去了
當然我用的不只這些,還有加減試很多東西
所以還會繼續使用Ollama
只是這容量對我弄出來的翻譯工具要移殖給他人用來說,阻力太強了
問了AI,給了解套方案,要用llama.cpp
https://github.com/ggml-org/llama.cpp


