最近網友推薦一個新的漫畫翻譯器叫Koharu
GitHub - mayocream/koharu: ML-powered manga translator, written in Rust. · GitHub
在Manga-Image-Translator搞定後,終於有空試著玩玩看
這真的有驚豔到我,不但安裝簡易,幾乎不用佈署什麼環境
而且看這簡單易懂的操作介面,還是全繁體中文的
稍稍試一下,連說明書都不用看就用到那邊去
超棒的
這一定要推一下
單車、機車、遊玩與ACG小記 附加:Ogre程式小心得
最近網友推薦一個新的漫畫翻譯器叫Koharu
GitHub - mayocream/koharu: ML-powered manga translator, written in Rust. · GitHub
在Manga-Image-Translator搞定後,終於有空試著玩玩看
這真的有驚豔到我,不但安裝簡易,幾乎不用佈署什麼環境
而且看這簡單易懂的操作介面,還是全繁體中文的
稍稍試一下,連說明書都不用看就用到那邊去
超棒的
這一定要推一下
去年學著使用Manga-Imgae-Translator
雖然已經玩到要改程式這步了,但玩完後就沒在使用了
主要還是沒有明確要使用的目標
就沒有什麼動力了
今年有了個目標,就重開要來好好用用
然後對程式的修改就越改越多了...........................................
前陣子在逛Ollama的模型庫時,發現了有幾個模型的Ollama範例指令變了。
從最早單純的ollama run qwen3.5這種
變成了ollama launch claude --model=qwen3.5這種樣式
本來有點不以為意
後來因為接觸到claude code後,才驚覺這是用離線模型跑claude code的指令
然後才開始鑽研要怎麼使用
先說結論,現階段在claude code上用離線模型根本就是災難
連最基本的調用工具寫出檔案都有問題,根本連可用都稱不上
不過途中不死心,又找了其它幾套工具來使用
所以標題才會打上AI Agent,而不單指claude code
最後是勉強找到一套可以在公司電腦上運作的組合
就在此做個小記錄並分享一下
以下就進入詳細內容
在去年接觸了Ollama之後
它就成為了我離線LLM的主要應用來源
安裝與使用簡易是最大的優點
包含後來更易用的視窗對話功能,可以隨選模型
外加直接拖拉檔案進行上傳,而不是在命令列貼上檔案來源就是超方便的
然後我也靠著ollama本身就有的python支援
寫了一個簡易的翻譯用工具,協助我日常工作上的文件處理
不過好用歸好用
當我整理硬碟,發現它現在本體不含模型就佔了5GB之後
真的有點嚇到,怎麼這麼肥?
換言之,如果只是要拿來翻譯工具進行簡單的翻譯應用
不含模型就是先吃掉5GB去了
當然我用的不只這些,還有加減試很多東西
所以還會繼續使用Ollama
只是這容量對我弄出來的翻譯工具要移殖給他人用來說,阻力太強了
問了AI,給了解套方案,要用llama.cpp
https://github.com/ggml-org/llama.cpp
想想上一篇熟悉的MapleBBS沒搞出來實在有點可惜
所以在上一次失敗後,還是有慢慢地在試
終於在最近得到了完整的解法
這版本建置過程的完善度真是輸夢之大地太多了,畢竟太舊了
不過舊也有舊的好處,比較熟悉所以感覺好上手多了
兩個版本要選,我是會選這個MapleBBS 3.10 itoc版
以下我會針對這版本遇到的問題儘量簡短一一說明
然後因為要修改的東西太多了
會提供一個可以一口氣修改所有Makefile用的prepare.sh
這檔案把前置工作搞定後
接下來就可以套用原本的安裝程序進行輕鬆且完整的安裝
那麼開始啦
在2026新年第一篇PO這篇真的蠻瘋的
不過蠻懷念也蠻有趣的
總之在與Gemini進行對話時
標題這念頭就像突然被電波打到一樣
出現在我的腦中
稍稍想想,可行性應該是有的
就向Gemini繼續詢問其可行性後
以玩樂性質執行下去
![]() |
| 這次使用夢之大地版本架設 |
時間過得好快
又到了年末
回顧一下去年這篇的計畫
吉他學習今年(2024)回顧
今年只能說失敗了
立下四首目標只完成了兩首
................
其實從Blog上文章狀況也能理解
AI太好玩了
大部分的心力投注在AI應用上了
自然留給吉他學習的部分就變少了
想玩的東西太多了,時間要是可以再多一點就好了
今年沒依計畫達標還是要好好回顧一下成果
還有設立明年的目標
期待明年可以練更多想彈的曲目