不用 GPU 搭建一个漫画自动翻译网站
不用 GPU 搭建一个漫画自动翻译网站
简介
最近因为看《我心里危险的东西》和《放学后失眠的你》然后因为太喜欢了就去看漫画了,后来又一发不可收拾就去追更漫画了。还追了一部没找到熟肉的条漫。条漫是英语还好,我自己虽然只是四级水平的英语能力,但是可以勉强能看懂台词,实在看不懂的可以去直接各个翻译平台就行了。但是日漫还有一些本子来说说,我完全不认识日文,想去平台翻译也不太好翻译。因为漫画不是小说,文字都是图片形式的,自己去做 OCR 识别再去翻译属实是折磨中的折磨。因此我就到处找能用的软件 /平台终于让我找到了这个程序。试用了一下就觉得这就是我要的。
这个项目就是: https://github.com/zyddnys/manga-image-translator
硬件需求
理论上来说还是推荐大家使用 GPU 服务器提供服务,这样速度会更快。还有就是推荐用海外平台。主要是为了方便用一些海外服务商的翻译服务。当然,也可以国内直接搭建,家用电脑也可以。
我们这里用的是
腾讯云的硅谷轻量服务器( 2C2G )
说回项目本身。硬件配置 2C2G 其实是有些低的,但是我也只是需要最小可用即可。因为这是为我自己个人使用而搭建的,没有正式商业化的打算。如果你需要的是商业化或者说开放给大家使用的话那么推荐可以考虑购买活动主场的新老同享区的 GPU 计算型 GN7 服务器,推荐年付。服务器价格只有平时的三折,对于 GPU 服务器来说每月只需 798 还是很划算的。
购买时镜像可以选择 Debian 或者是 linux 宝塔
环境配置
方面主要是 python 环境推荐 3.8 及以上版本。
可以通过 python --version 进行查看默认版本号。如果遇到提示版本号 2.7 或者提示下图的
python:command not found 可以尝试使用
确定 python3 版本符合要求之后我们还需要进行额外的一步操作,让 linux 系统下的默认的 python 命令绑定到 python3 上。
1 、如果你的系统只有 python3:
1.1 首先,确认已安装的 Python3 版本和其安装路径。可以通过以下命令查找 Python3 的安装路径:
1.2 假设 Python3 的路径为 /usr/bin/python3(如果实际路径不同,请将以下步骤中的路径更改为实际路径),你可以运行以下命令将 Python3 添加为系统的可选择 Python 版本:
这个命令的意思是,将 /usr/bin/python3 作为可供选择的 Python 版本,并为它设置优先级为 1 。
1.3 运行以下命令,你可以看到所有可供选择的 Python 版本:
在出现的列表中,选择 Python3 作为默认版本。
2 、同时有 python2 ,python3
还是一样的操作
然后,你需要使用 update-alternatives 命令将两个版本的 Python 添加到可选项中。你可以给它们设置一个优先级,数值越大,优先级越高。在这个例子中,我们将给 Python3 设置更高的优先级,使其成为默认版本:
最后再选择 python3 版本的作为默认版本即可
项目搭建
接下来就是重头戏了。
添加 swap
首先给你的服务器添加 swap 。因为这个项目还是比较吃内存的,我个人推荐内存 +swap 最好大于 8GB 。这里我添加了 8GB 的 swap
按照以下的命令一次复制粘贴执行即可
项目配置
首先我们需要编译安装 pydensecrf,注意一定要先安装这个,不然可能会导致奇奇怪怪的问题
这个速度可能会有点慢,稍微等几分钟就行。
再拉取项目仓库:
安装依赖:
等依赖安装的过程之中我们可以先看下面的操作。
防火墙设置
项目可以命令行运行也可以 web 运行,我们时需要 web 服务,方便在线访问的。项目 web 模式会默认运行在 5003 端口,所以我们需要先去服务器控制台进行端口开放,如果使用了宝塔服务器还需要去宝塔后台同样进行操作。
腾讯云轻量服务器控制台: https://console.cloud.tencent.com/lighthouse/instance
选择项目服务器,点击防火墙
开放 5003 端口协议选 tcp
宝塔面板开放端口,操作都是类似的,但是宝塔强制要求备注
防火墙设置完成之后,项目依赖应该也已经完成了。
项目运行
我们是 CPU 服务器,需要提供 web 在线服务。
所以我们可以直接用命令行命令,如果是腾讯云的 GPU 服务器,在初始化的时候会自动安装 cuda ,运行命令也只需要加上 --use-cuda 就可以了
这时候你可以直接在宝塔面板设置反向代理就可以通过域名访问了
如果你不需要域名,要直接通过 IP: 端口来访问,还需要给命令指定 host 才行,否则无法访问公网 IP: 端口,内网 IP 可在服务器控制台查看,也可以通过 ifconfig 命令查看一般都是 eth0 的 ip
这样就可以直接在公网通过公网 ip:5003 来访问 web 服务了。
我个人偏向于使用离线翻译节约成本,需要其他翻译器的可以查看官方文档添加 api key 。
翻译器列表:
我用的是 m2m100_big 。
首次运行会下载对应翻译模型,OCR 包等大文件
你可以下载对应文件然后上传到对应目录,也可以先看一下是需要下哪些文件 , 可以提前下好
下载文件都是 github 文件,所以都可以通过加速链接下载源文件到指定文件夹
加速下载方式:
然后就可以看到项目运行了
整个工作流流程大概分为以下几个:
上传图片 ——ocr 提取原文 —— 翻译 —— 重新绘图 —— 返回图片
其中可能涉及到分辨率放大处理之类的
下面是我的测试效果:
原图
完成图

我对这个效果还是很满意的。
批量翻译
批量翻译只支持命令行翻译
命令行翻译单一图片
批量翻译只要加上 --mode batch 就可以了
web 服务持续运行
这里推荐两种方法:screen 和 nohup
1 、screen
screen -R manga
然后在直接运行 web 服务命令即可。CTRL + A ,CTRL + D 让这个 shell 窗口挂载运行。
下次需要进入这个窗口可以再次输入 screen -R manga
进入
2 、nohup
这个命令作用是把所有日志都输出到 output.log 中,最后的 & 表示让这个命令在后台运行
其他
目前在线翻译上用油猴脚本配合 CORS 插件可以实现最小可用了。 脚本有需要的可以在我的博客找到