5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

Why?

OCR(又叫光学字符识别)已经成为Python的一个常用工具。随着开源库Tesseract和Ocrad的出现,越来越多的程序员用OCR来编写自己的库文件和bot病毒。一个OCR的小例子,如用OCR直接从截图中提取文本,省去了重新键入的麻烦。

本文福利:私信回复【PDF】可获取python电子书一套

开始的步骤

开始之前,我们需要开发一个后端服务层来表示OCR引擎的结果。这样你就可以用你喜欢的方式来向端用户表示你的结果。本文之后将会详细介绍。除此之外,我们还需要添加一点后端代码来生成HTML表格,以及一些使用这些API的前段代码。这部分本文没有讲,但是你可以参阅源代码。

准备好开始吧!

首先,需要安装一些依赖项。这个过程也是非常有趣的。

本文已经在Ubuntu 14.04测试,但是12.x和13.x版本应该也可以。如果你用的是OSX系统,可以用VirtualBox,Docker(注意检查有没有包含Dockerfile和install guide),或者是DigitalOcean(推荐使用)来创建相应的环境。

下载依赖项

我们需要Tesseract及其所有依赖项,包括Leptonica及其他相关的包。

注意:可以用_run.sh这个shell脚本来快速安装Leptonica和Tesseract的依赖包。如果这么做的话,可以直接跳到搭建Web服务器(跳转链接)部分。但是为了学习,如果你以前没有亲手构建过库文件的话,还是建议尝试一下。

5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

发生了什么?

简单说,sudo apt-get update意思就是更新包列表。然后就能安装一些图像处理的包,如libtiff,libpng等等。除此之外,我们还需要安装Python 2.7,作为我们的编程语言,以及python-imaging库。

说起图像,在将程序里面编辑图像之前我们还需要ImageMagick包。

$ sudo apt-get install imagemagick
# **构建Leptonica和Tesseract**

再说一遍,如果你用_run.sh脚本已经安装过,就可以直接跳到搭建Web服务器(跳转链接)部分。

Leptonica

现在,开始安装Leptonica。

5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

如果这是你第一次用tar的话,按照如下步骤操作:

1. 用wget下载Leptonica的二进制文件

2. 解压

3. 用cd进入解压后的文件夹

4. 运行autobuild和configure脚本安装

5. 执行make命令build

6. Build后安装

7. 执行ldconfig创建相关的链接

OK,Leptonica创建好了,接下来就是Tesseract了。

Tesseract

现在下载并安装Tesseract吧。

5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

此处构建了一个Leptonica的映像,这部分的详细信息参考Leptonica的解释。

环境变量

我们需要设置一个环境变量来访问Tesseract数据:

$ export TESSDATA_PREFIX=/usr/local/share/

Tesseract包

最后安装一下Tesseract相关的语言包:

5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

OK,Tesseract也安装好了,可以CLI来测试一下。更多的信息可以参考docs(超链接)。但是,我们还需要一个Python环境。所以,接下来安装一个能够接受以下两种请求的Flask服务器:

1. 接受图像URL

2. 能够对图像进行字符识别

搭建Web服务器

最有趣的事情来了!首先,我们需要构建一种通过Python和Tesseract交互的方式。我们可以使用popen,但是那不是python的风格。所以,我们可以使用一个非常小但是功能非常强大的Python包将Tesseract封装起来——pytesseract(超链接)。

想要快点的话,就运行_app.sh脚本,否则,点击这里(超链接)获取代码/结构的模板,然后运行一下命令:

5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

注意:Flask模板(有Real Python(超链接)维护)是一个获取简单的具有Python风格的服务器的非常棒的库。本文将它用来作为基本程序。点击这里(超链接)获取更多信息。

安装OCR引擎

现在,我们需要用pytesseract来创建一个类来读取图片。在flask_server目录下创建一个新的文件ocr.py,写入如下代码:

5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

非常好!

主方法process_image()的功能是锐化图像文本。

现在,这个模块已经可以用了。

可选项:为你的OCR引擎创建一个CLI工具

做了这么多繁琐配置工作,让我们来创建一个CLI工具来调节一下心情吧。在flask_server目录下创建一个新的文件cli.py,写入如下代码:

5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

非常简单。之后我们就能看到从我们的OCR引擎中输出到标准输出STDOUT上的文本了。执行python flask_server/cli.py来试一下吧。

回到服务器

既然我们已经安装好了OCR引擎,接下来该准备输出了。讲下面的代码加入到

app.py文件:

5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

确保引入的下列包是最新的:

5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

最后,添加一行API版本号:

_VERSION = 1 # API version

从代码中可以看到,我们以PIL中Image文件对象的方式把JSON的响应传入引擎的process_image()方法中。并且,就目前而言,它只支持.jpg图片。

注意:如果PIL包没有安装的话,可以用Pillow包来代替。PIL有一些问题还没有解决,Python社区对它的看法也不统一,详细情况可以自行Google。

测试

运行你的程序:

5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

然后,在另外一个终端运行:

$ curl -X POST http://localhost:5000/v1/ocr -d '{"image_url": "some_url"}' -H "Content-Type: application/json"

例子

5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

前端

现在后端OCR引擎的API已经准备好了,我们可以增加一个基本的前端来使用这些API,并将结果通过AJAX和jQuery添加到DOM中。这部分内容本文就不讲了,详见这里(超链接)。

5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

用下面的样本来测试一下:

5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

总结

希望大家喜欢照片教程。

最后,想学习Python的小伙伴们!

请关注+私信回复:“学习”就可以拿到一份我为大家准备的Python学习资料!

5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

pytyhon学习资料

5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

python学习资料

相关推荐