今天朋友说需要对100份 word 文件的内容进行录入工作,问我是否有什么方便的方法。假如最少1份按2分钟的速度算,也需要200分钟才可以录入完成。我一直都不喜欢做重复又无意义的工作,就想着能否用程序来对其进行处理,后面虽然也花了快一个钟的时间来编写代码和测试,但是当程序用了几分钟的时间就将需要的内容全部录入完成时,觉得还是挺开心的,而自己也学到了许多的东西,在这里记录下,我想以后应该也会用到。
使用 unoconv 处理 word
首先 word 文件是 .docx
,在 Ubuntu 上,我们可以使用 unoconv
命令来解析 word 的文件,安装命令如下:
1
|
sudo apt-get install unoconv
|
通过 --help
,我们可以知道 unoconv
的用法如下:
1
|
unoconv --stdout --format=html ./docx/test.docx |
解析 test.docx
文件的内容,设置格式为 html,并且输出到标准输出中。
使用 shelljs 运行 shell 命令
这里使用的是熟悉的 nodejs 进行开发,而运行 shell 命令我使用的是 shelljs。
安装:
使用:
1
2
3
4
5
6
7
|
shelljs.exec('unoconv --stdout --format=html ./docx/test.docx', {silent: true}, function (code, result) {
if (code) {
console.log('Error code: ' + code);
return;
}
console.log(result);
});
|
到这里已经可以将 word 的内容输出到 console 中了。
使用 jQuery 解析 html 内容
可以看到输入的内容为 html 代码,我们需要对其进行处理,这里使用的是熟悉的 jQuery。
安装:
1
2
|
npm install -S 'jquery@>=2.1'
npm install -S 'jsdom@latest'
|
关键代码:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
|
env(data, function (errors, window) {
var $ = require('jquery')(window);
$('p').each(function (i) {
var text = $.trim($(this).text());
// 这里一行一行读取文本,可以根据需要自己解析文本
});
$('img').each(function (i) {
var matches = $(this).attr('src').match(/^data:image\/([A-Za-z]+);base64,(.+)$/);
if (matches.length !== 3) {
return new Error('Invalid input string');
}
var type = matches[1]; // 图片的类型
var data = new Buffer(matches[2], 'base64');
fs.writeFile('./images/' + i + '.jpg', data);
// 将图片保存到 images 中,可以根据需要生成不同的名称
});
});
|
使用 async 批量读取 word 文件
假如直接使用 forEach 的话会导致内存溢出,所以我们需要对每个文件进行排队处理,这里使用 async。
安装:
使用:
1
2
3
4
5
6
7
8
9
|
fs.readdir('./docx', function (err, files) {
async.eachSeries(files, parse, function () {
console.log('OK!!!');
});
});
function parse(file, callback) {
// 处理 file,完成之后调用 callback
}
|
搞定!!!当然这里只是简单的记录了大概的思路和代码,实际上需要根据不同的需要做对应的处理。