This commit is contained in:
syuilo 2017-09-07 16:15:40 +09:00
parent 1e3f93d68e
commit 9a0a2fdd85
2 changed files with 79 additions and 57 deletions

View file

@ -121,6 +121,7 @@
"is-url": "1.2.2", "is-url": "1.2.2",
"js-yaml": "3.9.1", "js-yaml": "3.9.1",
"mecab-async": "^0.1.0", "mecab-async": "^0.1.0",
"moji": "^0.5.1",
"mongodb": "2.2.31", "mongodb": "2.2.31",
"monk": "6.0.3", "monk": "6.0.3",
"morgan": "1.8.2", "morgan": "1.8.2",

View file

@ -1,8 +1,12 @@
const moji = require('moji');
const MeCab = require('./mecab'); const MeCab = require('./mecab');
import Post from '../../api/models/post'; import Post from '../../api/models/post';
import User from '../../api/models/user'; import User from '../../api/models/user';
import parse from '../../api/common/text'; import parse from '../../api/common/text';
process.on('unhandledRejection', console.dir);
const stopwords = [ const stopwords = [
'ー', 'ー',
@ -16,7 +20,8 @@ const stopwords = [
'ら', 'たり', 'その他', 'に関する', 'たち', 'ます', 'ん', 'なら', 'に対して', '特に', 'ら', 'たり', 'その他', 'に関する', 'たち', 'ます', 'ん', 'なら', 'に対して', '特に',
'せる', '及び', 'これら', 'とき', 'では', 'にて', 'ほか', 'ながら', 'うち', 'そして', 'せる', '及び', 'これら', 'とき', 'では', 'にて', 'ほか', 'ながら', 'うち', 'そして',
'とともに', 'ただし', 'かつて', 'それぞれ', 'または', 'お', 'ほど', 'ものの', 'に対する', 'とともに', 'ただし', 'かつて', 'それぞれ', 'または', 'お', 'ほど', 'ものの', 'に対する',
'ほとんど', 'と共に', 'といった', 'です', 'とも', 'ところ', 'ここ', '感じ', '気持ち', 'ほとんど', 'と共に', 'といった', 'です', 'とも', 'ところ', 'ここ', '感じ', '気持ち',
'あと', '自分',
'about', 'after', 'all', 'also', 'am', 'an', 'and', 'another', 'any', 'are', 'as', 'at', 'be', 'about', 'after', 'all', 'also', 'am', 'an', 'and', 'another', 'any', 'are', 'as', 'at', 'be',
'because', 'been', 'before', 'being', 'between', 'both', 'but', 'by', 'came', 'can', 'because', 'been', 'before', 'being', 'between', 'both', 'but', 'by', 'came', 'can',
@ -47,10 +52,16 @@ function tokenize(text: string) {
const tokens = mecab.parseSync(plain) const tokens = mecab.parseSync(plain)
// キーワードのみ // キーワードのみ
.filter(token => token[1] == '名詞' && (token[2] == '固有名詞' || token[2] == '一般')) .filter(token => token[1] == '名詞' && (token[2] == '固有名詞' || token[2] == '一般'))
// 取り出し // 取り出し(&整形(全角を半角にしたり大文字を小文字で統一したり))
.map(token => token[0].toLowerCase()) .map(token => moji(token[0]).convert('ZE', 'HE').convert('HK', 'ZK').toString().toLowerCase())
// ストップワード // ストップワードなど
.filter(word => stopwords.indexOf(word) === -1 && word.length > 1); .filter(word =>
stopwords.indexOf(word) === -1 &&
word.length > 1 &&
word.indexOf('') === -1 &&
word.indexOf('!') === -1 &&
word.indexOf('') === -1 &&
word.indexOf('?') === -1);
return tokens; return tokens;
} }
@ -65,7 +76,13 @@ User.find({}, {
const x = cb => { const x = cb => {
if (++i == users.length) return cb(); if (++i == users.length) return cb();
extractKeywordsOne(users[i]._id, () => x(cb)); extractKeywordsOne(users[i]._id).then(() => x(cb), err => {
console.error(err);
setTimeout(() => {
i--;
x(cb);
}, 1000);
});
}; };
x(() => { x(() => {
@ -73,61 +90,65 @@ User.find({}, {
}); });
}); });
async function extractKeywordsOne(id, cb) { function extractKeywordsOne(id) {
process.stdout.write(`extracting keywords of ${id} ...`); return new Promise(async (resolve, reject) => {
process.stdout.write(`extracting keywords of ${id} ...`);
// Fetch recent posts // Fetch recent posts
const recentPosts = await Post.find({ const recentPosts = await Post.find({
user_id: id, user_id: id,
text: { text: {
$exists: true $exists: true
} }
}, { }, {
sort: { sort: {
_id: -1 _id: -1
}, },
limit: 10000, limit: 10000,
fields: { fields: {
_id: false, _id: false,
text: true text: true
}
});
// 投稿が少なかったら中断
if (recentPosts.length < 300) {
process.stdout.write(' >>> -\n');
return cb();
}
const keywords = {};
// Extract keywords from recent posts
recentPosts.forEach(post => {
const keywordsOfPost = tokenize(post.text);
keywordsOfPost.forEach(keyword => {
if (keywords[keyword]) {
keywords[keyword]++;
} else {
keywords[keyword] = 1;
} }
}); });
});
// Sort keywords by frequency // 投稿が少なかったら中断
const keywordsSorted = Object.keys(keywords).sort((a, b) => keywords[b] - keywords[a]); if (recentPosts.length < 300) {
process.stdout.write(' >>> -\n');
// Lookup top 10 keywords return resolve();
const topKeywords = keywordsSorted.slice(0, 10);
process.stdout.write(' >>> ' + topKeywords.join(', ') + '\n');
// Save
User.update({ _id: id }, {
$set: {
keywords: topKeywords
} }
}).then(() => {
cb(); const keywords = {};
// Extract keywords from recent posts
recentPosts.forEach(post => {
const keywordsOfPost = tokenize(post.text);
keywordsOfPost.forEach(keyword => {
if (keywords[keyword]) {
keywords[keyword]++;
} else {
keywords[keyword] = 1;
}
});
});
// Sort keywords by frequency
const keywordsSorted = Object.keys(keywords).sort((a, b) => keywords[b] - keywords[a]);
// Lookup top 10 keywords
const topKeywords = keywordsSorted.slice(0, 10);
process.stdout.write(' >>> ' + topKeywords.join(', ') + '\n');
// Save
User.update({ _id: id }, {
$set: {
keywords: topKeywords
}
}).then(() => {
resolve();
}, err => {
reject(err);
});
}); });
} }