有一批数据(10亿量级),数据内容包括:
列 类型id INT
content String
id为key,全局唯一
content为一个句子
列之间以\t分割
like:
1 “互联网够公司的日志无处不在,web日志,js日志,搜索日志,监控日志等等”
2 "对于这些日志的离线分析(Hadoop),wget&rsync虽然人力维护成本较高,但可以满足功能行需求。但对于这些日志的实时分析需求(例如实时推荐,监控系统),则往往必须要引入一些“高大上”的系统"
计算每行数据的content和其他数据content的相似度
第一轮:
按照一定规则分割content,并以分割后的content内容为key,value为id,reduce阶段对value做排序后两两输出,实例如下:
原始数据:
10X
20Y
30Z
假设X可以分割为A、B、C, Y可以分割为A、C、D, Z可以分割为A、D
则第一轮mapper的输出为:
<A,10>
<B,10>
<C,10>
<A,20>
<C,20>
<D,20>
<A,30>
<D,30>
使用分割后的content做key
reducer的输入为:
A{10,20,30}
B{10}
C{10,20}
D{10}
reduce计算逻辑:对value组按大小排序,排序后按序两两输出,组大小为1的不输出
reducer输出为
10,20 ----from A {10,20,30}
10,30 ----from A {10,20,30}
20,30 ----from A {10,20,30}
10,20 ----from C{10,20}
第二轮map-reduce:
对第一轮输出的数据做聚合,value为出现次数
10,202
10,301
20,301
推荐阅读: