1、MapReduce数据过滤操作

STEP1:单条数据处理,试探处理规律

核心问题:

从类似"8.35.201.144 - - [30/May/2013:17:38:20 +0800] "GET /uc_server/avatar.php?uid=29331&size=middle HTTP/1.1" 301 -"的数据中提取 ip-访问时间-访问的url

代码:(用到了/opt/hadoop-3.1.0/share/hadoop中common和mapreduce下的一些jar包,java project)

import java.io.FileNotFoundException;
import java.text.ParseException;
import java.text.SimpleDateFormat;
import java.util.Date;
public class SingalData {
    public static void main(String[] args) throws ParseException,FileNotFoundException {
        String data = "8.35.201.144 - - [30/May/2013:17:38:20 +0800] \"GET /uc_server/"
                + "avatar.php?uid=29331&size=middle HTTP/1.1\" 301 -";
        System.out.println("待处理的原数据为:"+data);
        
        //解析ip
        String ip = data.substring(0, data.indexOf("- -"));
        System.out.println("ip的解析结果:"+ip);
        
        // 解析time
        String tmpTime = data.substring(data.indexOf("[") + 1);
        tmpTime = tmpTime.substring(0, tmpTime.indexOf(" +0800"));
        SimpleDateFormat dateFormat1 = new SimpleDateFormat(
                "dd/MM/yyyy:HH:mm:ss");
        Date date = dateFormat1.parse(tmpTime.replace("May", "05"));
        SimpleDateFormat dateFormat2 = new SimpleDateFormat(
                "yyyy-MM-dd|HH:mm:ss");
        String time = dateFormat2.format(date);
        System.out.println("time的解析结果:"+time);
        
        // 解析url
        String tmpUrl = data.substring(data.indexOf("\"") + 1);
        if (tmpUrl.contains("HTTP")) {
            tmpUrl = tmpUrl.substring(0, tmpUrl.indexOf(" HTTP"));
            tmpUrl = tmpUrl.split(" ")[1];
        } else {
            tmpUrl = tmpUrl.substring(0, tmpUrl.indexOf("\""));
        }
        String url = tmpUrl;
        System.out.println("url的解析结果:"+url);
    }
}

运行结果:

待处理的原数据为:8.35.201.144 - - [30/May/2013:17:38:20 +0800] "GET /uc_server/
avatar.php?uid=29331&size=middle HTTP/1.1" 301 -
ip的解析结果:8.35.201.144 
time的解析结果:2013-05-30|17:38:20
url的解析结果:/uc_server/avatar.php?uid=29331&size=middle

STEP2:写MyMapper

步骤分析:

①确定Map的输入为<LongWritable, Tex>
②将Map传入的Text转化为String类型进行处理
③确定Map的输出为<LongWritable, NullWritable>
④将String处理的结果即“ip+time+url"转为text并写入context

源码:

mport java.io.IOException;
import java.text.ParseException;
import java.text.SimpleDateFormat;
import java.util.Date;

import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;


public class MyMapper extends Mapper<LongWritable, Text, Text,NullWritable> {

    @Override
    protected void map(LongWritable key, Text value,Context context)throws 
    IOException, InterruptedException {
        /*
         *key:输入的数据
         *value:数据 即句子
         *Context:Map上下文 上文HDFS 下文Reducer
         */
        String data=value.toString();
        
        if(data.contains("/uc_server")||data.contains("/data")||
                data.contains("/static")||data.contains("/template")||
                data.contains("/source")||data.contains("/favicon.ico")||
                data.contains("/images"))
            return;
        
        //获取ip
        String ip=data.substring(0, data.indexOf("- -"));
        
        //获取并格式化time
        String tmpTime=data.substring(data.indexOf("[")+1);
        tmpTime=tmpTime.substring(0,tmpTime.indexOf(" +0800"));
        SimpleDateFormat dateFormat1=new SimpleDateFormat("dd/MM/yyyy:HH:mm:ss");
        Date date=null;
        try {
            date = dateFormat1.parse(tmpTime.replace("May", "05"));
        } catch (ParseException e) {
            e.printStackTrace();
        }
        SimpleDateFormat dateFormat2=new SimpleDateFormat("yyyy-MM-dd|HH:mm:ss");
        String time=dateFormat2.format(date);
        
        //获取访问的url
        String tmpUrl=data.substring(data.indexOf("\"")+1);
        if(tmpUrl.contains("HTTP")){
            tmpUrl = tmpUrl.substring(0, tmpUrl.indexOf(" HTTP"));
            tmpUrl = tmpUrl.split(" ")[1];
        }else{
            tmpUrl = tmpUrl.substring(0, tmpUrl.indexOf("\""));
        }
        String url=tmpUrl;
  
        //写入上下文
        context.write(new Text(ip+" "+time+" "+url),NullWritable.get());
    }
}

STEP3:分析是否需要些Reduce

发现map中已处理完毕,不需要写reduce

STEP4:写Main:

import java.io.IOException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
public class Main {
    public static void main(String[] args) throws 
    IOException, ClassNotFoundException, InterruptedException {
        //创建一个job=map+reduce
        Configuration conf=new Configuration();
        
        //创建一个job
        Job job=Job.getInstance(conf);
        
        //指定任务的入口
        job.setJarByClass(Main.class);
        
        //指定map
        job.setMapperClass(MyMapper.class);
        job.setMapOutputKeyClass(Text.class);
        job.setMapOutputValueClass(NullWritable.class);
        
        //指定任务的输入输出
        FileInputFormat.setInputPaths(job, new Path(args[0]));
        FileOutputFormat.setOutputPath(job, new Path(args[1]));
        
        //提交任务
        job.waitForCompletion(true);//true表示打印日志信息
    }
}

STEP5:打jar包放到Hadoop上运行查看结果,需要准备好数据(日志)在HDFS上

运行结果示例:

1.169.170.214  2013-05-30|22:49:01 /api.php?mod=js&bid=65
1.169.170.214  2013-05-30|22:49:14 /api.php?mod=js&bid=65
1.170.183.87  2013-05-30|18:39:33 /api.php?mod=js&bid=65
1.170.183.87  2013-05-30|18:39:59 /api.php?mod=js&bid=94
1.170.6.222  2013-05-30|20:22:36 /api.php?mod=js&bid=65
1.170.6.222  2013-05-30|20:23:01 /api.php?mod=js&bid=94
1.171.165.64  2013-05-30|23:20:59 /api.php?mod=js&bid=65
1.171.165.64  2013-05-30|23:21:17 /thread-11220-1-1.html
1.171.52.130  2013-05-30|22:04:23 /api.php?mod=js&bid=65
1.171.52.242  2013-05-30|19:38:13 /api.php?mod=js&bid=65
1.171.62.241  2013-05-30|18:26:36 /api.php?mod=js&bid=66
1.173.227.222  2013-05-30|21:21:51 /api.php?mod=js&bid=65
1.173.227.222  2013-05-30|21:21:59 /api.php?mod=js&bid=66
1.173.227.222  2013-05-30|21:40:08 /api.php?mod=js&bid=94
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 205,565评论 6 479
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 88,021评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 152,003评论 0 341
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 55,015评论 1 278
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 64,020评论 5 370
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,856评论 1 283
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,178评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,824评论 0 259
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,264评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,788评论 2 323
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,913评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,535评论 4 322
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,130评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,102评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,334评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,298评论 2 352
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,622评论 2 343