实验三 MapReduce分布式编程、调试WordCount程序

    xiaoxiao2025-07-17  10

    一、定义 MapReduce是一种编程模型,用于大规模数据集(大于1TB)的并行运算。概念"Map(映射)“和"Reduce(归约)”,和它们的主要思想,都是从函数式编程语言里借来的,还有从矢量编程语言里借来的特性。它极大地方便了编程人员在不会分布式并行编程的情况下,将自己的程序运行在分布式系统上。 当前的软件实现是指定一个Map(映射)函数,用来把一组键值对映射成一组新的键值对,指定并发的Reduce(归约)函数,用来保证所有映射的键值对中的每一个共享相同的键组。 二、实验步骤 (1)所需系统及工具 HDFS 分布式存储系统 MapReduce 分布式计算系统 YARN hadoop 的资源调度系统 Common 以上三大组件的底层支撑组件,提供基础工具包和 RPC 框架等 (2)HDFS中的常用的命令 -mkdir 在HDFS创建目录 hdfs dfs -mkdir /data -ls 查看当前目录 hdfs dfs -ls / -ls -R 查看目录与子目录 -put 上传一个文件 hdfs dfs -put data.txt /data/input -moveFromLocal 上传一个文件,会删除本地文件:ctrl + X -copyFromLocal 上传一个文件,与put一样 -copyToLocal 下载文件 hdfs dfs -copyToLocal /data/input/data.txt -get 下载文件 hdfs dfs -get /data/input/data.txt -rm 删除文件 hdfs dfs -rm /data/input/data.txt -getmerge 将目录所有的文件先合并,再下载 -cp 拷贝: hdfs dfs -cp /data/input/data.txt /data/input/data01.txt -mv 移动: hdfs dfs -mv /data/input/data.txt /data/input/data02.txt -count 统计目录下的文件个数 -text、-cat 查看文件的内容 hdfs dfs -cat /data/input/data.txt 三、MapReduce工作原理 --------------------- 1.Mapper负责“分”

    分解计算任务,规模大大缩小;

    “计算向数据靠近” ;

    这些小任务可以并行计算。

    2.Reducer负责“汇总” map阶段的结果

    3.MapReduce的输入输出

    4.从启动和资源调度来看MapReduce过程

    客户端(Client) 四、运行以下四个程序

    1)拖动生成default.package包 把HDFSFilefExist.java从hdfs.files包中拖出来,它会自动形成另一个包default.package。 (2) 生成jar包 选择存放的路径,最后选择Finish,打包完成 五、传输和解压包(在SecureCRT中运行) (1)将包传输到SecureCRT里,SecureCRT 【File】→【Connect SFTP Session】开启sftp操作 (2)解压tar -zxvf mp.jar -C /home/shui 六、运行Wordcount程序 (1)运行cd /home/shui/hadoop-2.7.3/share/hadoop/mapreduce 转入wordcount所在路径。 (2)运行wordcount hadoop jar mp.jar HDFSFileIfExist

    最新回复(0)