**
** 一、首先在Windows下下载Scala和Spark 官网下载安装Spark:spark-2.4.2-bin-hadoop2.7.tgz https://www.scala-lang.org/download/ 官网下载安装Scala:Spark:spark-2.4.2-bin-hadoop2.7.tgz https://www.scala-lang.org/download/
二、传输 将压缩包从Windows传输到Linux当前目录下: put G:\spark\scala-2.12.8.tgz
put G:\spark\spark-2.4.3-bin-hadoop2.7.tgz 三、解压 tar -zxvf scala-2.12.8.tgz -C /home/shui tar -zxvf spark-2.4.3-bin-hadoop2.7.tgz -C /home/shui 四、重命名 (1)把scala-2.12.8 重命名为 scala 运行命令 mvs cala-2.12.8 scala (2)把 spark-2.4.3-bin-hadoop2.7 重命名为 spark 运行命令 mv spark-2.4.3-bin-hadoop2.7 spark
四、测试scala是否安装成功 scala -version为命令 五、启动scala与启动spark 1、启动scala 2、启动spark (1)先启动hadoop 环境 start-all.sh (2)启动spark环境 进入到SPARK_HOME/sbin下运行start-all.sh /home/root/spark/sbin/start-all.sh [注] 如果使用start-all.sh时候会重复启动hadoop配置,需要./在当前工作目录下执行命令 jps 观察进程 多出 worker 和 mater 两个进程。 查看spark的web控制页面:http://FYL001:8080/ 显示spark的端口是7070 (3)启动Spark Shell 此模式用于interactive programming,先进入bin文件夹后运行:spark-shell SecureCRT 下 spark-shell 下scala> 命令行无法删除 (4)此模式用于interactive programming,先进入bin文件夹后运行:spark-shell SecureCRT 下 spark-shell 下scala> 命令行无法删除
六、使用Spark Shell编写代码 1、读取本地件 2、显示第一行内容
3、对上述hdfs根目录下f1.txt文件进行词频统计 4、查看结果 Spark安装与配置完毕。