51Testing软件测试论坛

 找回密码
 (注-册)加入51Testing

QQ登录

只需一步,快速开始

微信登录,快人一步

查看: 2107|回复: 0
打印 上一主题 下一主题

[原创] 大数据篇:Spark安装及测试PI的值

[复制链接]

该用户从未签到

跳转到指定楼层
1#
发表于 2019-2-27 16:38:43 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式

本文运行的具体环境如下:

  • centos7.3
  • Hadoop 2.8.4
  • Java JDK 1.8
  • Spark 1.6.3

一、安装Hadoop

关于Hadoop的安装,这里就不概述了!


二、安装 Spark

Spark部署模式主要有四种:Local模式(单机模式)、Standalone模式(使用Spark自带的简单集群管理器)、YARN模式(使用YARN作为集群管理器)和Mesos模式(使用Mesos作为集群管理器)。
这里介绍Local模式(单机模式)的 Spark安装。

运用winscp将spark-1.6.3-bin-hadoop2.6.tgz上传到master服务器主节点端的/usr/local下,解压
  1. sudo tar -zxf spark-1.6.3-bin-hadoop2.6.tgz
  2. cd /usr/local
  3. sudo chown -R hadoop:hadoop ./spark       #此处的hadoop为你的用户名
复制代码


安装后,还需要修改Spark的配置文件spark-env.sh
  1. cd /usr/local/spark-1.6.3-bin-hadoop2.6
  2. cp ./conf/spark-env.sh.template ./conf/spark-env.sh
复制代码


编辑spark-env.sh文件(vim ./conf/spark-env.sh),在第一行添加以下配置信息:
  1. export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop-2.8.4/bin/hadoop classpath)
复制代码

有了上面的配置信息以后,Spark就可以把数据存储到Hadoop分布式文件系统HDFS中,也可以从HDFS中读取数据。如果没有配置上面信息,Spark就只能读写本地数据,无法读写HDFS数据。配置完成后就可以直接使用,不需要像Hadoop运行启动命令。通过运行Spark自带的示例,验证Spark是否安装成功。

  1. cd /usr/local/spark-1.6.3-bin-hadoop2.6
  2. bin/run-example SparkPi
复制代码


执行时会输出非常多的运行信息,输出结果不容易找到,可以通过 grep 命令进行过滤(命令中的 2>&1 可以将所有的信息都输出到 stdout 中,否则由于输出日志的性质,还是会输出到屏幕中)
  1. bin/run-example SparkPi 2>&1 | grep "Pi is"
复制代码


过滤后的运行结果如下图示,可以得到π 的 近似值:


本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?(注-册)加入51Testing

x
分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友
收藏收藏
回复

使用道具 举报

本版积分规则

关闭

站长推荐上一条 /1 下一条

小黑屋|手机版|Archiver|51Testing软件测试网 ( 沪ICP备05003035号 关于我们

GMT+8, 2024-4-27 22:59 , Processed in 0.064489 second(s), 24 queries .

Powered by Discuz! X3.2

© 2001-2024 Comsenz Inc.

快速回复 返回顶部 返回列表