安装环境: Linux:CentOs 7.5 Spark:2.3.1 Hadoop:2.7.3 下载: Spark:http://spark.apache.org/downloads.html 本文选择版本: https://archive.apache.org/dist/spark/spark-2.3.1/
2.修改配置文件 在spark-env.sh中添加 环境变量
export JAVA_HOME=/home/hadoop/hd/jdk1.8.0_144 export SPARK_MASTER_IP=localhost export SPARK_WORK_MEMORY=1g ## hadoop安装的目录, hadoop安装参考hadoop的伪分布式安装步骤 export SPARK_CONF_DIR=/home/hadoop/hd/hadoop-2.7.3/etc/hadoop ## 如果需要使用Scala还可以加入Scala的环境变量 启动spark sbin/start-all.shjps查看进程
执行pyspark 命令
bin/pyspark至此,Spark单机版安装成功。
访问已安装的SparkUI:http://192.168.134.133:8080/