windows 10 下搭建本地spark环境教程
1、安装jdk环境
2、spark安装与配置
官网网址http://spark.apache.org/downloads.html
选择下载版本https://archive.apache.org/dist/spark/
这里我选择的是spark-2.4.0,百度网盘链接:https://pan.baidu.com/s/1Hj6qt3iDQYCetlgTmUiukg ,提取码:1234
复制这段内容后打开百度网盘手机App,操作更方便哦
下载好版本后,解压至目录,并配置环境变量,设置path为C:\spark-2.4.0-bin-hadoop2.6\bin
注意:spark安装路径中不能有空格,否则会报错此时不应有 \spark-2.4.0-bin-hadoop2.6\bin
3、安装hadoop
访问官网http://hadoop.apache.org/releases.html,注意版本一致,这里我下载的是hadoop-2.6.0.tar.gz.
百度网盘链接:https://pan.baidu.com/s/1hHDbSkQtNyyD1YiruePdFQ ,提取码:1234
解压到目录
4、winutils下载
网址https://github.com/steveloughran/winutils
下载对应版本的bin目录直接替换本地bin目录
百度网盘链接:https://pan.baidu.com/s/1YZKQfwhBL6eoa-xhrXGUHw ,提取码:1234
5、配置HADOOP\_HOME和path
path : C:\hadoop-2.6.0\bin
6、验证
在cmd命令中运行spark-shell