1、安装jdk环境

2、spark安装与配置

官网网址http://spark.apache.org/downloads.html

选择下载版本https://archive.apache.org/dist/spark/


这里我选择的是spark-2.4.0,百度网盘链接:https://pan.baidu.com/s/1Hj6qt3iDQYCetlgTmUiukg ,提取码:1234
复制这段内容后打开百度网盘手机App,操作更方便哦

下载好版本后,解压至目录,并配置环境变量,设置path为C:\spark-2.4.0-bin-hadoop2.6\bin

注意:spark安装路径中不能有空格,否则会报错此时不应有 \spark-2.4.0-bin-hadoop2.6\bin

3、安装hadoop

访问官网http://hadoop.apache.org/releases.html,注意版本一致,这里我下载的是hadoop-2.6.0.tar.gz.

百度网盘链接:https://pan.baidu.com/s/1hHDbSkQtNyyD1YiruePdFQ ,提取码:1234

解压到目录

4、winutils下载

网址https://github.com/steveloughran/winutils

下载对应版本的bin目录直接替换本地bin目录

百度网盘链接:https://pan.baidu.com/s/1YZKQfwhBL6eoa-xhrXGUHw ,提取码:1234

5、配置HADOOP\_HOME和path

windows 10 下搭建本地spark环境教程

path : C:\hadoop-2.6.0\bin

6、验证

在cmd命令中运行spark-shell

标签: bin, windows, https, hadoop, spark, 百度网, com

相关文章推荐

添加新评论,含*的栏目为必填