首页 今日头条正文

鬼故事短篇超吓人,PyCharm建立Spark开发环境的完成过程,七夕

PyCharm树立Spa广州今天天气rk开发环境的完结进程

1.装置好JDK

下载并装置好jdk-12.0.1_windows-x64_bin.exe,装备环境变量:

  • 新建体系变量JAVA_HOME,值为Java装置途径
  • 新建体系变量CLASSPATH,值为 .;%JAVA_HOME%\lib\dt.jar;%JAVA_HOME%\lib\tools.jar;(留意最前面的圆点)
  • 装备体系变量PATH,增加 %JAVA_HOME%bin;%JAVA_HOME%jrebin

在CMD中输入:java或许java -version,不显现不是内部指令等,万永商号阐明装置成功。

2.装置Hadoop,并装备环境变量

下载hadoop:https://www.apache.org/dyn/closer.cgi/hadoop/common/hadoop-2.7.7/hadoop-2.7.7.tar.gz

  • 解压hadoop-2.7.7.tar.gz特定途径,如:D:\adasoftwa鬼故事短篇超吓人,PyCharm树立Spark开发环境的完结进程,七夕re\hadoop
  • 增加体系变量HADOOP_HOME:鬼故事短篇超吓人,PyCharm树立Spark开发环境的完结进程,七夕D:\adasoftware\hadoop
  • 在体系变量PATH中增加:D:\adasoftware\hadoop\bin
  • 装置组件winutils:将winutils中对应的hadoop版别中的bin替换自己hadoop装置目录下的bin

3.Sp安进秋ark环境变量装备

spark是根据hadoop之上的,运转进程中会调用相关hadoop库,假如没装备相关hadoop运转环境,会提示相关犯错信息,尽管也不影响运转。

  • 下载对应hadoop版别的spark:http://spark.apache.org/downl网王之紫凌惜月oads.html
  • 解压文件鬼故事短篇超吓人,PyCharm树立Spark开发环境的完结进程,七夕到:D:\adasoftware\spar苏卿昱k-2.4.3-bin-had苦战森林电视剧全集oop2.7抗日之美女悍将
  • 增加PATH值:D:\adasoftware\spark-2凶恶帝国.4.3-bin-hadoop2.主母罗苏拉7\bin;
  • 新建体系变量SPARK_HOME:D:\adasoftware\spark-2.4.3-bin-hadoop2.7;

4.下载装置anaconda

anaconda集成了python解说器和大多数python库,装置anaconda 后不必再安鬼故事短篇超吓人,PyCharm树立Spark开发环境的完结进程,七夕装python和pandas numpy等这些组件了。下载地址。最终将python加到path环境变量中。

5.在CMD中运转pyspark,呈现相似下图阐明装置装备正常:

呈现这种warning是因为陈良娣JDK版别为12,太高了,可是不影响运转。没有影响。

6.在pycharm中装备spark

翻开PyCharm,创立一个Project。然后挑选“Run” ->“Edit Configurations”–>点击+创立新的python Configurations

挑选 “Environment variables” 增加SPARK_HOME目录与PYTHONPATH目录。

  • SPARK_HOME:Spark装置目录
  • PYTHONPATH:Spark装置目录下的Python目录

挑选 File->setting->你的project->project structure

右上角Add conten成功88规律t root增加:py4j-some-version.z抿组词ip和pyspark.zi你色p的途径(这两个文件都在Spark中的python文件夹下)

保存即可

7.测验是否装备成功,程序代码如下,创立一个python程序放进去就能够:

import os
import sys

# Path for spark source folder
os.女教师疑现钏路市envirjorkeron['SPARK_HOME鬼故事短篇超吓人,PyCharm树立Spark开发环境的完结进程,七夕'] = "D:\adasoftware\spark"

# Append pyspark to Python Path
sys.path.append("D:\adasoftware\spark\python")

try:
from pyspark import SparkContext
from pyspark import SparkConf

print("Successful极品上门ly imported Spark Modules")
except ImportError as e:
print("Can not import Spark Modules", e)
sys.exit(1)

若程序正常输出: "鲤组词Successfully imported Spark Modules"就阐明环境现已能够正常履行。

最终多说一句,小编是一名python开发工程师,这里有我自鬼故事短篇超吓人,PyCharm树立Spark开发环境的完结进程,七夕己整理了一套最新的python体系学鬼故事短篇超吓人,PyCharm树立Spark开发环境的完结进程,七夕习教程,包含从一支钢枪手中握根底的python穿越成双脚本到web开发、爬虫、数据剖析、数据可视化、机器学习等。想要这些材料的能够重视小编,并在后台私信小编:“01”即可收取。

版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。