为什么要使用Python来写Spark
Python写spark我认为唯一的理由就是:你要做数据挖掘,AI相关的工作。因为很多做数挖的他们的基础语言都是python,他们如果重新学scala比较耗时,而且,python他的强大类库是他的优势,很多算法库只有python有。
Win本地编写代码调试
编辑器:PyCharm
Spark:1.6
Python:2.7
Win环境准备
Python的安装
解压python包,在环境变量里面配上bin的路径
Spark的安装
下载spark的bin文件,解压即可,在环境变量配置SPARK_HOME
要可以通过编辑器来安装,如pycharm,查找pyspark库安装即可
Hadoop安装
安装hadoop环境 。在win下面需要winutils.exe;在环境里面配置HADOOP_HOME 即可。
代码示例
#-*-coding:utf-8-*- from__future__importprint_function frompysparkimport* importos print(os.environ['SPARK_HOME']) print(os.environ['HADOOP_HOME']) if__name__=='__main__': sc=SparkContext("local[8]") rdd=sc.parallelize("helloPysparkworld".split("")) counts=rdd\ .flatMap(lambdaline:line)\ .map(lambdaword:(word,1))\ .reduceByKey(lambdaa,b:a+b)\ .foreach(print) sc.stop
python学习网,大量的免费python学习视频,欢迎在线学习!
问题:
frompysparkimport*
找不到pyspark。那你需要把spark的bin包下面的python的所有都拷贝到(可能需要解压py4j)
%PYTHON%\Lib\site-packages下面去。这样,你的编辑器才能找到。
或者:
配置你的编辑器的环境变量:
PYTHONPATH=F:\home\spark-1.6.0-bin-hadoop2.6\python;F:\python2.7\Lib\site-packages
原文来自:https://www.py.cn© 版权声明
文章版权归作者所有,未经允许请勿转载。
THE END
暂无评论内容