win10安装pyspark

业务需求,单位电脑上要装一下pyspark
可费劲了。。

网上可以搜到现在步骤已经简单很多了,做个记录,第一次装

1.java
这个网上自己搜,一路下来即可,一般就是安装+环境变量
打开cmd 输入java -version
图片说明

2.conda/pip install pyspark
开Anaconda Prompt 输入
公司电脑安装的时候说import 一个库包失败
所以先 install 了一下pypandoc
装完
pyspark回车
出现类似以下错误
error shell:..........
图片说明

受伤了,,,

3.hadoop + winutils
网上找了一圈
理解下来就是
hadoop 是linux上用的,win10就没法用
但是可以用一个hadooponwindows-master转换一下

故跟流程来
a) 下载hadoop
http://archive.apache.org/dist/hadoop/core/
这边我又看了下 官网有2个版本啊
Source download与Binary download,文件名是一个带-scr ,一个不带
下载后者
解压到一个你放心的路径,然后加环境变量
图片说明
图片说明

公司电脑就是惨啊,没权限就添加添加用户变量。。。

b)下载对应的winutils
搜一搜hadooponwindows-master
找与你下载的hadoop版本所对应的bin文件夹,看看里面有winutils的 就对了

我这2.7.1,网上很多教程都是这个版本为例
https://github.com/sardetushar/hadooponwindows

就要bin文件夹,复制所有到/hadoop/bin 里 替换

以上就完成了,重新开Anaconda Prompt ,pyspark
图片说明
非常完美

随便跑一个

from pyspark.sql import SparkSession
from pyspark.sql.functions import col

# 初始化
spark = SparkSession.builder.master("local[*]").appName("FiratApp").getOrCreate()

# 下面两句都可以获取0到9的数据
# data = spark.createDataFrame(map(lambda x: (x,), range(10)), ["id"])
data = spark.range(0, 10).select(col("id").cast("double"))

# 求和
data.agg({'id': 'sum'}).show()

# 关闭
spark.stop()

图片说明

非常完美

全部评论

相关推荐

mq2:我倒是觉得这种敞亮一点好。能接受就去不能就不去呗。 完了跟现在“正常”公司一样,hr说的天花乱坠,进去一看根本就是996核动力牛马,想走又没应届生身份了。岂不是更糟。
点赞 评论 收藏
分享
会员标识
昨天 16:28
已编辑
牛客运营
从03年的“北大毕业生卖猪肉”到前段时间上热搜的“北大博士入职城管”,这些年“下沉式就业”现象频繁牵动着大家的视野和目光吧,很吸睛?我觉得并不是,如果你说985大学生XXX,那可能成不了焦点,如果说是北大清华毕业生去当城管,卖猪肉,大家都会讨论一番,无论是谁都知道北大清华的过人之处。但是呢近些年的确有很多985、211名校毕业生选择到基层就业或回老家创业,会不会觉得大财小用?老家的哥哥,因为当时学的专业不是很好,但好在学校不错,一路本硕连读,毕业之后在上海打拼了2年,也攒了一些小钱,随后回村选择科学养鸡,买了很大一块地开始科学方法的养鸡、卖鸡蛋,村里的老人都会议论纷纷,白瞎了家里供你读书,又回...
下午吃泡馍:不是每一个脱下长衫的人在下沉市场重获新生,并不是每一个养猪养鸡的高学历人才都会成功。现实是很多人的“长衫”就是自己为数不多甚至唯一的底牌了,拼尽全力拿到一个不错的学历,这时候主流媒体告诉对方脱下长衫也可以活的精彩,其实真的挺难过的。强者恒强,但是弱者是人群的底色。 本质上是整个市场的问题,没有足够多的增长点,没有足够多的岗位,自上而下没有积极向上的氛围。外企撤出,供应链缺失...在发展的过程中总有阵痛,现阶段可能就是我们承受阵痛的过程。之前在牛客看到一个小伙伴说:时代的一粒灰尘,落在谁的身上,都将是无法承受之重!深有感触。
点赞 评论 收藏
分享
评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客企业服务