本文主要是介绍2.安装Spark与Python练习,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!
1、检查基础环境hadoop,jdk
启动hdfs查看进程
2、下载spark(已完成,略)
3、解压,文件夹重命名、权限(已完成,略)
4、配置文件(已完成,略)
5、环境变量
6、试运行Python代码
二、Python编程练习:英文文本的词频统计
1、准备文本文件
2、读文件
path='/home/hadoop/wc/f1.txt'
with open(path) as f:
text=f.read()
3、预处理:大小写,标点符号,停用词
4、分词
步骤三+步骤四
words = text.split()
5、统计每个单词出现的次数
for word in words:
wc[word]=wc.get(word,0)+1
6、按词频大小排序
wclist=list(wc.items())
wclist.sort(key=lambda x:x[1],reverse=True)
7、结果写文件
print(wclist)
运行结果截图
这篇关于2.安装Spark与Python练习的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!