Python教程

2.安装Spark与Python练习

本文主要是介绍2.安装Spark与Python练习,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!

一、安装Spark

  1、检查基础环境hadoop,jdk

echo $JAVA_HOME
java -version
start-dfs.sh
jps
hadoop version

  2、配置文件

cp ./conf/spark-env.sh.template ./conf/spark-env.sh
gedit ./conf/spark-env.sh

  3、环境变量

gedit ~/.bashrc

  4、试运行Python代码

 

 

 

print('spark')
8*2-5
sc


二、Python编程练习:英文文本的词频统计

  1、准备文本文件

cd ~/wc
gedit f1.txt

  2、读文件、预处理、分词、统计每个单词出现的次数、按词频大小排序

wc.py:

path='/home/hadoop/wc/f1.txt'
with open(path) as f:
    text=f.read()
words = text.split()
wc={}
for word in words:
    wc[word]=wc.get(word,0)+1
wclist=list(wc.items())
wclist.sort(key=lambda x:x[1],reverse=True)
print(wclist)

  3、结果写文件

gedit wc.py
python3 wc.py

 

 

 

 

 

 

这篇关于2.安装Spark与Python练习的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!