SPARK

本文档介绍了如何配置虚拟机spark python开发环境,以及简要的开发指南。

环境配置

环境配置请参考文档:虚拟机配置Jupyter+Pyspark

交互式界面

Spark为我们提供了一个交互式界面运行我们的代码,在命令行下运行pyspark
$ pyspark

在交互式界面下,pyspark会自动帮我们创建SparkContext sc,和HiveContext作为sqlContext直接使用。sc可以用来读取HDFS上的文件,sqlContext可以访问我们的Hive数据库。

#读取文件sc.textFile("/path/to/file").first() 
#读取数据库sqlContext.sql("select count(1) from tmp.your_table").show()

应用开发

spark也支持提交一个py文件运行,以下是一个spark python应用基本结构

"""SimpleApp.py"""
from pyspark import SparkContext
#if you need access hive
from pyspark import HiveContext
sc = SparkContext("YourAppName")
#if you need access hivesqlContext = HiveContext(sc)
#your code here
sc.stop()

运行我们开发的py文件
spark-submit yourappname.py

引用第三方依赖

Spark允许我们在运行时添加我们需要的第三方依赖

#在创建sc时添加
sc = SparkContext(pyFiles=["xx1.py","xx2.py"]) 
#在运行时新增
sc.addPyFile("jieba.zip")

一个完整的示例

如下是一个完整的示例,展示了如果通过Hive读取数据,加载第三方依赖jieba分词,然后使用ml包提供的kmeans方法对句子做了一个分类。
我们在集群上有如下表。

select * from tmp.pyspark_cluster_example order by id
+----+--------------------+
| id | sentence |
+----+--------------------+
| 1 | 小许喜欢胸大的妹子 |
| 2 | 小陈喜欢可爱的妹子 |
| 3 | 我喜欢腿长的妹子 |
+----+--------------------+

完整代码如下

   # -*- coding: utf-8 -*-
from pyspark import SparkContext
from pyspark import HiveContext
from pyspark.ml.feature import Word2Vec
from pyspark.ml.clustering import KMeans
#创建sc的同时声明第三方依赖jieba.zip。
sc = SparkContext(appName="example", pyFiles=["jieba.zip"])
sqlContext = HiveContext(sc)

#导入jieba分词
import jieba
#从Hive表读取数据
df = sqlContext.sql("select * from tmp.pyspark_cluster_example order by id")
#使用结巴分词对句子进行分词
wordsDf = df.map(lambda r:[r.id, r.sentence,jieba.lcut(r.sentence)]).toDF(["id","sentence", "words"])
#使用Word2Vec把文本变成向量
word2Vec = Word2Vec(minCount=0, inputCol="words", outputCol="features")
model = word2Vec.fit(wordsDf)
featureDf = model.transform(wordsDf)
#分类kmeans = KMeans(k=2)
model = kmeans.fit(featureDf)
resultDf = model.transform(featureDf).select("id", "sentence", "prediction")
centers = model.clusterCenters()
print(len(centers))
#查看结果
for r in resultDf.select("*",).take(6): 
   print(r.sentence.encode("utf-8"))
   print(r.prediction)

通过如下代码提交运行
spark-submit --master=local cluster.py

运行结果如下
小许喜欢胸大的妹子1小陈喜欢可爱的妹子1我喜欢腿长的妹子1红烧肥肠好好吃0红烧排骨好好吃0糖醋排骨好好吃0

参考文档
https://spark.apache.org/docs/1.6.0/api/python/index.html
https://spark.apache.org/docs/1.6.0/ml-features.html

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 217,084评论 6 503
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,623评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 163,450评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,322评论 1 293
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,370评论 6 390
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,274评论 1 300
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,126评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,980评论 0 275
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,414评论 1 313
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,599评论 3 334
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,773评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,470评论 5 344
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,080评论 3 327
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,713评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,852评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,865评论 2 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,689评论 2 354

推荐阅读更多精彩内容