pyspark 读取本地csv_pyspark 读取csv文件创建DataFrame的两种方法

pyspark 读取csv文件创建DataFrame的两种方法

方法一:用pandas辅助

from pyspark import SparkContext

from pyspark.sql import SQLContext

import pandas as pd

sc = SparkContext()

sqlContext=SQLContext(sc)

df=pd.read_csv(r’game-clicks.csv’)

sdf=sqlc.createDataFrame(df)

方法二:纯spark

from pyspark import SparkContext

from pyspark.sql import SQLContext

sc = SparkContext()

sqlContext = SQLContext(sc)

sqlContext.read.format(‘com.databricks.spark.csv’).options(header=’true’, inferschema=’true’).load(‘game-clicks.csv’)

以上这篇pyspark 读取csv文件创建DataFrame的两种方法就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持我们。

时间: 2018-06-05

有时候需要读取一定格式的json文件为DataFrame,可以通过json来转换或者pandas中的read_json(). import pandas as pd import json data = pd.DataFrame(json.lo

Original: https://blog.csdn.net/weixin_34620780/article/details/114909940
Author: 叶瓴也
Title: pyspark 读取本地csv_pyspark 读取csv文件创建DataFrame的两种方法

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/675930/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球