코드
from pyspark.sql import SparkSession
from pyspark.sql.types import StructType, StructField, StringType
spark = SparkSession\
.builder\
.appName("0_save_file")\
.getOrCreate()
schema = StructType([StructField("first", StringType(), True),
StructField("second", StringType(), True),
StructField("third", StringType(), True)])
df = spark.read.csv('/home/spark/result/1_test_dataframe.csv', header = False, schema = schema)
print(df.show())
spark.stop()
결과
'Data Engineering > Spark' 카테고리의 다른 글
[Spark] 10개의 숫자를 map 하고, reduce 처리 하는 방법 (0) | 2022.05.29 |
---|---|
[Spark] 판다스 데이터프레임을 스파크 데이터프레임으로 변경하는 방법 (0) | 2022.05.29 |
[Spark] 간단한 DataFrame 만드는 방법 (0) | 2022.05.29 |
[Spark] RDD를 map한 결과를 각각의 키로 합계내는 방법 (0) | 2022.05.29 |
[Spark] RDD의 문장들을 띄어쓰기로 단어를 나누고 카운트하는 방법 (0) | 2022.05.29 |