校园春色亚洲色图_亚洲视频分类_中文字幕精品一区二区精品_麻豆一区区三区四区产品精品蜜桃

主頁 > 知識庫 > pyspark操作hive分區表及.gz.parquet和part-00000文件壓縮問題

pyspark操作hive分區表及.gz.parquet和part-00000文件壓縮問題

熱門標簽:外呼并發線路 ai電話機器人哪里好 宿遷星美防封電銷卡 長沙高頻外呼系統原理是什么 湛江智能外呼系統廠家 地圖標注審核表 西藏房產智能外呼系統要多少錢 ai電銷機器人源碼 百度地圖標注沒有了

pyspark 操作hive表

pyspark 操作hive表,hive分區表動態寫入;最近發現spark動態寫入hive分區,和saveAsTable存表方式相比,文件壓縮比大約 4:1。針對該問題整理了 spark 操作hive表的幾種方式。

1> saveAsTable寫入

saveAsTable(self, name, format=None, mode=None, partitionBy=None, **options)

示例:

df.write.saveAsTable("表名",mode='overwrite')

注意:

1、表不存在則創建表,表存在全覆蓋寫入;
2、表存在,數據字段有變化,先刪除后重新創建表;
3、當正在存表時報錯或者終止程序會導致表丟失;
4、數據默認采用parquet壓縮,文件名稱 part-00000-5efbfc08-66fe-4fd1-bebb-944b34689e70.gz.parquet

數據文件在hdfs上顯示:

2> insertInto寫入

insertInto(self, tableName, overwrite=False):
示例:

# append 寫入
df.repartition(1).write.partitionBy('dt').insertInto("表名")
# overwrite 寫入
df.repartition(1).write.partitionBy('dt').insertInto("表名",overwrite=True)
# 動態分區使用該方法

注意:

1、df.write.mode("overwrite").partitionBy("dt").insertInto("表名") 不會覆蓋數據
2、需要表必須存在且當前DF的schema與目標表的schema必須一致
3、插入的文件不會壓縮;文件以part-00....結尾。文件較大

數據文件在hdfs上顯示:

2.1> 問題說明

兩種方式存儲數據量一樣的數據,磁盤文件占比卻相差很大,.gz.parquet 文件 相比 part-00000文件要小很多。想用spark操作分區表,又想讓文件壓縮,百度了一些方式,都沒有解決。
從stackoverflow中有一個類似的問題 Spark compression when writing to external Hive table 。用里面的方法并沒有解決。
最終從hive表數據文件壓縮角度思考,問題得到解決。

hive 建表指定壓縮格式
下面是hive parquet的幾種壓縮方式

-- 使用snappy
CREATE TABLE if not exists ods.table_test(
    id string,
    open_time string
	)
COMMENT '測試'
PARTITIONED BY (`dt` string COMMENT '按天分區')
row format delimited fields terminated by '\001' 
STORED AS PARQUET 
TBLPROPERTIES ('parquet.compression'='SNAPPY');

-- 使用gzip
CREATE TABLE if not exists ods.table_test(
    id string,
    open_time string
	)
COMMENT '測試'
PARTITIONED BY (`dt` string COMMENT '按天分區')
row format delimited fields terminated by '\001' 
STORED AS PARQUET 
TBLPROPERTIES ('parquet.compression'='GZIP');
 
-- 使用uncompressed
CREATE TABLE if not exists ods.table_test(
    id string,
    open_time string
	)
COMMENT '測試'
PARTITIONED BY (`dt` string COMMENT '按天分區')
row format delimited fields terminated by '\001' 
STORED AS PARQUET 
TBLPROPERTIES ('parquet.compression'='UNCOMPRESSED');

 
-- 使用默認
CREATE TABLE if not exists ods.table_test(
    id string,
    open_time string
	)
COMMENT '測試'
PARTITIONED BY (`dt` string COMMENT '按天分區')
row format delimited fields terminated by '\001' 
STORED AS PARQUET;
 
-- 設置參數 set parquet.compression=SNAPPY;

2.2> 解決辦法

建表時指定TBLPROPERTIES,采用gzip 壓縮
示例:

drop table if exists ods.table_test
CREATE TABLE if not exists ods.table_test(
id string,
open_time string
)
COMMENT '測試'
PARTITIONED BY (`dt` string COMMENT '按天分區')
row format delimited fields terminated by '\001' 
STORED AS PARQUET 
TBLPROPERTIES ('parquet.compression'='GZIP');

執行效果

數據文件在hdfs上顯示:

可以看到文件大小占比已經和 *.gz.parquet 文件格式一樣了

3>saveAsTextFile寫入直接操作文件

saveAsTextFile(self, path, compressionCodecClass=None)
該方式通過rdd 以文件形式直接將數據存儲在hdfs上。
示例:

rdd.saveAsTextFile('hdfs://表全路徑')

文件操作更多方式見官方文檔

到此這篇關于pyspark操作hive分區表及.gz.parquet和part-00000文件壓縮問題的文章就介紹到這了,更多相關pyspark hive分區表parquet內容請搜索腳本之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • 在python中使用pyspark讀寫Hive數據操作
  • Pyspark讀取parquet數據過程解析
  • pyspark對Mysql數據庫進行讀寫的實現
  • pyspark給dataframe增加新的一列的實現示例
  • Linux下遠程連接Jupyter+pyspark部署教程
  • PyCharm+PySpark遠程調試的環境配置的方法

標簽:大同 盤錦 海南 寧夏 南平 林芝 普洱 漯河

巨人網絡通訊聲明:本文標題《pyspark操作hive分區表及.gz.parquet和part-00000文件壓縮問題》,本文關鍵詞  pyspark,操作,hive,分區表,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《pyspark操作hive分區表及.gz.parquet和part-00000文件壓縮問題》相關的同類信息!
  • 本頁收集關于pyspark操作hive分區表及.gz.parquet和part-00000文件壓縮問題的相關信息資訊供網民參考!
  • 推薦文章
    主站蜘蛛池模板: 西林县| 奉新县| 东港市| 四川省| 曲松县| 霍林郭勒市| 赣州市| 蕉岭县| 五台县| 米泉市| 墨脱县| 平阳县| 应城市| 平谷区| 融水| 梅州市| 阳东县| 西丰县| 阆中市| 兴安县| 武功县| 墨玉县| 辽源市| 阿鲁科尔沁旗| 沙田区| 黔江区| 江川县| 全州县| 兴城市| 乐山市| 渝中区| 柘荣县| 民和| 崇文区| 广水市| 平果县| 海丰县| 滕州市| 敖汉旗| 乌什县| 叙永县|