校园春色亚洲色图_亚洲视频分类_中文字幕精品一区二区精品_麻豆一区区三区四区产品精品蜜桃

主頁 > 知識庫 > 以示例講解Clickhouse Docker集群部署以及配置

以示例講解Clickhouse Docker集群部署以及配置

熱門標簽:寧夏房產智能外呼系統要多少錢 烏海智能電話機器人 撫順移動400電話申請 400電話申請方案 在百度地圖標注車輛 做外呼系統的公司違法嗎 威海人工外呼系統供應商 貴陽教育行業電話外呼系統 藍點外呼系統

寫在前面

  抽空來更新一下大數據的玩意兒了,起初架構選型的時候有考慮Hadoop那一套做數倉,但是Hadoop要求的服務器數量有點高,集群至少6臺或以上,所以選擇了Clickhouse(后面簡稱CH)。CH做集群的話,3臺服務器起步就可以的,當然,不是硬性,取決于你的zookeeper做不做集群,其次CH性能更強大,對于量不是非常巨大的場景來說,單機已經足夠應對OLAP多種場景了。

  進入正題,相關環境:

IP 服務器名 操作系統 服務 備注
172.192.13.10 server01 Ubuntu20.04 兩個Clickhouse實例、Zookeeper

CH實例1端口:tcp 9000, http 8123, 同步端口9009,MySQL 9004, 類型: 主分片1

CH實例2端口:tcp 9000, http 8124, 同步端口9010,MySQL 9005, 類型: server02的副本

172.192.13.11 server02 Ubuntu20.04 兩個Clickhouse實例、Zookeeper

CH實例3端口:tcp 9000, http 8123, 同步端口9009,MySQL 9004, 類型: 主分片2

CH實例4端口:tcp 9000, http 8124, 同步端口9010,MySQL 9005, 類型: server03的副本

172.192.13.12 server03 Ubuntu20.04 兩個Clickhouse實例、Zookeeper

CH實例5端口:tcp 9000, http 8123, 同步端口9009,MySQL 9004, 類型: 主分片3

CH實例6端口:tcp 9000, http 8124, 同步端口9010,MySQL 9005, 類型: server01的副本

  在每一臺服務上都安裝docker,docker里面分別安裝有3個服務:ch-main,ch-sub,zookeeper_node,如圖所示:

  細心的已經看到,PORTS沒有映射關系,這里是使用Docker host網絡模式,模式簡單并且性能高,避免了很多容器間或跨服務器的通信問題,這個踩了很久。

環境部署

1. 服務器環境配置

  在每一臺服務器上執行:vim /etc/hosts,打開hosts之后新增配置:

172.192.13.10 server01
172.192.13.11 server02
172.192.13.12 server03

2.安裝docker

  太簡單,略...

3.拉取clickhouse、zookeeper鏡像

  太簡單,略...

Zookeeper集群部署

  在每個服務器上你想存放的位置,新建一個文件夾來存放zk的配置信息,這里是/usr/soft/zookeeper/,在每個服務器上依次運行以下啟動命令:

server01執行:

docker run -d -p 2181:2181 -p 2888:2888 -p 3888:3888 --name zookeeper_node --restart always \

-v /usr/soft/zookeeper/data:/data \

-v /usr/soft/zookeeper/datalog:/datalog \

-v /usr/soft/zookeeper/logs:/logs \

-v /usr/soft/zookeeper/conf:/conf \

--network host  \

-e ZOO_MY_ID=1  zookeeper

server02執行:

docker run -d -p 2181:2181 -p 2888:2888 -p 3888:3888 --name zookeeper_node --restart always \

-v /usr/soft/zookeeper/data:/data \

-v /usr/soft/zookeeper/datalog:/datalog \

-v /usr/soft/zookeeper/logs:/logs \

-v /usr/soft/zookeeper/conf:/conf \

--network host  \

-e ZOO_MY_ID=2  zookeeper

server03執行:

docker run -d -p 2181:2181 -p 2888:2888 -p 3888:3888 --name zookeeper_node --restart always \

-v /usr/soft/zookeeper/data:/data \

-v /usr/soft/zookeeper/datalog:/datalog \

-v /usr/soft/zookeeper/logs:/logs \

-v /usr/soft/zookeeper/conf:/conf \

--network host  \

-e ZOO_MY_ID=3  zookeeper

唯一的差別是:-e ZOO_MY_ID=*而已。

  其次,每臺服務上打開/usr/soft/zookeeper/conf路徑,找到zoo.cfg配置文件,修改為:

dataDir=/data
dataLogDir=/datalog
tickTime=2000
initLimit=5
syncLimit=2
clientPort=2181
autopurge.snapRetainCount=3
autopurge.purgeInterval=0
maxClientCnxns=60

server.1=172.192.13.10:2888:3888
server.2=172.192.13.11:2888:3888
server.3=172.192.13.12:2888:3888

然后進入其中一臺服務器,進入zk查看是否配置啟動成功:

docker exec -it zookeeper_node /bin/bash

./bin/zkServer.sh status

Clickhouse集群部署

1.臨時鏡像拷貝出配置  

  運行一個臨時容器,目的是為了將配置、數據、日志等信息存儲到宿主機上:

docker run --rm -d --name=temp-ch yandex/clickhouse-server

  拷貝容器內的文件:

docker cp temp-ch:/etc/clickhouse-server/ /etc/

//https://www.cnblogs.com/EminemJK/p/15138536.html

2.修改config.xml配置

//同時兼容IPV6,一勞永逸
<listen_host>0.0.0.0</listen_host>

//設置時區
<timezone>Asia/Shanghai</timezone>

//刪除原節點<remote_servers>的測試信息
<remote_servers incl="clickhouse_remote_servers" />

//新增,和上面的remote_servers 節點同級
<include_from>/etc/clickhouse-server/metrika.xml</include_from>

//新增,和上面的remote_servers 節點同級
<zookeeper incl="zookeeper-servers" optional="true" />

//新增,和上面的remote_servers 節點同級
<macros incl="macros" optional="true" />

其他listen_host僅保留一項即可,其他listen_host則注釋掉。

3.拷貝到其他文件夾

cp -rf /etc/clickhouse-server/ /usr/soft/clickhouse-server/main
cp -rf /etc/clickhouse-server/ /usr/soft/clickhouse-server/sub

main為主分片,sub為副本。

4.分發到其他服務器

#拷貝配置到server02上
scp /usr/soft/clickhouse-server/main/ server02:/usr/soft/clickhouse-server/main/
scp /usr/soft/clickhouse-server/sub/ server02:/usr/soft/clickhouse-server/sub/ 
#拷貝配置到server03上
scp /usr/soft/clickhouse-server/main/ server03:/usr/soft/clickhouse-server/main/
scp /usr/soft/clickhouse-server/sub/ server03:/usr/soft/clickhouse-server/sub/

SCP真香。

  然后就可以刪除掉臨時容器:docker rm -f temp-ch

配置集群

  這里三臺服務器,每臺服務器起2個CH實例,環狀相互備份,達到高可用的目的,資源充裕的情況下,可以將副本Sub實例完全獨立出來,修改配置即可,這個又是Clickhouse的好處之一,橫向擴展非常方便。

1.修改配置

  進入server1服務器,/usr/soft/clickhouse-server/sub/conf修改config.xml文件,主要修改內容:

原:
<http_port>8123</http_port>
<tcp_port>9000</tcp_port>
<mysql_port>9004</mysql_port>
<interserver_http_port>9009</interserver_http_port>

修改為:
<http_port>8124</http_port>
<tcp_port>9001</tcp_port>
<mysql_port>9005</mysql_port>
<interserver_http_port>9010</interserver_http_port>

  修改的目的目的是為了和主分片main的配置區分開來,端口不能同時應用于兩個程序。server02和server03如此修改或scp命令進行分發。

2.新增集群配置文件metrika.xml

server01,main主分片配置:

  進入/usr/soft/clickhouse-server/main/conf文件夾內,新增metrika.xml文件(文件編碼:utf-8)。

<yandex>
    <!-- CH集群配置,所有服務器都一樣 -->
    <clickhouse_remote_servers>
        <cluster_3s_1r>
            <!-- 數據分片1  -->
            <shard>
                <internal_replication>true</internal_replication>
                <replica>
                    <host>server01</host>
                    <port>9000</port>
                    <user>default</user>
                    <password></password>
                </replica>
                <replica>
                    <host>server03</host>
                    <port>9001</port>
                    <user>default</user>
                    <password></password>
                </replica>
            </shard>
            <!-- 數據分片2  -->
            <shard>
                <internal_replication>true</internal_replication>
                <replica>
                    <host>server02</host>
                    <port>9000</port>
                    <user>default</user>
                    <password></password>
                </replica>
                <replica>
                    <host>server01</host>
                    <port>9001</port>
                    <user>default</user>
                    <password></password>
                </replica>
            </shard>
            <!-- 數據分片3  -->
            <shard>
                <internal_replication>true</internal_replication>
                <replica>
                    <host>server03</host>
                    <port>9000</port>
                    <user>default</user>
                    <password></password>
                </replica>
                <replica>
                    <host>server02</host>
                    <port>9001</port>
                    <user>default</user>
                    <password></password>
                </replica>
            </shard>
        </cluster_3s_1r>
    </clickhouse_remote_servers>

    <!-- zookeeper_servers所有實例配置都一樣 -->
    <zookeeper-servers>
        <node index="1">
            <host>172.16.13.10</host>
            <port>2181</port>
        </node>
        <node index="2">
            <host>172.16.13.11</host>
            <port>2181</port>
        </node>
        <node index="3">
            <host>172.16.13.12</host>
            <port>2181</port>
        </node>
    </zookeeper-servers>

    <!-- marcos每個實例配置不一樣 -->
    <macros>
        <layer>01</layer>
        <shard>01</shard>
        <replica>cluster01-01-1</replica>
    </macros>
    <networks>
        <ip>::/0</ip>
    </networks>

    <!-- 數據壓縮算法  -->
    <clickhouse_compression>
        <case>
            <min_part_size>10000000000</min_part_size>
            <min_part_size_ratio>0.01</min_part_size_ratio>
            <method>lz4</method>
        </case>
    </clickhouse_compression>
</yandex>

  <macros>節點每個服務器每個實例不同,其他節點配置一樣即可,下面僅列舉<macros>節點差異的配置。

server01,sub副本配置:

<macros>
    <layer>01</layer>
    <shard>02</shard>
    <replica>cluster01-02-2</replica>
</macros>

server02,main主分片配置:

<macros>
    <layer>01</layer>
    <shard>02</shard>
    <replica>cluster01-02-1</replica>
</macros>

server02,sub副本配置:

<macros>
    <layer>01</layer>
    <shard>03</shard>
    <replica>cluster01-03-2</replica>
</macros>

server03,main主分片配置:

<macros>
    <layer>01</layer>
    <shard>03</shard>
    <replica>cluster01-03-1</replica>
</macros>

server03,sub副本配置:

<macros>
    <layer>01</layer>
    <shard>02</shard>
    <replica>cluster01-01-2</replica>
</macros>

  至此,已經完成全部配置,其他的比如密碼等配置,可以按需增加。

集群運行及測試

  在每一臺服務器上依次運行實例,zookeeper前面已經提前運行,沒有則需先運行zk集群。

運行main實例:

docker run -d --name=ch-main -p 8123:8123 -p 9000:9000 -p 9009:9009 --ulimit nofile=262144:262144 \-v /usr/soft/clickhouse-server/main/data:/var/lib/clickhouse:rw \-v /usr/soft/clickhouse-server/main/conf:/etc/clickhouse-server:rw \-v /usr/soft/clickhouse-server/main/log:/var/log/clickhouse-server:rw \

--add-host server01:172.192.13.10 \

--add-host server02:172.192.13.11 \

--add-host server03:172.192.13.12 \

--hostname server01 \

--network host \

--restart=always \

 yandex/clickhouse-server

運行sub實例:

docker run -d --name=ch-sub -p 8124:8124 -p 9001:9001 -p 9010:9010 --ulimit nofile=262144:262144 \

-v /usr/soft/clickhouse-server/sub/data:/var/lib/clickhouse:rw \

-v /usr/soft/clickhouse-server/sub/conf:/etc/clickhouse-server:rw \

-v /usr/soft/clickhouse-server/sub/log:/var/log/clickhouse-server:rw \

--add-host server01:172.192.13.10 \

--add-host server02:172.192.13.11 \

--add-host server03:172.192.13.12 \

--hostname server01 \

--network host \

--restart=always \

 yandex/clickhouse-server

  在每臺服務器執行命令,唯一不同的參數是hostname,因為我們前面已經設置了hostname來指定服務器,否則在執行select * from system.clusters查詢集群的時候,將is_local列全為0,則表示找不到本地服務,這是需要注意的地方。在每臺服務器的實例都啟動之后,這里使用正版DataGrip來打開:

  在任一實例上新建一個查詢:

create table T_UserTest on cluster cluster_3s_1r
(
    ts  DateTime,
    uid String,
    biz String
)
    engine = ReplicatedMergeTree('/clickhouse/tables/{layer}-{shard}/T_UserTest', '{replica}')
        PARTITION BY toYYYYMMDD(ts)
        ORDER BY ts
        SETTINGS index_granularity = 8192;

  cluster_3s_1r是前面配置的集群名稱,需一一對應上,/clickhouse/tables/是固定的前綴,相關語法可以查看官方文檔了。

  刷新每個實例,即可看到全部實例中都有這張T_UserTest表,因為已經搭建zookeeper,很容易實現分布式DDL。

  繼續新建Distributed分布式表:

CREATE TABLE T_UserTest_All ON CLUSTER cluster_3s_1r AS T_UserTest ENGINE = Distributed(cluster_3s_1r, default,  T_UserTest, rand())

每個主分片分別插入相關信息:

--server01insert into  T_UserTest values ('2021-08-16 17:00:00',1,1)
--server02
insert into  T_UserTest values ('2021-08-16 17:00:00',2,1)
--server03
insert into  T_UserTest values ('2021-08-16 17:00:00',3,1)

然后查詢分布式表select * from T_UserTest_All,

  查詢對應的副本表或者關閉其中一臺服務器的docker實例,查詢也是不受影響,時間關系不在測試。

到此這篇關于Clickhouse Docker集群配置及部署的文章就介紹到這了,更多相關Clickhouse Docker集群內容請搜索腳本之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持腳本之家!

標簽:朝陽 蕪湖 慶陽 那曲 泰州 銅川 周口 松原

巨人網絡通訊聲明:本文標題《以示例講解Clickhouse Docker集群部署以及配置》,本文關鍵詞  以,示例,講解,Clickhouse,Docker,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《以示例講解Clickhouse Docker集群部署以及配置》相關的同類信息!
  • 本頁收集關于以示例講解Clickhouse Docker集群部署以及配置的相關信息資訊供網民參考!
  • 推薦文章

    上一篇:Spring Boot 打包上傳Docker 倉庫的詳細步驟

    下一篇:docker實現redis集群搭建的方法步驟

    校园春色亚洲色图_亚洲视频分类_中文字幕精品一区二区精品_麻豆一区区三区四区产品精品蜜桃
    欧洲一区二区三区免费视频| 欧美系列一区二区| 欧美三级日韩在线| 五月天精品一区二区三区| 欧美一区二区国产| 国产一区不卡视频| 国产精品高清亚洲| 欧美色区777第一页| 久久成人麻豆午夜电影| 亚洲视频网在线直播| 欧美一区二区大片| 成人激情免费电影网址| 日韩中文字幕亚洲一区二区va在线| 久久综合久久久久88| 色噜噜狠狠成人中文综合| 免费观看一级欧美片| 国产精品成人免费| 91麻豆精品国产91久久久| 国产suv精品一区二区三区| 亚洲一区在线电影| 欧美国产综合色视频| 欧美猛男超大videosgay| 成人性色生活片| 日本 国产 欧美色综合| 亚洲精品久久7777| 中文字幕国产一区二区| 日韩一区二区三| 色婷婷精品大视频在线蜜桃视频| 久久精品国产亚洲高清剧情介绍| 亚洲女同女同女同女同女同69| 精品嫩草影院久久| 欧美日韩一区二区三区高清| av综合在线播放| 国产精品一二三在| 美女一区二区久久| 天天综合日日夜夜精品| 亚洲男人天堂av网| 日韩视频在线一区二区| 一本大道av一区二区在线播放| 国产精品一区二区男女羞羞无遮挡| 日本视频一区二区三区| 亚洲成a人在线观看| 国产无一区二区| 日韩欧美激情四射| 91精品国产综合久久精品麻豆| 欧洲激情一区二区| 欧日韩精品视频| 色88888久久久久久影院按摩| 成人性生交大片免费看中文 | 韩国欧美国产一区| 日本中文在线一区| 日韩高清欧美激情| 美国十次综合导航| 国产在线观看一区二区| 国产一区二区三区精品欧美日韩一区二区三区 | 99国产精品久久久| 91性感美女视频| 色噜噜狠狠成人中文综合| 在线观看日韩av先锋影音电影院| 色成人在线视频| 欧美男人的天堂一二区| 日韩精品在线网站| 国产精品日日摸夜夜摸av| 亚洲欧洲日产国产综合网| 一级中文字幕一区二区| 日韩国产欧美在线播放| 国产乱人伦偷精品视频不卡| 99久久婷婷国产综合精品电影| 色婷婷精品久久二区二区蜜臀av| 欧美日本在线看| 久久女同性恋中文字幕| 亚洲少妇最新在线视频| 天天影视网天天综合色在线播放 | 久草热8精品视频在线观看| 国产乱人伦精品一区二区在线观看| av男人天堂一区| 欧美日韩一区国产| 久久久午夜精品理论片中文字幕| 国产精品美女一区二区| 日日夜夜免费精品视频| 国产成人超碰人人澡人人澡| 在线观看日韩毛片| 2023国产精品| 亚洲国产综合人成综合网站| 国产中文一区二区三区| 92国产精品观看| 精品国产亚洲一区二区三区在线观看| 亚洲国产精品成人综合| 奇米亚洲午夜久久精品| 成人91在线观看| 国产91精品在线观看| 欧美日韩高清一区二区不卡 | 蜜桃视频一区二区三区在线观看| 成人妖精视频yjsp地址| 欧美日韩国产一级| 国产精品成人免费| 久88久久88久久久| 欧美丰满少妇xxxbbb| 中文字幕国产一区| 国产乱人伦偷精品视频免下载| 欧美日韩一二三| 亚洲精品视频一区二区| 国产麻豆精品在线观看| 欧美私人免费视频| 国产精品国产三级国产普通话蜜臀| 久久99久久99精品免视看婷婷| 欧美唯美清纯偷拍| 中文字幕佐山爱一区二区免费| 男女男精品网站| 欧美日韩国产首页| 一区二区三区在线视频观看58| 成人一级片在线观看| 久久久不卡影院| 捆绑调教一区二区三区| 欧美色图片你懂的| 一个色妞综合视频在线观看| 99re在线精品| 亚洲婷婷在线视频| 国产精品一区二区久激情瑜伽| 久久久美女毛片| 国产乱码精品一品二品| www激情久久| 国产福利91精品一区二区三区| 国产亚洲人成网站| 国产成人av电影在线| 日本一区二区三区久久久久久久久不 | 久久精品久久精品| 3atv一区二区三区| 亚洲综合无码一区二区| 91福利资源站| 亚洲成在线观看| 在线播放欧美女士性生活| 五月天精品一区二区三区| 正在播放一区二区| 毛片av一区二区| 国产欧美日韩另类一区| 91丨九色丨蝌蚪丨老版| 亚洲激情六月丁香| 欧美军同video69gay| 久久9热精品视频| 久久久久久久久久电影| 99精品欧美一区| 亚洲国产欧美另类丝袜| 欧美一区二区视频免费观看| 精品无人码麻豆乱码1区2区| 中文字幕一区在线观看视频| 欧美视频在线一区| 老汉av免费一区二区三区| 国产蜜臀97一区二区三区| 91国在线观看| 麻豆成人av在线| 欧美国产综合一区二区| 欧美精品一卡二卡| 国产精品一区二区不卡| 亚洲自拍偷拍图区| 精品日本一线二线三线不卡| 99精品国产一区二区三区不卡| 亚洲h在线观看| 久久女同性恋中文字幕| 在线观看av不卡| 国产一区999| 亚洲午夜日本在线观看| 国产丝袜美腿一区二区三区| 在线视频欧美精品| 国产精品一区二区三区乱码| 一区二区三区日本| 久久亚洲私人国产精品va媚药| 欧美无乱码久久久免费午夜一区| 成人做爰69片免费看网站| 蜜桃免费网站一区二区三区| 中文字幕一区av| 精品国产乱码久久久久久久久| 91麻豆蜜桃一区二区三区| 国产乱人伦偷精品视频不卡| 奇米影视在线99精品| 亚洲国产精品尤物yw在线观看| 国产欧美精品一区二区三区四区| 日韩亚洲欧美在线观看| 欧美日韩视频在线一区二区| 99久久久久久| 国产成人精品免费| 国产自产高清不卡| 毛片一区二区三区| 免费观看久久久4p| 婷婷国产在线综合| 午夜精品福利一区二区三区av| 亚洲欧美日韩久久| 亚洲女子a中天字幕| 亚洲视频 欧洲视频| 亚洲图片欧美激情| 亚洲视频每日更新| 亚洲欧美日韩国产综合| 成人欧美一区二区三区| 亚洲天堂福利av| **欧美大码日韩| 亚洲黄一区二区三区| 夜夜嗨av一区二区三区网页| 亚洲免费伊人电影| 亚洲最新在线观看| 午夜日韩在线电影|