基于Postgres-XL的mpp分布式方案
1简介
Postgres-XL全称为 Postgres eXtensible Lattice,是一个横向扩展的开源数据库集群,是TransLattice公司及其收购数据库技术公司StormDB的产品。
Postgres-XC更适合oltp型应用。
Postgres-XL基于Postgres-XC,更适合olap型应用。
1.1功能特性
license:Mozilla PublicLicense许可,允许将开源代码与闭源代码混在一起使用。
完全的ACID支持。
可横向扩展的关系型数据库(RDBMS)。
支持OLAP应用,采用MPP(Massively Parallel Processing大规模并行处理系统)架构模式。
支持OLTP应用,读写性能可扩展。
集群级别的ACID特性。
多租户安全。
支持分布式Key-Value存储、支持JSON和XML格式。
事务处理与数据分析处理混合型数据库。
支持丰富的SQL语句类型,如关联子查询。
支持绝大部分PostgreSQL的SQL语句。
分布式多版本并发控制(MVCC:Multi-version Concurrency Control)。
支持所有支持PostgresSQL类型的驱动JDBC, ODBC, OLE DB,Python,Ruby,perl DBI,Tcl。
1.2功能不足
需要使用外部机制实现高可用,如pg流复制、Corosync/Pacemaker等。
增删节点/重新分片数据(re-shard)的比较复杂。
数据重分布(redistribution)期间会锁表。
某些外键、唯一性约束功能欠缺。
2Postgres-XL架构
由GTM、GTM-Proxy、Coordinator、Datanode组成。
GTM(Gloable Transaction Manager)负责提供事务的ACID属性;
Datanode负责存储表的数据和本地执行由Coordinator派发的SQL任务;
Coordinator负责处理每个来自Application的SQL任务,并且决定由哪个Datanode执行,然后将任务计划派发给相应的Datanode,根据需要收集结果返还给Application;
GTM通常由一台独立的服务器承担,GTM需要处理来自所有GTM-Proxy或者Coordinator和Datanode的事务请求。
每台机器最好同时配置一个Coordinator、一个Datanode与GTM-Proxy。
每台机器同时配置一个Coordinator和一个Datanode,可以负载均衡,同时降低网络流量。GTM-Proxy会减少GTM的负载,将Coordinator和Datanode上进程的请求和响应聚集到一台机器上,同时会帮助处理GTM失效的情况。
GTM可能会发生单点故障,可以配置一个GTM-Standby节点作为GTM的备用节点。
2.1协调器(Coordinator)
处理客户端连接。
分析查询语句,生成执行计划,并将计划传递给数据节点实际执行。
对数据节点返回的查询中间结果集执行最后处理。
管理事务两阶段提交(2PC)。
存储全局目录(GlobalCatalog)信息。
2.2数据节点(DataNode)
实际存储表和索引数据,数据自动打散分布(或者复制)到集群中各数据节点。
只有协调器连接到数据节点才能可读写。
执行协调器下传的查询,一个查询在所有相关节点上并行查询。
两个数据节点间可建立一对一通讯连接,交换分布式表关联查询的相关信息。
2.3全局事务管理器(GTM)
全局事务管理器(GTM:Global Transaction Manager)
全集群只有一个GTM节点,会有单点故障问题,可以配置StranBy热备节点保证高可用。
通过部署GTM Proxy,解决GTM性能瓶颈。
提供事务间一致性视图。
处理必须的MVCC任务:
transaction IDs 事务ID。
snapshots 数据快照,MVCC使用。
管理全局性数据值:
timestamps 时间戳。
sequences 序列对象。
2.4GTM Proxy
Ø 与协调器(Coordinator)和数据节点(DataNode)在一起运行。
Ø 协调器、数据节点直接与GTM Proxy交互替代GTM,它做为后端与GTM间的中间人。
Ø 将对GTM的请求分组归集,多个请求一次提交给GTM。
Ø 获取transaction ids(XIDs)范围。
Ø 获取数据快照。
2.5数据分布
数据分布有两种模式: 复制表(Replicated Table)与分布表(Distributed Table)
复制表(Replicated Table):每行记录复制到集群中所有的数据节点,每节点一份。
分布表(DistributedTable):记录分片存在不同节点,可用的分片策略方式Hash、Round Robin、Modulo。
2.6高可用性
全局事务管理器采用热备方式。
多个协调器间负载均衡。
数据节点使用流复制,复制数据到备节点。
3安装搭建Postgres-XL
3.1环境列表
操作系统:centos6.5
postgres-xl版本:postgres-xl-9.5r1.3.tar.g
主机名 |
ip |
角色 |
用户 |
pgxlmaster |
192.168.204.197 |
GTM |
postgres |
pgxlnode1 |
192.168.204.198 |
Coordinator、Datanode与GTM-Proxy |
postgres |
Pgxlnode2 |
192.168.204.199 |
Coordinator、Datanode与GTM-Proxy |
postgres |
下载:http://www.postgres-xl.org/download/
资料:http://postgres-xc.sourceforge.net/docs/1_1/pgxc-ctl.html
http://files.postgres-xl.org/documentation/install-short.html
3.2设置操作系统环境准备(root用户在pgxlmaster操作)
–配置主机名
hostname
vi /etc/sysconfig/network
vi /etc/hosts
192.168.204.197 pgxlmaster
192.168.204.198 pgxlnode1
192.168.204.199 pgxlnode2
–设置防火墙
chkconfig iptablesoff
service iptables off
–创建用户
useradd postgres
passwd postgres
–安装相关编译pgxl依赖包(我这里)
ncurses-devel
readline-devel
zlib-devel
flex
3.3解压至规划目录
mkdik -p /pgxl
mkdik -p /pgsolf
拷贝postgres-xl-9.5r1.3.tar.gz至/pgsolf
chown -R postgres:postgres /pgxl
chown -R postgres:postgres /pgsolf
tar -zxvf /pgsolf/postgres-xl-9.5r1.3.tar.gz -C /pgsolf/
3.4编译安装
cd /pgsolf/ postgres-xl-9.5r1.3
./configure –prefix=/pgxl
make
make install
3.5配置环境变量
vi /home/postgres/.bash_profile或者vi .bashrc
export PGUSER=postgres
export PGHOME=/pgxl
export LD_LIBRARY_PATH=$PGHOME/lib:$LD_LIBRARY_PATH
export PATH=$HOME/bin:$PGHOME/bin:$PATH
3.6在pgxlnode1、pgxlnode1同样如上操作
3.7在pgxlmaster配置ssh免密码到pgxlnode1、pgxlnode1认证
postgres用户执行:
ssh-keygen -t rsa
cd /home/postgres/.ssh/
catid_rsa.pub>> authorized_keys
root用户执行:chmod 600 /home/postgres/.ssh/authorized_keys
postgres用户执行:
scp /home/postgres/.ssh/authorized_keys postgres@pgxlnode1:/home/postgres/.ssh/
scp /home/postgres/.ssh/authorized_keys postgres@pgxlnode2:/home/postgres/.ssh/
3.8在gtm主机;即pgxlmaster执行安装工具pgxc_ctl
cd /pgsolf/postgres-xl-9.5r1.3/contrib
make
make install
3.9 在pgxlmaster主机配置集群
在/pgxl/bin命令执行pgxc_ctl
PGXC工具中执行prepare 会在/home/postgres/pgxc_ctl下生成pgxc_ctl.conf
配置修改pgxc_ctl.conf文件(重点关注黄色部分,其他默认即可)
#!/usr/bin/env bash pgxcInstallDir=$HOME/pgxc pgxcOwner=$USER pgxcUser=$pgxcOwner tmpDir=/tmp localTmpDir=$tmpDir configBackup=n configBackupHost=pgxc-linker configBackupDir=$HOME/pgxc configBackupFile=pgxc_ctl.bak #—- GTM #—- GTM Master ———————————————– gtmName=gtm gtmMasterServer=pgxlmaster gtmMasterPort=20001 gtmMasterDir=$HOME/pgxc/nodes/gtm #—- Configuration — gtmExtraConfig=none gtmMasterSpecificExtraConfig=none #—- GTM Slave ———————————————– gtmSlave=n #是否启用gtmSlave gtmSlaveName=gtmSlave gtmSlaveServer=pgxlnode1 gtmSlavePort=20002 gtmSlaveDir=$HOME/pgxc/nodes/gtm #—- GTM Proxy gtmProxyDir=$HOME/pgxc/nodes/gtm_pxy gtmProxy=y #是否启用gtmProxy gtmProxyNames=(gtm_pxy1 gtm_pxy2) gtmProxyServers=(pgxlnode1 pgxlnode2) gtmProxyPorts=(20001 20001) gtmProxyDirs=($gtmProxyDir $gtmProxyDir) #—- Configuration —- gtmPxyExtraConfig=none gtmPxySpecificExtraConfig=(none none) coordMasterDir=$HOME/pgxc/nodes/coord coordSlaveDir=$HOME/pgxc/nodes/coord_slave coordArchLogDir=$HOME/pgxc/nodes/coord_archlog coordNames=(coord1 coord2) # 名称 coordPorts=(20004 20005) # 端口 poolerPorts=(20010 20011) # Master pooler ports coordPgHbaEntries=(192.168.204.0/24) #coordPgHbaEntries=(::1/128) #—- Master ————- coordMasterServers=(pgxlnode1 pgxlnode2) #主机名 coordMasterDirs=($coordMasterDir $coordMasterDir) coordMaxWALsernder=0 # needed to configure slave. If zero value is specified, coordMaxWALSenders=($coordMaxWALsernder $coordMaxWALsernder) #—- Slave ————- coordSlave=n # 是否启用协调coordSlave coordSlaveSync=y coordSlaveServers=(node07 node08 node09 node06) coordSlavePorts=(20004 20005 20004 20005) coordSlavePoolerPorts=(20010 20011 20010 20011) coordSlaveDirs=($coordSlaveDir $coordSlaveDir $coordSlaveDir $coordSlaveDir) coordArchLogDirs=($coordArchLogDir $coordArchLogDir $coordArchLogDir $coordArchLogDir) cat > $coordExtraConfig <<EOF #================================================ # Added to all the coordinator postgresql.conf # Original: $coordExtraConfig log_destination = ‘stderr’ logging_collector = on log_directory = ‘pg_log’ listen_addresses = ‘*’ max_connections = 100 EOF coordSpecificExtraConfig=(none none) coordExtraPgHba=none coordSpecificExtraPgHba=(none none) #—– Additional Slaves —– coordAdditionalSlaves=n coordAdditionalSlaveSet=(cad1) # configured cad1_Sync=n cad1_Servers=(node08 node09 node06 node07) cad1_dir=$HOME/pgxc/nodes/coord_slave_cad1 cad1_Dirs=($cad1_dir $cad1_dir $cad1_dir $cad1_dir) cad1_ArchLogDir=$HOME/pgxc/nodes/coord_archlog_cad1 cad1_ArchLogDirs=($cad1_ArchLogDir $cad1_ArchLogDir $cad1_ArchLogDir $cad1_ArchLogDir) #—- Datanodes datanodeMasterDir=$HOME/pgxc/nodes/dn_master datanodeSlaveDir=$HOME/pgxc/nodes/dn_slave datanodeArchLogDir=$HOME/pgxc/nodes/datanode_archlog primaryDatanode=datanode1 # Primary Node. datanodeNames=(datanode1 datanode2) datanodePorts=(20008 20009 ) # Master ports datanodePoolerPorts=(20012 20013) # Master pooler ports datanodePgHbaEntries=(192.168.204.0/24) #—- Master —————- datanodeMasterServers=(pgxlnode1 pgxlnode2) datanodeMasterDirs=($datanodeMasterDir $datanodeMasterDir) datanodeMaxWalSender=0 datanodeMaxWALSenders=($datanodeMaxWalSender $datanodeMaxWalSender) #—- Slave —————– datanodeSlave=n #是否启用datanodeSlave datanodeSlaveServers=(node07 node08 node09 node06) datanodeSlavePorts=(20008 20009 20008 20009) datanodeSlavePoolerPorts=(20012 20013 20012 20013) datanodeSlaveSync=y datanodeSlaveDirs=($datanodeSlaveDir $datanodeSlaveDir $datanodeSlaveDir $datanodeSlaveDir) datanodeArchLogDirs=($datanodeArchLogDir $datanodeArchLogDir $datanodeArchLogDir $datanodeArchLogDir ) # —- Configuration files — datanodeExtraConfig=none datanodeSpecificExtraConfig=(none none ) datanodeExtraPgHba=none datanodeSpecificExtraPgHba=(none none ) #—– Additional Slaves —– datanodeAdditionalSlaves=n # datanodeAdditionalSlaveSet=(dad1 dad2) # configured # dad1_Sync=n # dad1_Servers=(node08 node09 node06 node07) # dad1_dir=$HOME/pgxc/nodes/coord_slave_cad1 # dad1_Dirs=($cad1_dir $cad1_dir $cad1_dir $cad1_dir) # dad1_ArchLogDir=$HOME/pgxc/nodes/coord_archlog_cad1 #dad1_ArchLogDirs=($cad1_ArchLogDir $cad1_ArchLogDir $cad1_ArchLogDir $cad1_ArchLogDir) #—- WAL archives walArchive=n walArchiveSet=(war1 war2) war1_source=(master) wal1_source=(slave) wal1_source=(additiona_coordinator_slave_set additional_datanode_slave_set) war1_host=node10 war1_backupdir=$HOME/pgxc/backup_war1 wal2_source=(master) war2_host=node11 war2_backupdir=$HOME/pgxc/backup_war2 #=============<< End of future extension demonistration >> |
修改好之后
在/pgxl/bin命令执行pgxc_ctl后PGXC工具中执行
init all
等待初始化成功。
3.10初步使用
stop|start all
psql -h (pgxlnode1或者pgxlnode2) -p(20004或者20005)–通过协调节点可读写
psql -h (pgxlnode1或者pgxlnode2) -p(20008或者20009)–通过数据节点只可读
postgres=# select *from pgxc_node;
创建表语法
CREATE TABLE test(…)
DISTRIBUTE BY
HASH(col)|MODULO(col)|ROUNDROBIN|REPLICATION
TONODE(nodename1,nodename2…)
如果DISTRIBUTEBY 后面是REPLICATION,则是复制模式,其余则是分片模式,HASH指的是按照指定列的哈希值分布数据,MODULO指的是按照指定列的取摩运算分布数据,ROUNDROBIN指的是按照轮询的方式分布数据。TO NODE指定了数据分布的节点范围,如果没有指定则默认所有数据节点参与数据分布。如果没有指定分布模式,即使用普通的CREATE TABLE语句,PGXL会默认采用复制模式将数据复制到所有数据节点。
通过协调节点操作:
psql -h pgxlnode1 -p 20004
CREATE TABLE test(id int primary key, name varchar(10)) DISTRIBUTE BY HASH(id) TO NODE(datanode1,datanode2);
insert into test select generate_series(1,1000),’test’||generate_series(1,1000);
postgres=#select count(*) from test;
count
——-
1000
(1 row)
通过数据节点操作:
完成。
转载自:https://blog.csdn.net/sunziyue/article/details/53189304