博客
关于我
技术干货 | 阿里云数据库PostgreSQL 13大版本揭秘
阅读量:469 次
发布时间:2019-03-06

本文共 1794 字,大约阅读时间需要 5 分钟。

简介: 阿里云RDS PostgreSQL是一款兼容开源PostgreSQL的全托管云数据库产品,自2015年首次发布以来,根据用户需求不断升级迭代,已支持9.4、10、11、12等多个版本,覆盖了高可用版、基础版、只读实例等多种形态,数据存储覆盖了本地SSD、SSD云盘、 ESSD云盘等多种形态。最高配置可达104核,768G内存,32TB,100万IOPS。

阿里云RDS PostgreSQL是一款兼容开源PostgreSQL的全托管云数据库产品,自2015年首次发布以来,根据用户需求不断升级迭代,已支持9.4、10、11、12等多个版本,覆盖了高可用版、基础版、只读实例等多种形态,数据存储覆盖了本地SSD、SSD云盘、 ESSD云盘等多种形态。最高配置可达104核,768G内存,32TB,100万IOPS。

为了满足不同行业的数据库诉求,阿里云数据库PostgreSQL推出了冷热分离(oss_fdw)存储外部表,Ganos 地理时空扩展模块,中文分词模块,化学分析模块,图像识别模块等,已经服务了电商、企业ERP、银行、酒店、高科技、物流、互联网、出行、多媒体等各个行业。2021开年,我们带来了最新重磅产品升级发布:

  • RDS PostgreSQL 13重磅发布:

兼容社区最新大版本13, Btree索引更加高效、更加节省空间,分区表与聚合查询性能大幅度提升,JSON的使用方面功能更加强大,扩展统计信息增强支持更好的SQL优化逻辑,增加了增量排序和并行索引垃圾回收功能等。

 

  • 一键大版本升级功能发布:

为了让低版本的用户可以更加高效率的升级到高版本,享受高版本带来的更多功能和高性能,我们推出了一键大版本升级功能,低版本用户可以*乎*滑的升级到大版本(割接过程短暂只读)。

 

较多用户基于早期成本考虑或业务重要程度原因选择了基础版, 在业务重要度提升后, 希望升级到高可用版, 以前只能通过迁移数据实现, 耗时久,而且需要改业务连接串,体验不太友好,我们现在支持了一键升级到高可用版本。

  • 解决DDL增量订阅问题:

在稳定性方面,阿里云RDS PostgreSQL解决了逻辑增量数据同步的难题:DDL无法被捕获,不能同步到下游。因此只要主库执行DDL语句,当这些语句涉及到结构变更或者新增了结构,这些DDL之后产生的增量数据在下游的回放就可能失败。现在我们支持DDL订阅了,结合DTS服务,我们能够支持RDS PostgreSQL的增量数据同步。

  • 解决逻辑订阅在流复制HA环境中SLOT位点丢失问题:

社区版本存在的一个问题:逻辑增量复制的SLOT位点信息不能同步到流复制从库,这个问题会导致实例发生主从切换后,SLOT信息丢失,这也是很多PG数据库用户头痛的问题。我们在RDS PostgreSQL内核层面支持了SLOT位点的主从同步,主备发生切换后,SLOT位点信息不会丢失,逻辑复制正常。

 

  • 让RDS PostgreSQL更加安全:

在安全方面,此次发布我们推出了SQL 防火墙的功能,支持学习模式,自动学习数据库中执行的SQL并记录到白名单中,开启报警后,只有白名单的SQL可以被执行,可以有效的防止删库跑路的发生。

 

  • 支持ES索引:

在使用灵活性方面,RDS PostgreSQL可以更好的融合其他产品,例如oss_fdw,用户可以把访问较少的数据放在OSS,作为外部表进行访问,特别适合历史数据的存储,可以帮助用户节约成本。此次我们会在RDS PostgreSQL中增加与ElasticSearch的融合,我们为什么要支持这个功能呢?其实ES是很流行的一款搜索引擎,很多用户都在用它,但是用户需要将关系数据库的数据同步到ES需要大费周章,通过逻辑增量复制来实现,或者业务层自己双写来实现,都不能保证一致性、延迟的需求,问题很多。现在,用户可以在RDS PostgreSQL的表中创建ES索引,数据存储在PostgreSQL中,索引在ES集群中,不需要用户维护同步、一致性的问题, 正常对RDS PG执行写入和查询就可以了,会对业务透明的利用ES搜索引擎的能力加速RDS PG的数据搜索。

 

我们在产品方面不断追求更快、更稳、更安全的理念,同时探求客户真正的需求,为客户提供更满意的RDS PostgreSQL服务。

作者:德哥

本文为阿里云原创内容,未经允许不得转载

你可能感兴趣的文章
NIFI1.21.0/NIFI1.22.0/NIFI1.24.0/NIFI1.26.0_2024-06-11最新版本安装_采用HTTP方式_搭建集群_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0_java.net.SocketException:_Too many open files 打开的文件太多_实际操作---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_插入时如果目标表中已存在该数据则自动改为更新数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0058
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_更新时如果目标表中不存在记录就改为插入数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0059
查看>>
NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
查看>>
NIFI1.21.0_Postgresql和Mysql同时指定库_指定多表_全量同步到Mysql数据库以及Hbase数据库中---大数据之Nifi工作笔记0060
查看>>
NIFI1.21.0最新版本安装_连接phoenix_单机版_Https登录_什么都没改换了最新版本的NIFI可以连接了_气人_实现插入数据到Hbase_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0最新版本安装_配置使用HTTP登录_默认是用HTTPS登录的_Https登录需要输入用户名密码_HTTP不需要---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增加修改实时同步_使用JsonPath及自定义Python脚本_03---大数据之Nifi工作笔记0055
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_插入修改删除增量数据实时同步_通过分页解决变更记录过大问题_01----大数据之Nifi工作笔记0053
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表或全表增量同步_实现指定整库同步_或指定数据表同步配置_04---大数据之Nifi工作笔记0056
查看>>
NIFI1.23.2_最新版_性能优化通用_技巧积累_使用NIFI表达式过滤表_随时更新---大数据之Nifi工作笔记0063
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现update数据实时同步_实际操作05---大数据之Nifi工作笔记0044
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_实现数据插入数据到目标数据库_实际操作03---大数据之Nifi工作笔记0042
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_生成插入Sql语句_实际操作02---大数据之Nifi工作笔记0041
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_03_来吧用NIFI实现_数据分页获取功能---大数据之Nifi工作笔记0038
查看>>