1、HDB 2.3.0新特性(对比HDB 2.2.0) (1)HAWQ Ranger HA(High Availability)和Kerberos支持 (2)支持PXF HiveVectorizedORC profile和JDBC插件 (3)Bug修复 2、支持平台 HDB | PXF | HDP | Ambari | HAWQ Ambari Plug-in | RHEL/CentOS | 2.3.0.0 | 3.3.0.0 | 2.6.1 | 2.5.1 | 2.3.0.0 | 6.4+、7.2+(64-bit) | 2.2.0.0 | 3.2.1.0 | 2.5.3,2.6.1 | 2.4.2,2.5.1 | 2.2.0.0 | 6.4+、7.2+(64-bit) | 2.1.2.0 | 3.2.0.0 | 2.5 | 2.4.1,2.4.2 | 2.1.2.0 | 6.4+(64-bit) |
3、已知问题 (1)操作系统:HDB安装运行RHEL-7或CentOS 7—7.3版本之间可能会经历一个操作系统的问题,可能导致HDB挂有大量工作负载。RHEL 7.3和CentOS 7.3解决该问题。 (2)Ranger集成:HAWQ集成Ranger Policy授权管理存在限制(不支持SSL加密,一些superuser-restricted授权由HAWQ自身处理) (3)PXF gpsql - 3345利用虚拟段的数量变化,PXF外部表更新后必须删除并重新创建default_hash_table_bucket_number服务器配置参数。 gpsql - 3347 LOCATION字符串创建PXF时提供外部表必须只使用ASCII字符标识文件路径。指定文件路径中双字节或多字节字符返回下列错误(清晰的格式): ERROR: remote component error (500) from 'IP_Address:51200': type Exception report message: File does not exist: /tmp/??????/ABC-??????-001.csv description: The server encountered an internal error that prevented it from fulfilling this request. exception: java.io.IOException: File does not exist: /tmp/??????/ABC-??????-001.csv (libchurl.c:897) (seg10 hdw2.hdp.local:40000 pid=389911) (dispatcher.c:1801) PXF在Kerberos-secured集群需要安装YARN,原因是依赖YARN库。 为了让PXF HBase互操作,您必须手动将PXF HBase JAR文件添加到HBase类路径。 HAWQ- 974—当使用某些PXF profiles查询存储在HDFS中较大文件时,用户可能会偶尔遇到悬挂或查询超时。这是未来HDB版本中将会改进的一个已知问题。有关可用于在PXF部署中解决这些问题的配置选项的讨论,请参阅解决PXF内存问题。 HiveORC profile支持聚合查询(count, min, max等等),但他们尚未优化利用ORC文件和stripe-level元数据。 HiveVectorizedORC profile不支持timestamp数据类型和复杂类型。 (4)Ambari Ambari管理集群应该仅使用ambari设置服务配置参数。参数修改后使用hawq config命令将覆盖Ambari启动或重新配置。 在Kerberos安全集群中安装HAWQ时,如果安装期间资源管理类型的HAWQ配置切换到YARN模式,安装过程可能会在Ambari中报告警告/失败。警告与HAWQ无法在YARN上注册有关,直到HDFS和YARN服务重新启动,HAWQ安装过程产生新的配置。 更改HAWQ master端口号后,HAWQ standby master将无法工作。启用standby master,您必须先删除并重新初始化(Activating)它 Ambari 重新同步 HAWQ Standby Master服务行动失败如果有一个活跃的连接到HAWQ master节点。HAWQ任务输出显示错误, Active connections. Aborting shutdown...如果发生这种情况,请关闭所有活跃的连接,然后再次尝试重新同步操作。 Ambari 对HAWQ操作Run Service Check,PXF可能无法正常工作在一个安全的集群,if PXF is not co-cocated with the YARN component。 在安全集群中,如果你将YARN Resource Manager移动到其他主机,则必须在HDFS core-site.xml文件中手动更新 hadoop.proxyuser.yarn.hosts来匹配新的Resource Manager主机名。如果你不执行此步骤,HAWQ segments段无法从Resource Manager获取资源。 在某些情况下Ambari Stop HAWQ Server (Immediate Mode)服务行为或 hawq stop -M immediate命令可能不会停止所有HAWQ master进程。一些postgres进程拥有的 gpadmin用户可能仍然保持活动状态 Ambari在YARN HA未启用时检查hawq_rm_yarn_address和hawq_rm_yarn_scheduler_address值是否有效。在启用YARN HA集群中,这些属性未被使用,并可能与活动的Resource Manage不同步。如果你试图更改这些属性值,这可能会导致Ambari虚假的警告。 Ambari不支持HAWQ的自定义配置组。 与resource enforcement相关的某些HAWQ服务器配置参数不活动。由于当前resource enforcement功能并不支持,因此修改参数在HAWQ中不起作用。这些参数包括 hawq_re_cgroup_hierarchy_name, hawq_re_cgroup_mount_point, hawq_re_cpu_enable。这些参数显示在Ambari管理界面的Advanced hawq-site配置区域。 |