Hadoop新增校验功能,防数据损坏,保护端到端数据完整性
新的Apache Hadoop端到端数据完整性验证,有助于验证不同存储系统间传输数据的完整性,也能检测出因内存错误造成的数据损坏。
为确保用户数据在传输过程未被更改,Google、twitter以及Apache Hadoop开源社区合作,为Apache Hadoop加入跨异构文件系统的端到端数据验证功能,能用于如HDFS以及Google Cloud Storage间数据传输的校验。
Google提到,在不同存储系统间移动或是复制数据的时候,最好执行验证以确保数据安全,虽然现在有不少机制在保护点到点传输数据的完整性,但是执行端到端的数据完整性验证,则可以为典型传输机制增加额外的保护。当然这也可以帮忙检测因为网络、服务器以及路径上的路由器因内存错误造成的数据损坏。
Google、twitter以及Apache Hadoop开源社区三方合作,创建了新的校验码类型,能将复合模块CRC以及复合文件CRC,定义为跨存储区块CRC的数学组合CRC。这取代了使用组件CRC的MD5,以计算代表整个模块或是文档的单一CRC,而且与区块CRC较低等级的精细度无关。
Apache Hadoop从3.1.1版本开始提供新的CRC校验功能,同时也会在2.7、2.8以及2.9版本向后兼容,不过使用者还必须要再等等。
相关推荐
minerd 2020-10-28
changjiang 2020-11-16
WeiHHH 2020-09-23
Aleks 2020-08-19
WeiHHH 2020-08-17
飞鸿踏雪0 2020-07-26
tomli 2020-07-26
deyu 2020-07-21
strongyoung 2020-07-19
eternityzzy 2020-07-19
Elmo 2020-07-19
飞鸿踏雪0 2020-07-09
飞鸿踏雪0 2020-07-04
xieting 2020-07-04
WeiHHH 2020-06-28
genshengxiao 2020-06-26
Hhanwen 2020-06-25