Hadoop存在巨大数据安全风险的十个理由

2019-02-26    来源:多智时代

容器云强势上线!快速搭建集群,上万Linux镜像随意使用

大数据分析处理日渐成为企业的主流业务,而Hadoop了成为了大数据处理的主要工具,但它却存在安全风险。近日,国外媒体列出了Hadoop存在巨大数据安全风险的十个理由。

1、Hadoop不是专为企业数据而生

像许多开拓性的IT技术(如TCP/IP或Unix)一样,Hadoop的概念并非来自企业用户,企业安全更是无从谈起。使用Hadoop的最初目的是管理公开可用的信息,,如Web链接。其是针对大量的非结构化数据在分布式计算环境中设计的,并没有形成书面的安全、合规、加密、政策支持和风险管理等协议。

2、Hadoop的安全完全依赖Kerberos

Hadoop使用Kerberos进行身份验证。然而,该协议却可能很难实现,因为其并没有涵盖企业在安全方面的需求,比如基于角色的验证、LDAP和活动目录的政策支持等。Hadoop还不能支持节点与节点之间的传输数据的加密。

3、Hadoop集群包含很多节点

传统的数据安全技术的概念是建立在保护一个物理实体(如数据库或服务器)基础之上,这与Hadoop集群独特的大数据分布式计算环境有所不同。传统的安全技术在这种分布式的、大规模的环境中不能有效发挥作用。

4、在Hadoop环境中,传统的备份及灾难恢复数据并不相同

Hadoop集群的分布式特性也使得许多传统的备份及恢复方法和政策无效。如果用户使用Hadoop,则需要将数据复制、备份、存储在一个单独的、安全的环境中。

5、Hadoop很少能够单独运行

为了获得好处的大数据处理结果,Hadoop需要结合使用其他技术。虽然这些工具能够帮助处理大数据的访问和使用,但其大多数也缺乏真正的企业级安全。强化Hadoop本身,只是应对大数据安全挑战的一个部分而已。

6、大数据的工作负载遵从统一规则

大数据没有附带单独的管理规定和要求。不管它用于存储还是管理数据,企业组织必须要建立符合监管要求的数据保护和安全政策,如HIPAA、PCI等。但在此基础上,传统安全技术仍不能完全解决大数据环境下的挑战。

7、维护成本不确定

到目前为止,还没有人能够确定一个安全漏洞未企业带来多大的风险成本。没有全面的安全风险评估,企业将无法评估其安全弱点,也无法确定其在安全保障方面投入了多少资金。

8、大数据用户凭自己的力量维护安全

目前,企业用户关于维护Hadoop集群安全的做法包括对外部访问的控制,以及限制允许访问集群的人员数量等。

9、保护数据集群需要额外的步骤

Hadoop环境下的漏洞仍旧存在的话,那维护数据安全的额外步骤就必不可少。用户必须定期扫描他们的集群环境,以发现其脆弱点。这也是在复制和备份数据的同时将其存储在一个单独的安全环境中的最佳实践。

10、Hadoop用户必须时刻保持更新

大数据分析处理日渐成为企业的主流业务,IT技术的应用贯穿公司从创业到运营的始终,其目的是使大数据分析为企业带来更多效益。IT管理者维护安全的最好做法包括定期访问网站的反馈意见,要将包含大数据的所有部分:安全、存储、服务器和数据中心系统等作为一个整体来看待。

在不久的将来,云计算一定会彻底走入我们的生活,有兴趣入行未来前沿产业的朋友,可以收藏云计算,及时获取人工智能、大数据、云计算和物联网的前沿资讯和基础知识,让我们一起携手,引领人工智能的未来!

标签: 安全 处理大数据 大数据 大数据处理 大数据分析 服务器 漏洞 媒体 数据分析 数据库 云计算

版权申明:本站文章部分自网络,如有侵权,请联系:west999com@outlook.com
特别注意:本站所有转载文章言论不代表本站观点!
本站所提供的图片等素材,版权归原作者所有,如需使用,请与原作者联系。

上一篇:微软发布为iOS设计的Windows云计算工具包

下一篇:IDC:全球云IT基础设施市场第四季度增长14.4%