(3)过于依赖Kerberos。在整个Hadoop集群中,只存在一个Kerberos服务器,这个服务器负责集群中所有节点的访问控制。当Hadoop中节点的数量变大时,Kerberos负担会加重。若在某一时刻很多节点向服务器请求访问Token,可能会超出服务器的处理能力。此外,这也是Hadoop中心控制问题的一个表现,若Kerberos服务器出现故障,则整个集群都无法运行。
(4)无法应对恶意的网络攻击。Hadoop在设计时没有对可能遭受的网络安全问题进行考虑,Hadoop中没有对应的网络安全防护措施,很容易受到诸如Ddos的攻击,因此Hadoop对网络安全的防护只能借助第三方的工具。
(5)大数据用户只能寻求第三方工具维护安全
因为比较缺乏安全维护,目前Hadoop上诞生了一定数量的企业级安全解决方案,比如Cloudera Sentry、IBM InforSphere Optim Data Masking、DataStax企业版、DataGuise for Hadoop、英特尔的安全办Hadoop、Protegrity大数据保护器等。这些企业级安全解决方案一定程度上改善了Hadoop的安全状况。此外,Apache Ranger,Apache Rhino, Apache Knox, Gateway等Apache 支持的安全项目也使Hadoop运行的安全环境得到极大改善。
reference:
陈玺, 马修军, 吕欣. Hadoop生态体系安全框架综述[J]. 信息安全研究, 2016, 2(8):684-698.
缪璐瑶. Hadoop安全机制研究[D]. 南京邮电大学, 2015.
下面关于Hadoop的文章您也可能喜欢,不妨看看:
Ubuntu14.04下Hadoop2.4.1单机/伪分布式安装配置教程
CentOS 6.3下Hadoop伪分布式平台搭建