
1) 【一句话结论】Hadoop集群常见网络安全漏洞主要涉及配置不当(权限、网络隔离)、认证缺失(如弱密码、未启用Kerberos)及组件间未隔离,定期扫描需结合工具(如Nessus、OpenVAS)和策略(配置审计、权限检查),修复需及时更新组件、调整配置、强化认证。
2) 【原理/概念讲解】Hadoop集群的网络安全核心是“隔离+认证+授权”,其中HDFS负责数据存储,YARN负责资源调度,两者需通过Kerberos进行身份认证。常见漏洞:
3) 【对比与适用场景】
| 漏洞类型 | 定义 | 特性 | 使用场景 | 注意点 |
|---|---|---|---|---|
| HDFS权限配置 | HDFS目录/文件权限设置不当(如默认777) | 权限过松,未授权访问 | 检查HDFS默认目录权限 | 需定期检查/用户目录权限 |
| YARN容器隔离 | YARN容器间未启用网络/资源隔离 | 容器间可互相攻击(提权) | 检查YARN容器隔离策略 | 启用网络隔离(默认开启,需确认) |
| Kerberos认证缺失 | 未启用Kerberos,使用简单认证 | 身份易伪造,安全等级低 | 检查Kerberos配置 | 必须启用Kerberos,密钥管理严格 |
| 网络未隔离 | 集群节点间或与外部网络未隔离(如开放0.0.0.0/0) | 外部攻击直连内部节点 | 检查防火墙规则、网络拓扑 | 严格隔离,仅允许必要端口访问 |
4) 【示例】以HDFS权限配置为例,假设集群中HDFS的/用户目录默认权限为777,导致外部用户可读取/写入数据。修复步骤(伪代码):
# 修改权限为700(仅属主可读写)
hdfs dfs -chmod 700 /用户
# 重置属主和组(如hadoop用户)
hdfs dfs -chown hadoop:hadoop /用户
# 验证权限
hdfs dfs -ls /用户
输出应显示权限为rwx---(700),属主和组正确。
5) 【面试口播版答案】(约80秒)
“面试官您好,针对Hadoop集群的常见网络安全漏洞,核心问题包括配置不当(如HDFS目录权限、YARN容器隔离)、认证缺失(如未启用Kerberos)和网络未隔离。具体来说,比如HDFS默认目录权限设置过松(如777),导致未授权用户访问数据;YARN容器间未启用网络隔离,可能引发容器间攻击;还有部分集群未启用Kerberos,使用简单密码,身份易伪造。定期扫描可通过工具如Nessus或OpenVAS,检查配置文件(如hdfs-site.xml、yarn-site.xml)中的权限设置、Kerberos配置,以及网络拓扑(如防火墙规则)。修复时,需及时更新组件(如Hadoop版本)、调整配置(如修改权限为700,启用容器隔离)、强化认证(启用Kerberos,管理密钥)。比如发现HDFS目录权限问题,立即修改为700并重置权限,确保只有授权用户可访问;对于未启用Kerberos的情况,配置Kerberos证书,启用认证服务,定期更新密钥库。总结来说,漏洞修复需‘预防+检测+响应’,通过定期扫描工具发现漏洞,及时调整配置和更新组件,保障集群安全。”
6) 【追问清单】
7) 【常见坑/雷区】