先解释下,由于历史原因导致hive中的看到分区比hdfs中的文件夹不匹配,存在hive中分区数有,实际hdfs中无此文件夹. spark中通过sparkSQL读取hive中的该表时,将会出现异常. 解决方案: 1. 检查该表是否是外部表,如果不是,将属性修改为外部表属性. 这里修改为外部表,目的是在删除分区时,不会将已有的数据删除.必要时,先做好备份处理. alter table tablename set tblproperties('EXTERNAL'='TRUE'); 2. 删除异常分区…