Spark2.3特有故障
一、集群环境类
1、...
2、...
二、spark2.3特有问题总结
1、org.apache.spark.sql.AnalysisException: Table or view not found
有些用户在使用hive、spark-hive或者spark-shell的时候能够正确操作Hive表,但是改为使用Spark API,并用spark-submit提交时,会出现此问题。
这里给一个例子:
def main(args: Array[String]): Unit = {
val sparkConf = new SparkConf()
val sc: SparkContext = new SparkContext(sparkConf)
val sparkSession: SparkSession = SparkSession.builder().enableHiveSupport().getOrCreate()
//省略其余代码
提交任务后,出现:
org.apache.spark.sql.AnalysisException: Table or view not found: `dbA`.`tableA`; line 1 pos 14;
形式的错误。
这种使用方法是有问题的,Spark2.x.x提供了一个新的API——SparkSession,就是想封装并替换老版本中的SparkContext、SqlContext、HiveContext等API。应该使用如下方式:
def main(args: Array[String]): Unit = {
val sparkSession: SparkSession = SparkSession.builder().enableHiveSupport().getOrCreate()
//省略其余代码