org.apache.hive.service.cli.HiveSQLException: Error running query: org.apache.spark.sql.AnalysisException: cannot resolve 'date_add(CAST(spark_catalog.test_sql.test5.`dt` AS DATE), INTERVAL '-5 days')' due to data type mismatch: argument 2 requires (int or smallint or tinyint) type, however, 'INTERVAL '-5 days'' is of interval type.; line 4 pos 7; 'Aggregate [user_id#6379, dt#6378], [user_id#6379, dt#6378, row_number() windowspecdefinition(user_id#6379, dt#6378 ASC NULLS FIRST, specifiedwindowframe(RowFrame, unboundedpreceding$(), currentrow$())) AS rn1#6375, date_add(cast(dt#6378 as date), -5 days) AS dt2#6376] +- SubqueryAlias spark_catalog.test_sql.test5 +- HiveTableRelation [`test_sql`.`test5`, org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe, Data Cols: [dt#6378, user_id#6379, age#6380], Partition Cols: [ ..
时间: 2024-04-08 20:32:32 浏览: 290
【hive on spark Error】return code 30041 from org.apache.hadoop.hive.ql.exec.spark.SparkTask.
这个错误是由于Spark SQL中的数据类型不匹配导致的。具体来说,'date_add(CAST(spark_catalog.test_sql.test5.`dt` AS DATE), INTERVAL '-5 days')'这个表达式中的第二个参数应该是int、smallint或tinyint类型的,但实际上是一个interval类型的值'INTERVAL '-5 days''。
这个错误是在第4行第7个位置发生的,出现在一个聚合操作中。在这个操作中,使用了row_number函数和date_add函数,其中date_add函数中的参数导致了数据类型不匹配的问题。
解决这个问题的方法是将第二个参数改为整数类型的值,而不是interval类型的值。你可以通过使用date_sub函数来实现相同的效果,例如:date_sub(cast(dt#6378 as date), 5)。
请注意,我是根据你提供的错误信息进行推测和分析的,如果你有更多的上下文信息或代码示例,我可以给出更准确的建议。
阅读全文