为什么前台传url?city=dd后台java使用@RequestParam读取时为dd,dd
时间: 2023-10-18 18:48:04 浏览: 121
这是因为在URL中传递参数时,参数会以键值对的形式附加在URL的末尾,使用问号分隔URL和参数。在你提供的示例中,URL中的参数是"city=dd"。当后台使用Java时,可以使用@RequestParam注解来读取URL中的参数值。在这种情况下,后台会将参数值"dd"赋给名为"city"的变量。因此,后台Java代码中使用@RequestParam注解读取到的值是"dd"。
相关问题
为什么前台传url?city=dd后台java读取时为dd,dd
前台传递的URL中的参数是以键值对的形式传递的,例如`?city=dd`中的`city`就是参数名,`dd`就是参数值。在后台使用Java读取URL参数时,可以使用`request.getParameter("city")`来获取参数值。因此,当前台传递的URL为`?city=dd`时,后台Java代码读取到的参数值就是`dd`。
def passed_temperature_analyse(filename): print("开始分析气温") # spark = SparkSession.builder.master("spark://master:7077").appName("passed_temperature_analyse").getOrCreate() spark = SparkSession.builder.master("local").appName("passed_temperature_analyse").getOrCreate() # spark = SparkSession.builder.master("local[4]").appName("passed_rain_analyse").getOrCreate() df = spark.read.csv(filename, header=True) df_temperature = df.select( # 选择需要的列 df['province'], df['city_name'], df['city_code'], df['temperature'].cast(DecimalType(scale=1)), F.date_format(df['time'], "yyyy-MM-dd").alias("date"), # 得到日期数据 F.hour(df['time']).alias("hour") # 得到小时数据 ) # 筛选四点时次 # df_4point_temperature = df_temperature.filter(df_temperature['hour'].isin([2,4,6,8])) df_4point_temperature = df_temperature.filter(df_temperature['hour'].isin([2, 8, 14, 20])) # df_4point_temperature = df_temperature.filter(df_temperature['hour'].isin([1,2,3,4,5,6,7,8,9,10,11,12,13,14,15,16,17,18,19,20,21,22,23,24])) df_avg_temperature = df_4point_temperature.groupBy("province", "city_name", "city_code", "date").agg( F.count("temperature"), F.avg("temperature").alias("avg_temperature")).filter("count(temperature) = 4").sort( F.asc("avg_temperature")).select("province", "city_name", "city_code", "date", F.format_number('avg_temperature', 1).alias("avg_temperature")) df_avg_temperature.cache() avg_temperature_list = df_avg_temperature.collect() df_avg_temperature.coalesce(1).write.json("file:///home/lee/lab5/passed_temperature.json") print("气温分析完毕") return avg_temperature_list[0:10] # 最低的10个
这是一个使用Spark进行气温分析的Python函数。函数接收一个文件名作为参数,然后读取该文件中的数据,对数据进行处理,最后返回气温最低的10个城市的信息。
函数首先创建一个SparkSession对象,用于与Spark集群进行交互。然后读取指定文件中的数据,选择需要的列,并将温度数据转换为Decimal类型。接着通过日期和小时对数据进行处理,筛选出4个时次的气温记录。然后将数据按省份、城市、日期进行分组,计算每个城市在4个时次的平均气温,并筛选出记录条数为4的数据。最后按平均气温从小到大排序,并将结果写入到JSON文件中。
函数返回气温最低的10个城市的信息,以列表形式返回。
阅读全文