sparkmllib修改压缩算法的配置
时间: 2023-08-05 19:42:55 浏览: 158
对于 Spark MLlib,您可以使用以下方法修改压缩算法的配置:
1. 在创建 SparkSession 或者 SparkContext 对象时,通过配置 spark.io.compression.codec 属性来指定压缩算法,例如:
```
SparkSession spark = SparkSession.builder()
.appName("MyApp")
.config("spark.io.compression.codec", "snappy")
.getOrCreate();
```
2. 如果您只需要在某个具体的算法中使用不同的压缩算法,可以在创建算法对象时,通过配置 algorithm.compression.codec 属性来指定压缩算法,例如:
```
LogisticRegression lr = new LogisticRegression()
.setMaxIter(100)
.setRegParam(0.01)
.setElasticNetParam(0.8)
.setFeaturesCol("features")
.setLabelCol("label")
.setPredictionCol("prediction")
.setThreshold(0.5)
.setTol(1E-6)
.setFitIntercept(true)
.setStandardization(true)
.setFamily("binomial")
.setAlgorithm("auto")
.setProbabilityCol("probability")
.setRawPredictionCol("rawPrediction")
.setWeightCol("weight")
.setThresholds(new double[]{0.7, 0.3})
.setBlockSize(128)
.setSeed(12345L)
.setAggregationDepth(2)
.setFeaturesCol("features")
.setLabelCol("label")
.setPredictionCol("prediction")
.setThreshold(0.5)
.setTol(1E-6)
.setFitIntercept(true)
.setStandardization(true)
.setFamily("binomial")
.setAlgorithm("auto")
.setProbabilityCol("probability")
.setRawPredictionCol("rawPrediction")
.setWeightCol("weight")
.setThresholds(new double[]{0.7, 0.3})
.setBlockSize(128)
.setSeed(12345L)
.setAggregationDepth(2)
.set("algorithm.compression.codec", "lz4");
```
在这个例子中,我们使用 set("algorithm.compression.codec", "lz4") 将压缩算法设置为 lz4。
希望这些信息能够帮助您在 Spark MLlib 中修改压缩算法的配置。
阅读全文