流程图demo展示自定义节点与线颜色技术

需积分: 5 0 下载量 185 浏览量 更新于2024-10-11 收藏 105KB ZIP 举报
资源摘要信息:"log-test.zip" 1. 流程图demo:该压缩包包含一个流程图的演示项目,用于展示流程图的设计、创建、编辑和演示过程。流程图是一种图形化的表示方法,广泛应用于项目管理、业务流程建模、系统分析等领域。在IT行业中,流程图能够帮助技术人员和业务人员可视化地理解复杂过程,从而更有效地沟通和协作。 2. 自定义节点和线颜色:在流程图中,节点通常代表流程中的某个步骤或决策点,而线则代表流程的方向或步骤之间的转移。在"流程图demo"中,用户可以自定义节点和线的颜色,这使得流程图更加符合特定的主题或要求,同时增强了图表的可读性和美观性。 3. 流程:指的是特定任务或活动的一系列顺序步骤。在软件开发和项目管理中,流程是一个重要的概念,它确保了任务按正确的顺序和方式执行。流程图作为表达流程的一种方式,有助于识别流程中的问题点和改进机会。 4. 滴滴:虽然没有直接的联系,但可能是在描述项目中使用了类似于滴滴公司那样的流程图设计,滴滴是一家中国的大型移动出行平台,它在内部管理和运营中可能会使用到复杂的流程图来优化其服务流程。 5. logic-flow:这是一个流程图库,经常用于构建和管理流程图。logic-flow库允许用户通过编程的方式创建自定义的流程图,包括但不限于节点的添加、删除、移动以及线条的绘制和管理。在"流程图demo"中,可能是使用了logic-flow库来实现自定义节点和线颜色的功能。 6. 标签:标签是用于描述内容或资源的关键字,有助于快速识别和检索资源。在这个压缩包中,"流程图demo"、"流程"、"滴滴"、"logic-flow" 和 "自定义" 是相关的标签,它们描述了压缩包内容的核心特征,对于搜索和定位资源提供了帮助。 7. 压缩包文件名称列表:文件列表包括了项目源代码和相关配置文件,具体如下: - .gitignore:这是一个在git版本控制中使用的配置文件,用于指定不希望被git跟踪的文件或目录。 - babel.config.js:这是用于配置Babel的文件,Babel是一个广泛使用的JavaScript编译器,用于将现代JavaScript代码转换为向后兼容的JavaScript版本。 - package-lock.json:这是一个自动生成的文件,用于锁定安装的依赖项的确切版本,确保不同环境下的依赖项一致。 - package.json:这是一个项目配置文件,包含了项目的元数据、依赖包列表以及其它脚本命令等。 - README.md:这是一个Markdown格式的文档文件,通常用来描述项目的用途、安装方法、使用方法等。 - src:通常用于存放项目的源代码。 - public:可能用于存放公共文件,比如静态资源或者不需要处理直接可以使用的文件。 总结起来,"log-test.zip"包含了与流程图设计和自定义相关的一系列文件,尤其是演示了如何在logic-flow库的基础上自定义流程图的节点和线条颜色,从而满足不同的业务需求和设计标准。项目所含文件结构和内容也反映了典型的前端项目文件组织方式,包括配置文件、源代码文件和文档说明等,这对于学习前端开发和项目管理有很好的参考价值。

final_valid_predictions = {} final_test_predictions = [] scores = [] log_losses = [] balanced_log_losses = [] weights = [] for fold in range(5): train_df = df[df['fold'] != fold] valid_df = df[df['fold'] == fold] valid_ids = valid_df.Id.values.tolist() X_train, y_train = train_df.drop(['Id', 'Class', 'fold'], axis=1), train_df['Class'] X_valid, y_valid = valid_df.drop(['Id', 'Class', 'fold'], axis=1), valid_df['Class'] lgb = LGBMClassifier(boosting_type='goss', learning_rate=0.06733232950390658, n_estimators = 50000, early_stopping_round = 300, random_state=42, subsample=0.6970532011679706, colsample_bytree=0.6055755840633003, class_weight='balanced', metric='none', is_unbalance=True, max_depth=8) lgb.fit(X_train, y_train, eval_set=(X_valid, y_valid), verbose=1000, eval_metric=lgb_metric) y_pred = lgb.predict_proba(X_valid) preds_test = lgb.predict_proba(test_df.drop(['Id'], axis=1).values) final_test_predictions.append(preds_test) final_valid_predictions.update(dict(zip(valid_ids, y_pred))) logloss = log_loss(y_valid, y_pred) balanced_logloss = balanced_log_loss(y_valid, y_pred[:, 1]) log_losses.append(logloss) balanced_log_losses.append(balanced_logloss) weights.append(1/balanced_logloss) print(f"Fold: {fold}, log loss: {round(logloss, 3)}, balanced los loss: {round(balanced_logloss, 3)}") print() print("Log Loss") print(log_losses) print(np.mean(log_losses), np.std(log_losses)) print() print("Balanced Log Loss") print(balanced_log_losses) print(np.mean(balanced_log_losses), np.std(balanced_log_losses)) print() print("Weights") print(weights)

2023-07-08 上传

2023-06-02 23:12:37 WARN NativeCodeLoader:60 - Unable to load native-hadoop library for your platform... using builtin-java classes where applicable Setting default log level to "WARN". To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel). Traceback (most recent call last): File "mysqlTest.py", line 12, in <module> jdbcDF=spark.read.format("jdbc").option("url","jdbc:mysql://localhost:3306/sparktest?useSSL=false").option("driver","com.mysql.cj.jdbc.Driver").option("dbtable","employee").option("user", "root").option("password", "123456").load() File "/usr/local/spark/python/pyspark/sql/readwriter.py", line 172, in load return self._df(self._jreader.load()) File "/usr/local/spark/python/lib/py4j-0.10.7-src.zip/py4j/java_gateway.py", line 1257, in __call__ File "/usr/local/spark/python/pyspark/sql/utils.py", line 63, in deco return f(*a, **kw) File "/usr/local/spark/python/lib/py4j-0.10.7-src.zip/py4j/protocol.py", line 328, in get_return_value py4j.protocol.Py4JJavaError: An error occurred while calling o31.load. : java.lang.ClassNotFoundException: com.mysql.cj.jdbc.Driver at java.net.URLClassLoader.findClass(URLClassLoader.java:381) at java.lang.ClassLoader.loadClass(ClassLoader.java:424) at java.lang.ClassLoader.loadClass(ClassLoader.java:357) at org.apache.spark.sql.execution.datasources.jdbc.DriverRegistry$.register(DriverRegistry.scala:45) at org.apache.spark.sql.execution.datasources.jdbc.JDBCOptions$$anonfun$5.apply(JDBCOptions.scala:99) at org.apache.spark.sql.execution.datasources.jdbc.JDBCOptions$$anonfun$5.apply(JDBCOptions.scala:99) at scala.Option.foreach(Option.scala:257) at org.apache.spark.sql.execution.datasources.jdbc.JDBCOptions.<init>(JDBCOptions.scala:99) at org.apache.spark.sql.execution.datasources.jdbc.JDBCOptions.<init>(JDBCOptions.scala:35) at org.apache.spark.sql.execution.datasources.jdbc.JdbcRelationProvider.createRelation(JdbcRelationProvider.scala:32) at org.apache.spark.sql.execution.datasources.DataSource.resolveRelation(DataSource.scala:318) at org.apache.spark.sql.DataFrameReader.loadV1Source(DataFrameReader.scala:223) at org.apache.spark.sql.DataFrameReader.load(DataFrameReader.scala:211) at org.apache.spark.sql.DataFrameReader.load(DataFrameReader.scala:167) at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) at java.lang.reflect.Method.invoke(Method.java:498) at py4j.reflection.MethodInvoker.invoke(MethodInvoker.java:244) at py4j.reflection.ReflectionEngine.invoke(ReflectionEngine.java:357) at py4j.Gateway.invoke(Gateway.java:282) at py4j.commands.AbstractCommand.invokeMethod(AbstractCommand.java:132) at py4j.commands.CallCommand.execute(CallCommand.java:79) at py4j.GatewayConnection.run(GatewayConnection.java:238) at java.lang.Thread.run(Thread.java:748)

2023-06-03 上传