jpa 批量插入最大数据
时间: 2023-08-23 18:11:57 浏览: 110
根据引用\[1\]和引用\[2\]的内容,JPA的批量插入本质上是单条单条进行插入的,这样的机制导致在插入大量数据时会感觉比较慢。然而,根据引用\[3\]的内容,可以通过多线程处理来提高性能。在多线程处理中,可以根据具体情况设置每个线程分的数据量和最大线程数。一般来说,可以将batch_size设置为1000左右,将max_thread设置为CPU核心数的两倍。这样可以在一定程度上提高JPA批量插入的性能。
#### 引用[.reference_title]
- *1* [jpa批量插入+druid数据库连接池](https://blog.csdn.net/HAHA2576/article/details/121763575)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item]
- *2* *3* [Spring Data JPA - 批量插入实例](https://blog.csdn.net/tfstone/article/details/124010135)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item]
[ .reference_list ]
阅读全文