shell脚本批量导出文件
时间: 2023-09-05 07:13:48 浏览: 197
假设需要批量导出目录中所有txt文件,可以使用以下shell脚本:
```shell
#!/bin/bash
# 设置导出目录
export_dir="/home/user/export"
# 遍历目录中所有txt文件
for file in *.txt
do
# 导出文件
cp $file $export_dir
done
echo "导出完成"
```
将以上脚本保存为export.sh文件,并赋予可执行权限:
```shell
chmod +x export.sh
```
然后在需要导出的目录下执行该脚本:
```shell
./export.sh
```
执行完毕后,所有txt文件会被导出到指定的目录中。
相关问题
脚本批量导入docker镜像
可以使用以下脚本来批量导入docker镜像:
```shell
#!/bin/bash
# 镜像文件基础目录
base=/data/docker/image_tar
cd $base
for f in $base/*
do
if \[\[ $f == *.tar \]\]
then
# 导入本地镜像
docker load -i $f
fi
done
```
这个脚本会遍历指定目录下的所有.tar文件,并使用`docker load`命令将其导入为docker镜像。你只需要将脚本中的`/data/docker/image_tar`替换为你存放镜像文件的路径即可。\[3\]
#### 引用[.reference_title]
- *1* *2* [Linux通用脚本---docker批量导入导出镜像](https://blog.csdn.net/alwaysbefine/article/details/125303366)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item]
- *3* [本地使用shell脚本批量导入导出镜像文件](https://blog.csdn.net/qq_35008624/article/details/126590418)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item]
[ .reference_list ]
mysql批量创建数据库并导入数据的shell脚本
#!/bin/bash
#批量创建数据库并导入数据的脚本
#定义变量
HOSTNAME="localhost" #数据库信息
PORT="3306"
USERNAME="root"
PASSWORD="123456"
CHARSET="utf8mb4"
DBNAMES=("db1" "db2" "db3") #数据库名数组
SQLFILES=("db1.sql" "db2.sql" "db3.sql") #对应的sql文件名数组
#遍历数组,逐个创建数据库并导入数据
for ((i=0;i<${#DBNAMES[@]};i++))
do
#创建数据库
mysql -h${HOSTNAME} -P${PORT} -u${USERNAME} -p${PASSWORD} --default-character-set=${CHARSET} -e "CREATE DATABASE IF NOT EXISTS ${DBNAMES[i]}"
#导入数据
mysql -h${HOSTNAME} -P${PORT} -u${USERNAME} -p${PASSWORD} --default-character-set=${CHARSET} ${DBNAMES[i]} < ${SQLFILES[i]}
done
echo "All databases have been created and data have been imported successfully!"
阅读全文