下图是淘宝的某个镜像下的软件,假设我们现在要求采用wget批量自动下载下图中所有的软件,观察浏览框中的网址: CNPM Binaries Mirror (npmmirror.com) 我们采用拷贝网页的方式,可以获得素材文件:downloadlist.txt。 请使用我们学习过的awk命令和wget命令实现网页中所有压缩文件的下载的脚本,具体的思路: 1. awk命令中的每一步连接两个字符串()合成压缩文件的下载地址url; 2.再调用wget命令实现下载。
时间: 2024-02-13 18:07:27 浏览: 87
好的,根据你的要求,可以编写一个脚本实现自动下载。请按照以下步骤进行操作:
1. 打开文本编辑器,创建一个名为`downfile.sh`的文件。
2. 将以下代码复制到`downfile.sh`文件中,并保存:
```bash
#!/bin/bash
# 从命令行参数中获取基本URL和下载列表文件名
baseurl=$1
downloadlist=$2
# 遍历下载列表文件中的每一行
while read line
do
# 使用awk命令提取文件名,连接基本URL和文件名,生成完整的下载URL
url=$(echo "$line" | awk '{print "'"$baseurl"'"$1}')
# 使用wget命令下载文件
wget "$url"
done < "$downloadlist"
```
3. 保存完毕后,在终端中进入脚本所在的目录,并给`downfile.sh`文件添加可执行权限:
```bash
chmod +x downfile.sh
```
4. 然后,执行以下命令,将基本URL和下载列表文件名作为参数传递给脚本:
```bash
./downfile.sh "registry.npmmirror.com/binary.html?path=electron/11.5.0/" "downloadlist.txt"
```
其中,`registry.npmmirror.com/binary.html?path=electron/11.5.0/`是基本URL,`downloadlist.txt`是下载列表文件名。
5. 执行命令后,脚本将遍历下载列表文件中的每一行,使用awk命令提取文件名,连接基本URL和文件名,生成完整的下载URL,并使用wget命令下载文件。
6. 下载完成后,你可以在脚本所在的目录中找到所有下载的文件。
阅读全文