使用进程调度启动,指定 30 分钟后将/home/stu 目录里的文件备份并压缩为 stu.tar.gz, 并放到 /home/temp 目录里(当前 /home/temp 目录并不存在).写出所有命令
时间: 2023-12-23 08:04:21 浏览: 34
1. 创建 /home/temp 目录: `mkdir /home/temp`
2. 进入 /home/stu 目录: `cd /home/stu`
3. 备份并压缩 stu 目录下的文件: `tar -zcvf /home/temp/stu.tar.gz *`
4. 设置 30 分钟后执行备份命令: `at now + 30 minutes <<< "tar -zcvf /home/temp/stu.tar.gz /home/stu/*"`
5. 查看任务是否添加成功: `atq`
相关问题
2.使用cat命将/etc/init/rc-sysinit.conf文件和/etc/profile文件合并起来,放入文件/home/stu/test中,并使用more命令和less命令显示test文件。
可以使用以下命令将/etc/init/rc-sysinit.conf文件和/etc/profile文件合并起来,并将结果存储在/home/stu/test文件中:
```
cat /etc/init/rc-sysinit.conf /etc/profile > /home/stu/test
```
接着,可以使用more命令或less命令来查看test文件的内容。例如,使用more命令:
```
more /home/stu/test
```
或使用less命令:
```
less /home/stu/test
```
这样就可以查看合并后的文件内容了。注意,在使用cat命令合并文件时,不能使用重定向符号(>)将结果直接输出到一个已有的文件中,否则会覆盖原有的内容。
把本地文件“/usr/local/spark/README.md”上传到HDFS的“/user/stu”目录下,命令如下:
可以使用以下命令将本地文件“/usr/local/spark/README.md”上传到HDFS的“/user/stu”目录下:
```
hadoop fs -put /usr/local/spark/README.md /user/stu/
```
其中,“hadoop fs”是HDFS的命令行工具,“-put”表示上传操作,“/usr/local/spark/README.md”是本地文件的路径,“/user/stu/”是HDFS目标路径。