URL检测网站健康状态脚本

方法1:

wget参数 :  --spider   模拟爬虫访问网站
        -q  安静的访问不输出
        -T 访问网站超时时间
        -t 当网站异常时重试网站的次数


例:
[root@localhost ~]# wget --spider -T 5 -q -t 2 www.keysou.com
[root@localhost ~]# echo $?    #使用返回值确定网站是否正常0
[root@localhost ~]# vim wget_url.sh

#############################################################
# File Name: wget_url.sh
# Author: 萧萧一风
# E-mail: 77368447.com
# Created Time: Fri Aug  9 20:47:50 CST 2019
#==================================================================
#!/bin/bash
wget --spider -q -T 5 -t 2 $1
if [ $? = 0 ];then
echo "$1 访问OK!!!"
#此处可写邮件发送管理员
else
echo "$1 访问失败,请检查!!"
#此处可写邮件发送管理员
fi

方法2:

curl参数: -s  静默访问
      -o  记录访问信息到文件中
例:
[root@localhost ~]# curl -s -o /dev/null keysou.com 
[root@localhost ~]# echo $?     #使用返回值确定网站是否正常0
[root@localhost ~]# vim curl_url.sh

#############################################################
# File Name: vim curl_url.sh
# Author: 萧萧一风
# E-mail: 77368447.com
# Created Time: Fri Aug  9 20:47:50 CST 2019
#==================================================================
#!/bin/bash
curl -o /dev/null -s $1
if [ $? = 0 ];then
echo "$1 访问OK!!!"
#此处可写邮件发送管理员
else
echo "$1 访问失败,请检查!!"
#此处可写邮件发送管理员fi

标签: shell

作者头像
南宫俊逸创始人

君子好学,自强不息~

上一篇:linux 命令查找怎么多个有空格文件名文件打包
下一篇:Warning: mysql_connect(): No such file or directory 解决方案

发表评论

阿里云2021年 618 年中钜惠活动