我正在尝试自动化一个以前是消耗全职工作的过程:监控一系列网站的新帖子。这似乎是一个相对简单的脚本问题,所以我解决了它,编写了一个bash脚本,并将其设置为在crontab中每分钟运行一次。它工作得很好,但在页面更改后,它会持续返回一个小时左右的假阳性,而我无论如何也找不出原因。它会在一段时间后自行解决,但在我了解发生了什么之前,我不想部署脚本。下面是我的代码:
#!/bin/bash
SITENAME=example
wget http://web.site.url/apache/folder/$(date +%Y)/$(date +%m)-$(date +%B) -O $SITENAME.backend.new --no-cache
touch $SITENAME.backend.old
diff $SITENAME.backend.new $SITENAME.backend.old > $SITENAME.backend.diff
if [ -s $SITENAME.backend.diff ]
then sendemail -xu myaddress@mydomain.com -xp password -f myaddress@mydomain.com -t myaddress@mydomain.com -s smtpout.secureserver.net -u $SITENAME -m backend \
&& cp $SITENAME.backend.new $SITENAME.backend.old \
&& echo true
fi
发布于 2013-03-13 08:39:09
如果diffs之间的唯一区别是绝对链接或不是绝对链接,请考虑对wget
使用--convert-links
开关,就像此人所说的那样:
-k --转换链接
下载完成后,转换文档中的链接以使其适合本地查看。这不仅会影响可见的超链接,还会影响文档中链接到外部内容的任何部分,例如嵌入的图像、到样式表的链接、到非HTML内容的超链接等。
这会将链接转换为绝对链接。
https://stackoverflow.com/questions/15372252
复制相似问题