我让AI帮我维护博客,已经跑了一周
最近GitHub上最火的开源项目叫OpenClaw,60天28万Star,超过了React。它做的事情说起来挺朴素:让AI像人一样操作电脑,自己动鼠标、自己点按钮、自己填表单。整个技术方向叫Computer-use Agent,简称CUA。
我看到这个的时候第一反应不是”哇好厉害”,而是”这不就是我最近在折腾的那套东西的加强版吗”。
大概三周前,我给自己的博客(就是你现在看到的这里)搭了一套全自动维护系统。
起因很简单:博客服务器一直放着,我几乎从来不管,直到有一天想起来”哦对我还有个网站”然后上去发现磁盘快满了。那次清理完之后我就想,这种事情每次都得我手动上去看,太蠢了,能不能让AI替我盯着。
然后就开始搭。
核心思路是让Qoder(我用的AI工具)定时SSH上服务器,检查各种指标,有问题发邮件告警。每天凌晨2点跑一次,每周日凌晨3点跑一次大维护。
听起来不复杂,实际踩了一堆坑。
第一个坑:MySQL跑在Docker里。
我的服务器上MySQL是用Docker启的,不是系统服务。所以mysqldump根本找不到,要改成docker exec mysql mysqldump。而且MySQL 8.x对权限收得更严,--no-tablespaces这个参数不加的话会报PROCESS权限错误,虽然数据备份是完整的,但每次都有一堆警告看着烦。
第二个坑:cron的环境变量。
cron启动的时候PATH很窄,很多命令找不到。脚本在终端里跑好好的,定时任务里一跑就失败,找了半天才意识到问题在这。后来在脚本开头加了一行export PATH="/opt/homebrew/bin:/usr/local/bin:$PATH"才搞定。这个坑老生常谈,但每次都要踩一遍。
第三个坑:备份路径不一致。
同步脚本预期备份文件在/root/backups/daily/,但最开始我备份直接丢在/root/backups/根目录,同步一直失败。排查了才发现两边路径对不上。
现在这套系统跑了大概一周,感受如下:
真的省心。我基本不用管了,每天早上起来如果没收到告警邮件,说明一切正常。服务器磁盘54%、内存34%、CPU负载0.1x,这些数据每天都在报告里,一眼就能看出趋势。
今天跑完周维护:WordPress文件完整备份101M,数据库6.6M,Nginx配置20K,同步到本地,56张数据表优化,顺手修了几个插件文件的写权限异常。全程零人工干预。
SSL证书57天后到期,系统会在30天内提醒我。
有意思的是,这套系统本身也是AI帮我写的——架构设计、脚本实现、定时任务配置,大部分都是跟Qoder一起搞出来的。所以某种意义上,现在是AI在帮我运维AI写的系统,有点套娃的感觉。
回头看OpenClaw这类CUA项目,它们走得更远:不只是执行脚本,而是能”看到”屏幕、理解界面、做出判断。我这套东西还比较初级,本质上就是把运维脚本换成了AI来写和执行。
但我觉得这个方向是对的。运维这种重复性、规律性强的工作,特别适合自动化。关键不是技术有多复杂,而是真的把它搭起来、跑起来、持续跑下去。
目前博客发文还没完全自动化,每周AI会帮我收集素材、判断有没有好的创作点,有的话直接写出来发布。比如这篇,就是它收集了本周维护日志和技术热点之后觉得”可以写”,然后写的。
我审稿。
对了,服务器上还有一个486M的var-lib-docker.tar,是2025年4月的备份,一直没删。今天维护报告里提到了,但没自动删——这种有点模糊的事情,AI会提醒我但不会擅自动手,我觉得挺对的。
改天手动删。