Automatisiertes Webspace Backup

Wer kennt es nicht? Man hat eine Webseite und sollte regelmäßig Backups davon machen. Bisher hatte ich einen vollen Webserver mit SSH Zugang und Cronjobs, wobei ich den Großteil der Arbeit auf dem Server erledigen konnte. Aufgrund meiner Verkleinerung benötige ich diesen nicht mehr und habe jetzt normalen Webspace. Mit diesem bin ich sehr zufrieden, allerdings werden seitens des Hosters nur Notfall-Backups gezogen, an die man nicht herankommt und die auch nicht 100%ig aktuell sein müssen.

Also muss das Backup von zuhause aus erfolgen. Zwar läuft noch mein Linux-Router, aber weder NcFTP noch WGet sind so aktuell, dass sie meine Wünsche erfüllen. Also mal unter Windows Cygwin aktualisiert und geschaut was möglich ist. Zuvor hatte ich nach Programmen gesucht, aber nichts davon hat mich wirklich überzeugt.

Um es nicht allzu lang zu fassen: ich liebe WGet. So schön einfach, so schnell, so ohne Overhead. Wie lade ich zum Beispiel regelmäßig alle Dateien eines Verzeichnisses möglichst effizient herunter?

wget –mirror ftp://USER:PASS@url.de

Ist das nicht großartig? Rekursiv, Datumsvergleich, FTP, … Jetzt fehlt nur noch ein Dump der MySQL-Datenbanken und ein Packen der letzten Versionen, um zumindest für einige Tage und im monatlichen Abstand Versionen nachhalten zu können.

Noch in ein Skript gießen, um alle Accounts abzugrasen und fertig. Kompliziertes kann so einfach werden.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.