Fragen und Überlegungen zu Backup-Strategien eines Desktops

Hinweis: In dem Thema Fragen und Überlegungen zu Backup-Strategien eines Desktops gibt es 18 Antworten auf 2 Seiten. Der letzte Beitrag () befindet sich auf der letzten Seite.
  • Hallo,


    angeregt von dem Thema der letzten Linux User, zermatere ich mir gerade den Kopf bezüglich sinnvoller Backup-Strategien. Backups des Haupt-PCs mache ich bisher eher ungeplant-sporadisch und würde das gerne ändern. :)


    1) Was soll gesichert werden?

    Es sollte nach meinem Verständnis reichen, /home zu sichern. Bei einem Ausfall des Datenträgers würde ich ansonsten Leap neu installieren. Nach der Philosophie werden also keine Teile des Betriebssystems gesichert. Frage: Ist diese Vorgehensweise sinnvoll? Für welche Zwecke sollte man ein Komplett-Image des Systems erstellen?


    2) Wann soll gesichert werden?

    Das ist bei mir auch ein wichtiger Punkt, weshalb es nur unregelmäßig zu Sicherungen kommt. Wenn ich das System starte, tue ich das zu einem bestimmten Zweck. Ich bin gewohnt, das System dann frei hoch- oder runterfahren zu können. Nur wenn ich Zeit habe und daran denke, erstelle ich vielleicht mal ein Backup. Auch will ich vermeiden, das System mit einer Backup-Aufgabe zu belasten. Während ich eigentlich etwas anderes tun will, wozu ich alle Ressourcen des PC benötige. Mein Plan: ich starte das Backup, wenn ich Wäsche bügle. Ich selbst bin dann hauptsächlich mit Bügeln beschäftigt, aber noch in der Nähe und für alle Fälle verfügbar. Während ich bügle oder anderer Hausarbeit nachgehe, brauche ich den PC nicht. Ich hoffe, so eine gewisse Routine reinzubekommen. Guter Plan oder sollte ein Backup doch automatisch gestartet werden? :S


    3) Wie wird gesichert?

    Aus dem "Userspace" oder von einem anderen System wie Clonezilla?

    Ich würde in das System starten, in dem das /home-Verzeichnis, was ich sichern möchte, liegt. Oder geht z.B. Clonezilla evtl. doch einfacher?


    4) Was wird gesichert Nr. II: Dateiberechtigungen

    Wenn es unter Linux nur um das Sichern eines /home-Verzeichnisses geht: Ist es dann ratsam, darauf zu achten, dass möglichst viele Dateiberechtigungen und Attribute mit gesichert werden? Oder schafft man sich damit tendenziell eher Ärger? X/


    5) Wie sollte das Backup strukturiert sein und welche Möglichkeiten bestehen? (hängt mit 4) zusammen)

    -ein 1:1-Image in einer Image-Datei

    -Sicherung der Dateistruktur z.B. in ein ZIP-Archiv, wobei einige Unix-Attribute verloren gehen werden?

    -Sicherung der Dateistruktur in ein Dar-Archiv, was für Backups und die Sicherung von Unix-Attributen entwickelt wurde?

    -1:1-rüberkopieren der Dateistruktur ohne Archiv


    -Verschlüsselung durch Kopieren des Archivs in einen Veracrypt-Container? Oder sollte man besser den Veracrypt-Container in ein Archiv packen?? :/

    -Anreicherung des Archivs oder des Veracrypt-Containers oder von beidem mit PAR2-Fehlerkorrekturdaten (par2cmdline)?


    Gibt es evtl. irgendwo gut funktionierende, einfach aufzusetzende Backup-Lösungen? z.B. ein Raspi weckt den PC über Netzwerk auf, startet via ssh ein Backup auf eine an ihn angeschlossene Platte und fährt den PC anschließend wieder runter?



    Habt ihr hierzu Tips, Erfahrungen und Meinungen?

    Für den Inhalt des Beitrages 307299 haftet ausdrücklich der jeweilige Autor: Spaceloop

  • Jetzt mal ganz ehrlich, was willst du denn mit einem Vollbackup deines Systemes erreichen? Außer, dass du unermesslich viel Zeit und Ressourcen verschwendest?


    Welche Daten müssen denn überhaupt gesichert werden? Welche Daten benötigst du denn noch neben den erstellten Dokumenten im gleichnamigen Ordner? Vielleicht noch ein paar Skripte sowie einzelne Notizen.


    Wir reden hier also von einigen wenigen Megabytes an Daten, die innerhalb von 2 Minuten gesichert sind. Was meinst du, wie lange das Schreiben eines kompletten Backups deines Systemes auf einem anderen Datenträger benötigt? Da gehen viele, viele Stunden ins Land, vom Platzbedarf ganz zu schweigen!


    Für eine etwaige Neuinstallation habe ich meine Notizen sowie einzelne Skripte. So kann ich innerhalb einer Stunde, das komplette System wieder neu aufsetzen und habe noch den Vorteil, Fehler aus der vorigen Installation nicht auf die neue Installation zu importieren.


  • Ad 1)

    Ich sichere /home /root und /etc. Unter /home habe ich aber etliche Ausnahmen definiert, z.b. .cache, Downloads, tmp,, meine Git Ordner, einiges unter .var, ..



    Ad 2)

    Ich habe ein Script was ich händische ca. 1mal im Monat starte. In meinem Fall werden aber die wirklich wichtigen Dinge (Arbeitsrelevant) ohnehin über git gesichert, je nachdem ist eventuell ein häufigerer Backuplauf sinnig.



    Ad 3)

    Ich aus dem Userspace, wenn du kein komplettes Image machen willst sehe ich auch keinen Grund das von einem anderen System aus zu machen.



    Ad 4)

    Gibts nen Grund, wieso du keine Attribute mitsichern willst? Für das meiste sollte es egal sein, aber es kann man natürlich nicht zu 100% für alle Programme sagen. gpg oder ssh z.b. maulen meist über die standard Berechtigung wenn du die Privatekeys kopierst ohne die Rechte zu übernehmen.



    Ad 5)

    Ich habe z.b. einen Raspi mit einer externen 2.5 Platte worauf ich meine Backups mache. Das ganze per rsync und auf dem raspi wird ein Snapshot (BTRFS) gemacht. Somit geht ein Restore auch sehr schnell, Rechte und Co sind kein Problem. On Top habe verschiedene Versionsstände. Das ganze habe ich auf dem Server auch noch verschlüsselt (adiantium packt auch der RPI gut).


    Von dort gehts nochmal automatisiert weiter in die AWS Cloud, Glacier, bzw. Deep-Archive Storage. Für 300GB an Daten ca 1 Euro/Monat. Aber Achtung, ein Restore wäre da teuer! Hierfür verwende ich zpaq (Verschlüsselt, versioniert und dedupliziert).




    Prinzipiell würde ich dir aber zu etwas raten, was du vorallem gut verstehst. Und zu beginn auch gleich mal den Restorefall testen! Dejadup z.b. ist sehr einfach zu bedienen und weit verbreitet, hat aber natürlich eingeschrenkten Funktionsumfang, bzw. legt auch sehr große Backups an, da keine Deduplizierung oder ähnliches passiert.

    Für den Inhalt des Beitrages 307301 haftet ausdrücklich der jeweilige Autor: neoghb

  • Moin Spaceloop,


    schließe mich neoghb an, nutze Deja-Dup bzw. (Datensicherung) schon seit Jahren ohne Probleme.

    Ich finde auch, es ist wirklich sehr einfach zu bedienen und einstellbar.

    Habe bei mir auch nur die Standard Einstellungen belassen und mache ein Backup automatisch alle 7 Tage über eine Interne zweite SSD. Funktioniert hervorragend !

    Das kannst Du aber auch relativ flexibel in den Einstellungen ändern.

    Deja-Dup kannst Du unter Yast herunterladen.


    Gruß Karlchen :) :thumbup:

    Für den Inhalt des Beitrages 307304 haftet ausdrücklich der jeweilige Autor: Karlchen60

  • hallo nochmal....


    habe noch was vergessen .


    Beim Wiederherstellen deiner Daten, kannst Du auch ganz flexibel anhaken, was Du wieder herstellen möchtest.


    Nochmals lieben Gruß


    Karlchen :) :thumbup:

    Für den Inhalt des Beitrages 307306 haftet ausdrücklich der jeweilige Autor: Karlchen60

  • Hallo,

    danke für die Antworten. Ich denke, ich werde mal Deja-Dup testen.


    Eine Frage habe ich noch und würde gern wissen, was eure Meinung dazu ist:


    Ich habe mir mal die Liste von Backup-Software auf

    List of backup software - Wikipedia

    angesehen.


    Klare Kriterien sind natürlich FOSS mit möglichst offener Lizenz sowie Lauffähigkeit unter verschiedenen Betriebssystemen (Multi-Plattform).


    Als wie entscheidend schätzt ihr die verwendete Programmiersprache ein? Der Grund ist, dass z.B. Python sich recht schnell weiterentwickelt. Es dürfte auf die Dauer schwierig sein, eine Software, welche für Python 2.x geschrieben wurde, auf einem modernen System zum Laufen zu bekommen. Aber ist es besser, wenn man einen 20 Jahre alten C-Quellcode vorliegen hat? Theoretisch würde ich denken, wenn es ein einfaches Kommandozeilentool ist, kommt man evtl. mit einem make-install bei alten C-Code schneller zum Ziel. Allerdings: wenn das Tool grafisch und komplexer ist, wird es wieder eine Menge Abhängigkeiten benötigen, die es irgendwann nicht mehr gibt?


    Auf jeden Fall würde dieser Gedanke nahelegen: einfaches Kommandozeilentool, in C verfasst, gescriptet oder über sepatates GUI-Tool bedient... Oder wie sehr ihr das?


    Theoretisch könnte man in 20 Jahren natürlich auch einfach ein Leap 15.5-Image in einer VM installieren, und versuchen, die Backupdateien so wiederherzustellen. Allerdings müsste dieses Image bereits die Backupsoftware installiert haben. Am besten müsste man sich das aktuelle System inkl. Backupsoftware daher als Live-System sichern, z.B. mit Suse Studio Express oder Linux Live Kit...

    Für den Inhalt des Beitrages 307378 haftet ausdrücklich der jeweilige Autor: Spaceloop

  • Hallo,


    ich nutze verschiedene SW und Methoden:

    • mit dem Modul "Sicherungen" in den Systemeinstellungen unter KDE (hieß früher KUP) habe ich einen Sicherungsplan angelegt, der alle 20 Minuten geänderte oder neue Dateien in ausgewählten Verzeichnissen auf eine Speicherkarte kopiert, die im Laptop steckt. Hier sichere ich nur Verzeichnisse wie "Fotos", "Dokumente" usw., die meine Nutzerdateien enthalten.
      Durch diese "Synchronisierte Datensicherung" werden die Dateien 1:1 kopiert. Damit ist die genutzte SW egal und ich kann die Dateien nutzen, solange es die passende SW gibt. (Sollte mir die Platte in 1 Minuten abrauchen, dann verliere ich diesen noch nicht abgesendeten Post, aber nicht mein vorhin gespeichertes Protokoll der letzten Vereinssitzung)
    • zusätzlich mache ich alle paar Wochen als root eine manuelle Sicherung mit KBackup. Dann sichere ich auch /home, /etc, /boot und /var. Das ist auch ein KDE-Programm, klein und schlank.
      Hier sichere ich in TAR-Verzeichnisse, um die Recht usw. zu erhalten. Das kann ich aber auch mit vielen Programmen öffnen.
      Leider gibt es bei KBackup keine Einstellungen für zeit- oder ereignisgesteuerte Sicherungen (da ich Anwender bin, will ich auch nicht viel Zeit investieren, um irgendwelche jobs oder Skripte aufzusetzen. Dafür bin ich inzwischen zu alt. Dazu kommt, dass ich diese Sicherungen auf externen Platten mache, die ich vorher immer anschließen muss (eine Platte liegt neben dem Rechner, eine andere normalerweise in meinem Spind bei meinem AG; da nutzt ein chron-job auch nichts).
    • aktuell experimentiere ich auf einem weiteren Laptop mit Backintime. Es gibt eine grafische Oberfläche und viele Einstellmöglichkeiten, auch für die Zeitsteuerung. Zugriff auf einzelne ist i.d.R. auch direkt über Dolphin o.ä. möglich. Hier sichere ich auch /etc, /boot usw. auf eine interne SD-Speicherkarte mit 300GB.


    Von Deiner Idee bzw. Gedanken, für die Sicherungen eine spezielle SW zu nutzen, die es auch für die Wiederherstellung braucht, halte ich absolut nichts. Eine Sicherung auf die Du nicht einfach und ohne Spezialwerkzeug zugreifen kannst, die es vielleicht nur auf dem kaputten Rechner gab, ist sinnlos, nutzlos und wertlos!


    In die/der "Cloud" sichere ich nichts. Amazon usw. gehen meine Daten und Dateien nichts an! Da könnte ich ja schon fast Win nutzen ;)


    (ps. mit Backup und der richtigen Strategie kann man viel Zeit verbringen..., bis jetzt hatte ich Glück und außer versehentlich gelöschte oder veränderte Dateien noch keine Probleme)

    Für den Inhalt des Beitrages 307380 haftet ausdrücklich der jeweilige Autor: Kobe

  • Als wie entscheidend schätzt ihr die verwendete Programmiersprache ein? Der Grund ist, dass z.B. Python sich recht schnell weiterentwickelt. Es dürfte auf die Dauer schwierig sein, eine Software, welche für Python 2.x geschrieben wurde, auf einem modernen System zum Laufen zu bekommen. Aber ist es besser, wenn man einen 20 Jahre alten C-Quellcode vorliegen hat? Theoretisch würde ich denken, wenn es ein einfaches Kommandozeilentool ist, kommt man evtl. mit einem make-install bei alten C-Code schneller zum Ziel. Allerdings: wenn das Tool grafisch und komplexer ist, wird es wieder eine Menge Abhängigkeiten benötigen, die es irgendwann nicht mehr gibt?


    Auf wirklich lange Sicht ist das vielleicht eine Überlegung, aber wenn du nicht auf 50 Jahre + Archivierst sollte das wenig ins Gewicht fallen. Du sicherst ja regelmäßig wenn du in 5 Jahren merkst es gibt Probleme mit deinem Tool - weil es eben nicht mehr weiterentwickelt / auf neue Sprachversionen angepasst wird - wechselst du. Sowas passiert nicht von heute auf Morgen du hast da immer Korridore von mehreren Jahren wo du adaptieren kannst.

    Das etwas gar nicht mehr Nutzbar ist, halte ich auch für sehr unwahrscheinlich. Auch heute kannst du noch ein altes RHEL 5 Installieren und dort php 5.3 Anwendungen starten. Zum migrieren und einspielen im Notfall reicht das alle mal.



    In die/der "Cloud" sichere ich nichts. Amazon usw. gehen meine Daten und Dateien nichts an! Da könnte ich ja schon fast Win nutzen ;)


    Dir ist schon klar, dass man seine Daten verschlüsseln kann, bevor man sie in die Cloud lädt? Und Datensicherheit über mehrere Standorte für 0.001 USD Cent/GB musst du erst mal hin bekommen.

    Für den Inhalt des Beitrages 307381 haftet ausdrücklich der jeweilige Autor: neoghb

  • Guten Morgen, bei mir sind alle Rechner nach folgendem Schema aufgebaut:


    Daten sind auf der Datenpartition und werden (nahezu) täglich noch via rsync extern gesichert - sollte mal ein System ausfallen, wird einfach das andere gestartet und weiter gearbeitet → auf der Datenpartition liegen auch Einrichtungsskripte, so dass eine Neuinstallation binnen 1-2 Std. erledigt ist.

    Bisher ist mir noch nie eine ganze Platte von jetzt auf gleich ausgefallen (auf Holz klopf) - aber sollte es doch mal passieren, wäre maximal die Arbeit von einem Tag weg - damit kann ich leben, das bekomm ich wieder hin.


    Eine Sicherung in eine Cloud kommt für mich nicht in Frage - meine Daten bleiben bei mir und nur bei mir.

    Für den Inhalt des Beitrages 307383 haftet ausdrücklich der jeweilige Autor: Feli

  • Was würdet ihr für ein Dateisystem nehmen für die Backupplatte? Ich habe klassischerweise ein Dual-Boot-System mit Windows. Das wird zwar nur alle paar Monate genutzt, dennoch sind auch da einige ältere Sachen drin, welche ich mitsichern möchte.


    Irgendwo habe ich etwas vom "kleinsten gemeinsamen Nenner" gelesen und eine Empfehlung, dafür auf NTFS zu setzen. Allerdings scheidet damit die Möglichkeit aus "mal eben" einen Zweig des Verzeichnisbaums aus Linux unkomprimiert rüberzukopieren. Denn sobald die Dateinamen bestimmte Zeichen enthalten, gibt es Ärger...


    Man könnte natürlich die Linux-Struktur in ein TAR oder ein DAR packen und auf NTFS sichern. Oder man formatiert ext4, und geht für solche Fälle grundsätzlich über Linux - zumal wenn man es eh 95% der Zeit nutzt. Suse-konform käme evtl. auch BTRFS in Betracht?

    Wahrscheinlich bekomme ich in 30 Jahren eher ein System zum Laufen, was sich auf ext4 versteht. Bei Windows könnten hingegen die Aktivierungsserver abgeschaltet sein o.ä.

    Für den Inhalt des Beitrages 307401 haftet ausdrücklich der jeweilige Autor: Spaceloop