Plattenplatz root Laufwerk

Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

Hinweis: In dem Thema Plattenplatz root Laufwerk gibt es 40 Antworten auf 5 Seiten. Der letzte Beitrag () befindet sich auf der letzten Seite.
  • Plattenplatz root Laufwerk

    Hallo,

    nach dem erfolgreichen upgrade von OpenSuse 42.3 auf Leap 15.0 hat sich mein root Laufwerk von 38 % Belegung auf 73 % Belegung gefüllt. Ich habe eine root Platte von 80 GByte. Dort sind jetzt noch 21 Gbyte frei. Wo kann ich auf der root Platte bedenkenlos aufräumen ? Die Snapshots werden ja automatisch nach einer gewissen Zeit gelöscht.

    Das /var/log hat jetzt 1.4 GByte. /tmp hat nur 670 MByte, /usr hat 17 GByte

    Für den Inhalt des Beitrages 131782 haftet ausdrücklich der jeweilige Autor: rebell21

  • Brainfuck-Quellcode

    1. linux-g7ok:~ # snapper list
    2. Type | # | Pre # | Date | User | Cleanup | Description | Userdata
    3. -------+-----+-------+--------------------------+------+----------+--------------------+--------------
    4. single | 0 | | | root | | current |
    5. single | 282 | | Fri Nov 9 11:30:01 2018 | root | timeline | timeline |
    6. single | 283 | | Fri Nov 9 12:30:02 2018 | root | timeline | timeline |
    7. single | 284 | | Fri Nov 9 13:30:01 2018 | root | timeline | timeline |
    8. single | 285 | | Fri Nov 9 14:30:01 2018 | root | timeline | timeline |
    9. single | 286 | | Fri Nov 9 15:30:01 2018 | root | timeline | timeline |
    10. single | 347 | | Tue Dec 18 18:17:01 2018 | root | | |
    11. single | 369 | | Sat Dec 22 00:34:10 2018 | root | | |
    12. pre | 438 | | Thu Jan 31 10:33:43 2019 | root | number | zypp(packagekitd) | important=yes
    13. post | 439 | 438 | Thu Jan 31 10:40:48 2019 | root | number | | important=yes
    14. pre | 489 | | Wed Feb 13 12:32:35 2019 | root | number | zypp(packagekitd) | important=yes
    15. post | 490 | 489 | Wed Feb 13 12:52:12 2019 | root | number | | important=yes
    16. pre | 510 | | Tue Mar 19 10:23:52 2019 | root | number | zypp(packagekitd) | important=yes
    17. post | 511 | 510 | Tue Mar 19 10:54:44 2019 | root | number | | important=yes
    18. pre | 546 | | Mon Apr 1 15:04:20 2019 | root | number | zypp(packagekitd) | important=yes
    19. post | 547 | 546 | Mon Apr 1 15:25:30 2019 | root | number | | important=yes
    20. pre | 552 | | Tue Apr 9 11:15:42 2019 | root | number | vor dem Update | important=yes
    21. pre | 555 | | Wed Apr 10 12:54:47 2019 | root | number | zypp(zypper) | important=yes
    22. post | 556 | 555 | Wed Apr 10 21:01:28 2019 | root | number | | important=yes
    23. pre | 563 | | Thu Apr 11 11:09:45 2019 | root | number | yast sw_single |
    24. pre | 564 | | Thu Apr 11 11:10:17 2019 | root | number | zypp(ruby.ruby2.5) | important=no
    25. post | 565 | 564 | Thu Apr 11 11:11:11 2019 | root | number | | important=no
    26. post | 566 | 563 | Thu Apr 11 11:11:14 2019 | root | number | |
    27. pre | 567 | | Thu Apr 11 12:04:42 2019 | root | number | yast sw_single |
    28. post | 568 | 567 | Thu Apr 11 12:15:36 2019 | root | number | |
    29. pre | 569 | | Thu Apr 11 12:15:39 2019 | root | number | yast sw_single |
    30. post | 570 | 569 | Thu Apr 11 12:16:09 2019 | root | number | |
    31. You have new mail in /var/spool/mail/root
    Alles anzeigen

    Für den Inhalt des Beitrages 131789 haftet ausdrücklich der jeweilige Autor: rebell21

  • das habe ich gemacht, hat aber nur 1 % gebracht, nun von 73% auf 72 % belegt

    Brainfuck-Quellcode

    1. linux-g7ok:~ # snapper list
    2. Type | # | Pre # | Date | User | Cleanup | Description | Userdata
    3. -------+-----+-------+--------------------------+------+---------+--------------------+--------------
    4. single | 0 | | | root | | current |
    5. single | 369 | | Sat Dec 22 00:34:10 2018 | root | | |
    6. pre | 552 | | Tue Apr 9 11:15:42 2019 | root | number | vor dem Update | important=yes
    7. pre | 555 | | Wed Apr 10 12:54:47 2019 | root | number | zypp(zypper) | important=yes
    8. post | 556 | 555 | Wed Apr 10 21:01:28 2019 | root | number | | important=yes
    9. pre | 563 | | Thu Apr 11 11:09:45 2019 | root | number | yast sw_single |
    10. pre | 564 | | Thu Apr 11 11:10:17 2019 | root | number | zypp(ruby.ruby2.5) | important=no
    11. post | 565 | 564 | Thu Apr 11 11:11:11 2019 | root | number | | important=no
    12. post | 566 | 563 | Thu Apr 11 11:11:14 2019 | root | number | |
    13. pre | 567 | | Thu Apr 11 12:04:42 2019 | root | number | yast sw_single |
    14. post | 568 | 567 | Thu Apr 11 12:15:36 2019 | root | number | |
    15. pre | 569 | | Thu Apr 11 12:15:39 2019 | root | number | yast sw_single |
    16. post | 570 | 569 | Thu Apr 11 12:16:09 2019 | root | number | |
    17. linux-g7ok:~ # df .
    18. Filesystem 1K-blocks Used Available Use% Mounted on
    19. /dev/sdi3 83881984 58492092 23533236 72% /
    Alles anzeigen

    Für den Inhalt des Beitrages 131798 haftet ausdrücklich der jeweilige Autor: rebell21

  • df kann Btrfs nicht korrekt anzeigen.
    Oder besser formuliert: Die korrekte Anzeige von df macht bei Btrfs nicht wirklich Sinn.

    man btrfs-filesystem
    Sokrates sagte, dass er nichts wisse.
    Ich bin viel, viel klüger als Sokrates.
    Ich weiß ganz genau, dass ich gar nichts weiß.

    Für den Inhalt des Beitrages 131799 haftet ausdrücklich der jeweilige Autor: Berichtigung

  • Neu

    Manchmal hilft es btrfs-balance zu starten um den Speicherplatz unmittelbar freizugeben. Hier ein Beispiel:


    Quellcode

    1. server:~ # df -kh /
    2. Filesystem Size Used Avail Use% Mounted on
    3. /dev/sda1 20G 6.4G 14G 33% /
    4. server:~ # snapper rm 357-410
    5. server:~ # df -kh /
    6. Filesystem Size Used Avail Use% Mounted on
    7. /dev/sda1 20G 6.4G 14G 33% /
    8. server:~ # /usr/share/btrfsmaintenance/btrfs-balance.sh
    9. Before balance of /
    10. Data, single: total=7.01GiB, used=4.76GiB
    11. System, DUP: total=32.00MiB, used=16.00KiB
    12. Metadata, DUP: total=896.00MiB, used=737.27MiB
    13. GlobalReserve, single: total=22.92MiB, used=11.59MiB
    14. Filesystem Size Used Avail Use% Mounted on
    15. /dev/sda1 22G 6.7G 15G 32% /
    16. Done, had to relocate 0 out of 16 chunks
    17. Dumping filters: flags 0x1, state 0x0, force is off
    18. DATA (flags 0x2): balancing, usage=1
    19. Done, had to relocate 0 out of 16 chunks
    20. Dumping filters: flags 0x1, state 0x0, force is off
    21. DATA (flags 0x2): balancing, usage=5
    22. Done, had to relocate 0 out of 16 chunks
    23. Dumping filters: flags 0x1, state 0x0, force is off
    24. DATA (flags 0x2): balancing, usage=10
    25. Done, had to relocate 0 out of 16 chunks
    26. Dumping filters: flags 0x1, state 0x0, force is off
    27. DATA (flags 0x2): balancing, usage=20
    28. Done, had to relocate 1 out of 16 chunks
    29. Dumping filters: flags 0x1, state 0x0, force is off
    30. DATA (flags 0x2): balancing, usage=30
    31. Done, had to relocate 1 out of 16 chunks
    32. Dumping filters: flags 0x1, state 0x0, force is off
    33. DATA (flags 0x2): balancing, usage=40
    34. Done, had to relocate 1 out of 16 chunks
    35. Dumping filters: flags 0x1, state 0x0, force is off
    36. DATA (flags 0x2): balancing, usage=50
    37. Done, had to relocate 1 out of 16 chunks
    38. Done, had to relocate 0 out of 16 chunks
    39. Dumping filters: flags 0x6, state 0x0, force is off
    40. METADATA (flags 0x2): balancing, usage=1
    41. SYSTEM (flags 0x2): balancing, usage=1
    42. Done, had to relocate 1 out of 16 chunks
    43. Dumping filters: flags 0x6, state 0x0, force is off
    44. METADATA (flags 0x2): balancing, usage=5
    45. SYSTEM (flags 0x2): balancing, usage=5
    46. Done, had to relocate 1 out of 16 chunks
    47. Dumping filters: flags 0x6, state 0x0, force is off
    48. METADATA (flags 0x2): balancing, usage=10
    49. SYSTEM (flags 0x2): balancing, usage=10
    50. Done, had to relocate 1 out of 16 chunks
    51. Dumping filters: flags 0x6, state 0x0, force is off
    52. METADATA (flags 0x2): balancing, usage=20
    53. SYSTEM (flags 0x2): balancing, usage=20
    54. Done, had to relocate 1 out of 16 chunks
    55. Dumping filters: flags 0x6, state 0x0, force is off
    56. METADATA (flags 0x2): balancing, usage=30
    57. SYSTEM (flags 0x2): balancing, usage=30
    58. Done, had to relocate 1 out of 16 chunks
    59. After balance of /
    60. Data, single: total=7.01GiB, used=4.37GiB
    61. System, DUP: total=32.00MiB, used=16.00KiB
    62. Metadata, DUP: total=896.00MiB, used=622.12MiB
    63. GlobalReserve, single: total=22.16MiB, used=0.00B
    64. Filesystem Size Used Avail Use% Mounted on
    65. /dev/sda1 22G 6.1G 15G 29% /
    66. server:~ # df -kh /
    67. Filesystem Size Used Avail Use% Mounted on
    68. /dev/sda1 20G 5.7G 14G 29% /
    Alles anzeigen
    Erst nach btrfs-banace wurden 4% Speicher freigegeben, und meine snapshots sind relativ klein. btrfs-balance wird über einen systemd Timer regelmässig aufgerufen, aber um die Wirkung beim Löschen von Snapshots unmittelbar zu sehen, kann man es manuell starten.

    Für den Inhalt des Beitrages 131820 haftet ausdrücklich der jeweilige Autor: wn48z

  • Neu

    Poste noch mal:

    Quellcode

    1. btrfs filesystem show
    Und:

    Quellcode

    1. btrfs qgroup show /

    wn48z schrieb:

    Manchmal hilft es btrfs-balance zu starten um den Speicherplatz unmittelbar freizugeben.
    Da hatte man auch gleich:

    Quellcode

    1. snapper delete --sync 282-547
    ...nehmen können.
    Zitat Albert Einstein:
    "Zwei Dinge sind unendlich, das Universum und die menschliche Dummheit,
    aber bei dem Universum bin ich mir noch nicht ganz sicher."

    Für den Inhalt des Beitrages 131821 haftet ausdrücklich der jeweilige Autor: sterun

  • Neu

    btrfs filesystem show

    Quellcode

    1. linux-g7ok:~ # btrfs filesystem show
    2. Label: none uuid: 58a5a1dd-8ed5-4e7e-a675-d1daeaa8dfcc
    3. Total devices 1 FS bytes used 46.08GiB
    4. devid 1 size 80.00GiB used 60.07GiB path /dev/sdi3
    verstehen tue ich es nicht


    Vor dem upgrade mit zypper dup war ca. 38 % belegt (31 Gbyte). Nun sollen 60 GByte belegt sein. Auf der Platte /dev/sdi3 ist nur das root FS

    btrfs qgroup show /


    Quellcode

    1. linux-g7ok:~ # btrfs qgroup show /
    2. ERROR: can't list qgroups: quotas not enabled

    Für den Inhalt des Beitrages 131822 haftet ausdrücklich der jeweilige Autor: rebell21