Beiträge von neptun

    Hallo Gisela,

    vielen Dank für deinen Typ,

    so ganz schlau werde ich leider noch nicht



    echo $$ > /home/abine/puffer/$(basename $0)

    hier bekomme ich in mein Verzeichnis im mein Homeverzeichnis in der tat

    eine Date mit mein Scriptname mit einer Zahl, wohl die pid.

    Aber was für ein Programm ruf ich aus?


    wenn ich schreibe:

    echo $$ > ls /home/marcel/puffer/$(basename $0)

    bekomme ich die pid von ls?



    falls ja sollte ich bei:

    echo $$ >cvlc --sout-all rtp://87.141.215.251@232.0.20.35:10000 --sout file/ts:go.ts --alsa-audio-device default --run-time=5 vlc://quit /home/marcel/puffer/$(basename $0)

    die pid von vlc bekommen,

    aber in die gespeicherte datei steht:


    25690 --sout-all rtp://87.141.215.251@232.0........

    wobei 25690 nicht die pid ist, denn das sagt mir top, wo alle Task aufgelistet werden

    Ich habe hier ein Script, das wird von Cron gestartet.


    Das nimmt ein Stream auf Festplatte auf nimmt



    Bash
    #!/bin/bash
    cvlc --sout-all rtp://87.141.215.251@232.0.20.35:10000 --sout file/ts:go.ts --alsa-audio-device default --run-time=5 vlc://quit


    was sich leider ncht selbstständug beendet, weil vlc 3 noch ein Fehler hat, es läuft bis die Platte voll ist


    Kann man beim aufrufen des cvlc die PID raus bekommen, um das programm später zu killen?

    sowas wie

    pid=cvlc --sout-a....

    wäre cool.

    geht aber nicht.

    starte ich den cvlc über die Console lässt es sich nur durch String & c benden, oder durch kill


    Man kann nun über ein 2. Script und ps -e schauen was für eine pid der vlc player hat und ihn zu der festgelegten Zeit killen, aber es können auch mal 2 oder 3 vlc laufen, dann killt man den falschen.

    Man könnte dann wiederum mit zählen, wird der vlc gestartet sofort über ps -e oder ähnlich die pid holen, prüfen ob die schon läuft, wenn nein eintragen, falls ja neue suchen., aber das ist echt eine Fummelei.


    Gut wäre es wenn man gleich beim aufruf des vlc die pid raus bekommt, die trage ich dann in einer DB ein, läuft der Stream ab kille ich die pid.


    Frohe Weihnachten








    Hat jemand eine Idee?

    Zitat

    bösen Internetz Billarden davon rumkugeln.

    Das mag ja sein, aber wo binde ich mein Script ein?

    hier lese ich z.B.

    Oder du kopierest dein Script nach /usr/lib/systemd/system-shutdown


    gemacht, getan, erst mal ein Script was eine Testdatei beim runterfahren lösch, aber Suse

    interessiert meine Datei nicht.

    trotzt chmod 777 test_schript



    Inhalt der Datei

    #!/bin/bash

    rm /home/sabine/kiel.txt

    ?

    Code
    umount -f -l /nfs/share


    Supy, das geht in der Tat, im Netz habe ich eben gelesen, der Rechner soll sich sogar aufhängen wenn der NFS Server nicht mehr zur verfügung steht, und man fährt ihn runter.


    Gibt es unter Suse leap 15.2 kein Shutdown Script wo man den Befehl umount hinterlegen kann,

    wenn der Rechner runter gefahren wird?

    Ich habe einen NFS-Server,

    Der wird vom mein Fileserver gemountet.

    Beide laufen nur im Extranet


    Ist der NFS-Server mal Down habe ich keine Möglichkeit auf dem Fileserver das NF-LW zu entmounten, die Shell hängt dann einfach, wenn ich den umount Befehl absende.

    Nicht mal df lässt sich absetzen, schon ein ls /NF-Laufwerk ergibt ein Hänger, was man nur mit Control +C aufhebt.


    in der /etc/fstab finde ich auch keinen Eintrag den man einfach entfernen könnte.

    Gemountet habe ich NFS über einen Befehl

    mount 192.168.0.34:/home/rose/ /export_34/

    Klar ich könnte neustarten, dann wäre es weg, unter Suse 13 hat man bei df kurz gewartet, und konnte das LW entmounten.



    Gibt es eine Datei wo ich die Mount LW austragen kann?

    und neu einlesen?

    Log


    020-12-10T21:43:31.876899+01:00 localhost smartd[956]: Device: /dev/sda [SAT], SMART Usage Attribute: 190 Airflow_Temperature_Cel changed from 77 to 76

    2020-12-10T21:43:38.789864+01:00 localhost smartd[956]: Device: /dev/sdb [SAT], SMART Usage Attribute: 190 Airflow_Temperature_Cel changed from 73 to 74

    2020-12-10T21:43:38.790367+01:00 localhost smartd[956]: Device: /dev/sdb [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 27 to 26

    2020-12-10T21:43:43.444119+01:00 localhost smartd[956]: Device: /dev/sdc [SAT], SMART Usage Attribute: 190 Airflow_Temperature_Cel changed from 73 to 72

    2020-12-10T21:43:43.444615+01:00 localhost smartd[956]: Device: /dev/sdc [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 27 to 28


    /dev/sda ist eine Samsung SSD 860 EVO 1TB, glaubt nicht das die zu warm wird.

    /dev/sdb ST4000VN008-2DR166 Seagate 4GB


    /dev/sdc Seagate 1GB

    Wo steht steht °C oder °F oder °K



    schaut man sich mal die sdb an



    2020-12-10T21:43:38.789864+01:00 localhost smartd[956]: Device: /dev/sdb [SAT], SMART Usage Attribute: 190 Airflow_Temperature_Cel changed from 73 to 74

    2020-12-10T21:43:38.790367+01:00 localhost smartd[956]: Device: /dev/sdb [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 27 to 26


    Was ist der Unterschied zwischen Airflow_Temperature_Cel und Temperature_Celsius?

    Hallo Sterun,


    mit rcsmartd stop kann man die Prüfung stoppen!


    Kann man den Dienst dann nicht so Starten über die Console, oder ist es nur sowas wie smartctl -a ohne das Logs geschrieben werden?


    Oder kann man die Taktung auf 24 Stunden erhöhen?



    Wenn rcsmartd nun ein Fehler findet, wird es nur in den Logs /var/log/messes geschrieben?


    Ich habe noch nie eine Meldung gesehen!

    Ich schaue eigentlich nur mal 1X im Monats ins smartctl -a /devhdX rein




    Hallo qbit1

    hdparm -S 240 /dev/sdc

    sind 20 Min. genau wie es sein soll.


    changed from 73 to 72


    glaube das stimmt nicht, denn der Server steht noch hinter mir und ich kann die Festplatte fühlen, die ist Kühl

    So langsam verstehe ich es.

    schreibe ich auf dem Backup-Server

    command="/usr/bin/dir" ssh-rsa


    und auf den Webserver

    ssh backup@192.168.0.30

    listet er mir das Home Verzeichnis vom Backup-Server auf, weil der Befehl auf DIR beschränkt wurde


    Aber was muss ich eingeben, wenn ich Daten vom Webserver zum Backup-Server kopieren will?

    sowas wie:

    command="/usr/bin/scp" ssh-rsa

    ?

    sollte man dann auf dem Webserver scp datei backup@192.168.0.30

    schreiben können?

    Vielen Dank, aber so richtig blicke ich da nicht durch.


    Ich erstelle mit den User Backup auf dem Webserver die

    authorized_keys

    mit

    ssh-keygen -t rsa

    und kopiere die auf mein Backup Server

    ssh-copy-id backup@192.168.xx.xx

    Bis hier klappt es ja schon über SCP, aber leider auch über SSH



    auf dem Backup Server im home/backup/.ssh liegt dann die authorized_keys

    Inhalt:

    ssh-rsa AAAAB3NzaC1yc2EAAAADAQABAbbBAQDIXJCHj4gCdKCWT...

    Hier soll ich dann als 1. Zeile eintragen: ?

    command="/usr/bin/cat",no-pty,no-agent-forwarding,no-port-for warding,no-X11-forwarding"

    ssh-rsa AAA... # der alte Inhalt in der 2. Zeile


    Auf dem Webserver benutze ich dann kein scp sonder Cat?

    gibt es da kein unterschied wegen Asci Umlaute u.s.w.?

    xcp kopiert ja 100%, cat zeigt mir ja nur den Inhalt eier Datei an, hier habe ich schon oft gesehen das Umlaut kaputt sind.


    Also Z.b. Verzeichnis Projekt-kiel sichern:

    cat Projekt-Kiel | ssh backup@host 'cat > /192.168.0.XX/home/backup/

    schon landet das Verzeichnis auf mein Backup(192.168.x.x) Server?


    Kann man dann nicht einfach sagen SCP ja, SSH nein?

    Zitat

    SCP braucht, genau wie SFTP, SSH , um die angegebenen Daten auf den Zielrechner zu kopieren.


    Wir hat dann ein EDV-Dinosaurier das früher gemacht, also Daten von ein Server auf einen anderen kopiert, ohne dass man sich anmelden konnte.


    Das ist ja nichts exotische, eher das täglich Brot, ich habe es jahrelang über NFS gemacht, bin aber für neueres immer offen