it-swarm.com.de

Neustart des systemd-Dienstes bei einem Abhängigkeitsfehler

Was ist der richtige Ansatz, um einen Neustart eines Dienstes zu handhaben, falls eine seiner Abhängigkeiten beim Start fehlschlägt (aber nach einem erneuten Versuch erfolgreich ist)?.

Hier ist ein erfundener Repro, um das Problem klarer zu machen.

a.service (simuliert Fehler beim ersten Versuch und Erfolg beim zweiten Versuch)

[Unit]
Description=A

[Service]
ExecStartPre=/bin/sh -x -c "[ -f /tmp/success ] || (touch /tmp/success && sleep 10)"
ExecStart=/bin/true
TimeoutStartSec=5
Restart=on-failure
RestartSec=5
RemainAfterExit=yes

b.service (erfolgreich nach dem Start von A erfolgreich)

[Unit]
Description=B
After=a.service
Requires=a.service

[Service]
ExecStart=/bin/true
RemainAfterExit=yes
Restart=on-failure
RestartSec=5

Beginnen wir mit b:

# systemctl start b
A dependency job for b.service failed. See 'journalctl -xe' for details.

Protokolle:

Jun 30 21:34:54 debug systemd[1]: Starting A...
Jun 30 21:34:54 debug sh[1308]: + '[' -f /tmp/success ']'
Jun 30 21:34:54 debug sh[1308]: + touch /tmp/success
Jun 30 21:34:54 debug sh[1308]: + sleep 10
Jun 30 21:34:59 debug systemd[1]: a.service start-pre operation timed out. Terminating.
Jun 30 21:34:59 debug systemd[1]: Failed to start A.
Jun 30 21:34:59 debug systemd[1]: Dependency failed for B.
Jun 30 21:34:59 debug systemd[1]: Job b.service/start failed with result 'dependency'.
Jun 30 21:34:59 debug systemd[1]: Unit a.service entered failed state.
Jun 30 21:34:59 debug systemd[1]: a.service failed.
Jun 30 21:35:04 debug systemd[1]: a.service holdoff time over, scheduling restart.
Jun 30 21:35:04 debug systemd[1]: Starting A...
Jun 30 21:35:04 debug systemd[1]: Started A.
Jun 30 21:35:04 debug sh[1314]: + '[' -f /tmp/success ']'

A wurde erfolgreich gestartet, aber B bleibt in einem fehlgeschlagenen Zustand und versucht es nicht erneut.

EDIT

Ich habe beiden Diensten Folgendes hinzugefügt und jetzt startet B erfolgreich, wenn A startet, aber ich kann nicht erklären, warum.

[Install]
WantedBy=multi-user.target

Warum sollte dies die Beziehung zwischen A und B beeinflussen?

EDIT2

Oben "fix" funktioniert in systemd 220 nicht.

systemd 219 Debug-Protokolle

systemd219 systemd[1]: Trying to enqueue job b.service/start/replace
systemd219 systemd[1]: Installed new job b.service/start as 3454
systemd219 systemd[1]: Installed new job a.service/start as 3455
systemd219 systemd[1]: Enqueued job b.service/start as 3454
systemd219 systemd[1]: About to execute: /bin/sh -x -c '[ -f /tmp/success ] || (touch oldcoreos
systemd219 systemd[1]: Forked /bin/sh as 1502
systemd219 systemd[1]: a.service changed dead -> start-pre
systemd219 systemd[1]: Starting A...
systemd219 systemd[1502]: Executing: /bin/sh -x -c '[ -f /tmp/success ] || (touch /tmpoldcoreos
systemd219 sh[1502]: + '[' -f /tmp/success ']'
systemd219 sh[1502]: + touch /tmp/success
systemd219 sh[1502]: + sleep 10
systemd219 systemd[1]: a.service start-pre operation timed out. Terminating.
systemd219 systemd[1]: a.service changed start-pre -> final-sigterm
systemd219 systemd[1]: Child 1502 belongs to a.service
systemd219 systemd[1]: a.service: control process exited, code=killed status=15
systemd219 systemd[1]: a.service got final SIGCHLD for state final-sigterm
systemd219 systemd[1]: a.service changed final-sigterm -> failed
systemd219 systemd[1]: Job a.service/start finished, result=failed
systemd219 systemd[1]: Failed to start A.
systemd219 systemd[1]: Job b.service/start finished, result=dependency
systemd219 systemd[1]: Dependency failed for B.
systemd219 systemd[1]: Job b.service/start failed with result 'dependency'.
systemd219 systemd[1]: Unit a.service entered failed state.
systemd219 systemd[1]: a.service failed.
systemd219 systemd[1]: a.service changed failed -> auto-restart
systemd219 systemd[1]: a.service: cgroup is empty
systemd219 systemd[1]: a.service: cgroup is empty
systemd219 systemd[1]: a.service holdoff time over, scheduling restart.
systemd219 systemd[1]: Trying to enqueue job a.service/restart/fail
systemd219 systemd[1]: Installed new job a.service/restart as 3718
systemd219 systemd[1]: Installed new job b.service/restart as 3803
systemd219 systemd[1]: Enqueued job a.service/restart as 3718
systemd219 systemd[1]: a.service scheduled restart job.
systemd219 systemd[1]: Job b.service/restart finished, result=done
systemd219 systemd[1]: Converting job b.service/restart -> b.service/start
systemd219 systemd[1]: a.service changed auto-restart -> dead
systemd219 systemd[1]: Job a.service/restart finished, result=done
systemd219 systemd[1]: Converting job a.service/restart -> a.service/start
systemd219 systemd[1]: About to execute: /bin/sh -x -c '[ -f /tmp/success ] || (touch oldcoreos
systemd219 systemd[1]: Forked /bin/sh as 1558
systemd219 systemd[1]: a.service changed dead -> start-pre
systemd219 systemd[1]: Starting A...
systemd219 systemd[1]: Child 1558 belongs to a.service
systemd219 systemd[1]: a.service: control process exited, code=exited status=0
systemd219 systemd[1]: a.service got final SIGCHLD for state start-pre
systemd219 systemd[1]: About to execute: /bin/true
systemd219 systemd[1]: Forked /bin/true as 1561
systemd219 systemd[1]: a.service changed start-pre -> running
systemd219 systemd[1]: Job a.service/start finished, result=done
systemd219 systemd[1]: Started A.
systemd219 systemd[1]: Child 1561 belongs to a.service
systemd219 systemd[1]: a.service: main process exited, code=exited, status=0/SUCCESS
systemd219 systemd[1]: a.service changed running -> exited
systemd219 systemd[1]: a.service: cgroup is empty
systemd219 systemd[1]: About to execute: /bin/true
systemd219 systemd[1]: Forked /bin/true as 1563
systemd219 systemd[1]: b.service changed dead -> running
systemd219 systemd[1]: Job b.service/start finished, result=done
systemd219 systemd[1]: Started B.
systemd219 systemd[1]: Starting B...
systemd219 systemd[1]: Child 1563 belongs to b.service
systemd219 systemd[1]: b.service: main process exited, code=exited, status=0/SUCCESS
systemd219 systemd[1]: b.service changed running -> exited
systemd219 systemd[1]: b.service: cgroup is empty
systemd219 sh[1558]: + '[' -f /tmp/success ']'

systemd 220 Debug-Protokolle

systemd220 systemd[1]: b.service: Trying to enqueue job b.service/start/replace
systemd220 systemd[1]: a.service: Installed new job a.service/start as 4846
systemd220 systemd[1]: b.service: Installed new job b.service/start as 4761
systemd220 systemd[1]: b.service: Enqueued job b.service/start as 4761
systemd220 systemd[1]: a.service: About to execute: /bin/sh -x -c '[ -f /tmp/success ] || (touch /tmp/success && sleep 10)'
systemd220 systemd[1]: a.service: Forked /bin/sh as 2032
systemd220 systemd[1]: a.service: Changed dead -> start-pre
systemd220 systemd[1]: Starting A...
systemd220 systemd[2032]: a.service: Executing: /bin/sh -x -c '[ -f /tmp/success ] || (touch /tmp/success && sleep 10)'
systemd220 sh[2032]: + '[' -f /tmp/success ']'
systemd220 sh[2032]: + touch /tmp/success
systemd220 sh[2032]: + sleep 10
systemd220 systemd[1]: a.service: Start-pre operation timed out. Terminating.
systemd220 systemd[1]: a.service: Changed start-pre -> final-sigterm
systemd220 systemd[1]: a.service: Child 2032 belongs to a.service
systemd220 systemd[1]: a.service: Control process exited, code=killed status=15
systemd220 systemd[1]: a.service: Got final SIGCHLD for state final-sigterm.
systemd220 systemd[1]: a.service: Changed final-sigterm -> failed
systemd220 systemd[1]: a.service: Job a.service/start finished, result=failed
systemd220 systemd[1]: Failed to start A.
systemd220 systemd[1]: b.service: Job b.service/start finished, result=dependency
systemd220 systemd[1]: Dependency failed for B.
systemd220 systemd[1]: b.service: Job b.service/start failed with result 'dependency'.
systemd220 systemd[1]: a.service: Unit entered failed state.
systemd220 systemd[1]: a.service: Failed with result 'timeout'.
systemd220 systemd[1]: a.service: Changed failed -> auto-restart
systemd220 systemd[1]: a.service: cgroup is empty
systemd220 systemd[1]: a.service: Failed to send unit change signal for a.service: Transport endpoint is not connected
systemd220 systemd[1]: a.service: Service hold-off time over, scheduling restart.
systemd220 systemd[1]: a.service: Trying to enqueue job a.service/restart/fail
systemd220 systemd[1]: a.service: Installed new job a.service/restart as 5190
systemd220 systemd[1]: a.service: Enqueued job a.service/restart as 5190
systemd220 systemd[1]: a.service: Scheduled restart job.
systemd220 systemd[1]: a.service: Changed auto-restart -> dead
systemd220 systemd[1]: a.service: Job a.service/restart finished, result=done
systemd220 systemd[1]: a.service: Converting job a.service/restart -> a.service/start
systemd220 systemd[1]: a.service: About to execute: /bin/sh -x -c '[ -f /tmp/success ] || (touch /tmp/success && sleep 10)'
systemd220 systemd[1]: a.service: Forked /bin/sh as 2132
systemd220 systemd[1]: a.service: Changed dead -> start-pre
systemd220 systemd[1]: Starting A...
systemd220 systemd[1]: a.service: Child 2132 belongs to a.service
systemd220 systemd[1]: a.service: Control process exited, code=exited status=0
systemd220 systemd[1]: a.service: Got final SIGCHLD for state start-pre.
systemd220 systemd[1]: a.service: About to execute: /bin/true
systemd220 systemd[1]: a.service: Forked /bin/true as 2136
systemd220 systemd[1]: a.service: Changed start-pre -> running
systemd220 systemd[1]: a.service: Job a.service/start finished, result=done
systemd220 systemd[1]: Started A.
systemd220 systemd[1]: a.service: Child 2136 belongs to a.service
systemd220 systemd[1]: a.service: Main process exited, code=exited, status=0/SUCCESS
systemd220 systemd[1]: a.service: Changed running -> exited
systemd220 systemd[1]: a.service: cgroup is empty
systemd220 systemd[1]: a.service: cgroup is empty
systemd220 systemd[1]: a.service: cgroup is empty
systemd220 systemd[1]: a.service: cgroup is empty
systemd220 sh[2132]: + '[' -f /tmp/success ']'
27
Vadim

Ich werde versuchen, meine Ergebnisse für dieses Problem zusammenzufassen, falls jemand darauf stößt, da die Informationen zu diesem Thema knapp sind.

  • Restart=on-failure Gilt nur für Prozessfehler (gilt nicht für Fehler aufgrund von Abhängigkeitsfehlern)
  • Die Tatsache, dass abhängige ausgefallene Einheiten unter bestimmten Bedingungen neu gestartet werden, wenn eine Abhängigkeit erfolgreich neu gestartet wurde, war ein Fehler in systemd <220: http://lists.freedesktop.org/archives/systemd-devel/2015-July/033513. html
  • Wenn es nur eine geringe Wahrscheinlichkeit gibt, dass eine Abhängigkeit beim Start fehlschlägt und Sie sich um die Ausfallsicherheit kümmern, verwenden Sie nicht Before/After und überprüfen Sie stattdessen ein Artefakt, das die Abhängigkeit erzeugt

z.B.

ExecStartPre=/usr/bin/test -f /some/thing
Restart=on-failure
RestartSec=5s

Sie könnten sogar systemctl is-active <dependecy> Verwenden.

Sehr hackig, aber ich habe keine besseren Optionen gefunden.

Meiner Meinung nach ist es ein Fehler in systemd, keine Möglichkeit zu haben, mit Abhängigkeitsfehlern umzugehen.

32
Vadim

Ich habe Tage damit verbracht, um zu versuchen, dass es "systemd" funktioniert, gab aber frustriert auf und schrieb ein Wrapper-Skript, um Abhängigkeiten und Fehler zu verwalten. Jeder untergeordnete Dienst ist ein normaler systemd-Dienst ohne "Requires" oder "PartOf" oder Hooks zu anderen Diensten.

Meine Service-Datei der obersten Ebene sieht folgendermaßen aus:

[Service]
Type=simple
Environment=REQUIRES=foo.service bar.service
ExecStartPre=/usr/bin/systemctl start $REQUIRES
[email protected]@/bin/top-service.sh $REQUIRES
ExecStop=/usr/bin/systemctl      stop $REQUIRES

So weit, ist es gut. Das top.service Dateisteuerungen foo.service und bar.service. Das Starten von top startet foo und bar und das Stoppen von top stoppt foo und bar. Die letzte Zutat ist mein top-service.sh Skript, das die Dienste auf Fehler überwacht:

#!/bin/bash

# This monitors REQUIRES services. If any service stops, all of the services are stopped and this script ends.

REQUIRES="[email protected]"

if [ "$REQUIRES" == "" ]
then
  echo "ERROR: no services listed"
  exit 1
fi

echo "INFO: watching services: ${REQUIRES}"

end=0
while [[ $end == 0 ]]
do
  s=$(systemctl is-active ${REQUIRES} )
  if echo $s | egrep '^(active ?)+$' > /dev/null
  then
    # $s has embedded newlines, but echo $s seems to get rid of them, while echo "$s" keeps them.
    # echo INFO: All active, $s
    end=0
  else
    echo "WARN: ${REQUIRES}"
    echo WARN: $s
  fi

  if [[ $s == *"failed"* ]] || [[ $s == *"unknown"* ]]
  then
    echo "WARN: At least one service is failed or unknown, ending service"
    end=1
  else
    sleep 1
  fi
done

echo "INFO: done watching services, stopping: ${REQUIRES}"
systemctl stop ${REQUIRES}
echo "INFO: stopped: ${REQUIRES}"
exit 1
0
Mark Lakata

After und Before legen nur die Reihenfolge fest, in der Dienste gestartet werden. Ihre Servicedateien sagen "Wenn A und B gestartet werden, muss A vor B gestartet werden".

Requires bedeutet, wenn dieser Dienst gestartet werden soll, muss dieser Dienst zuerst gestartet werden. In Ihrem Beispiel "Wenn B gestartet wird und A nicht ausgeführt wird, starten Sie A".

Wenn Sie das WantedBy=multi-user.target Sie teilen dem System jetzt mit, dass die Dienste beim Initialisieren des Systems gestartet werden müssen multi-user.target, vermutlich bedeutet dies, dass Sie nach dem Hinzufügen das System die Dienste starten ließen, anstatt sie manuell zu starten?

Ich bin mir nicht sicher, warum dies in Version 220 nicht funktioniert. Es könnte sich lohnen, 222 auszuprobieren. Ich werde ein VM ausgraben) und Ihre Dienste ausprobieren, wenn ich die Gelegenheit dazu bekomme.

0
Michael Shaw

Es scheint die Art von Dingen zu sein, die ziemlich einfach geschrieben und in einen Cronjob gesteckt werden können. Die Grundlogik würde ungefähr so ​​aussehen

  1. überprüfen Sie, ob sowohl Dienst a und b als auch Abhängigkeiten ausgeführt werden/in einem gültigen Zustand sind. Sie wissen am besten, wie Sie überprüfen können, ob alles richtig funktioniert
  2. Wenn alles richtig funktioniert, tun Sie nichts oder protokollieren Sie, dass alles funktioniert. Die Protokollierung bietet den Vorteil, dass Sie nach dem vorherigen Protokolleintrag suchen können.
  3. Wenn etwas nicht funktioniert, starten Sie die Dienste neu und springen Sie zum Anfang des Skripts zurück, wo die Überprüfung des Dienstes und des Abhängigkeitsstatus erfolgt. Ein Sprung sollte nur erfolgen, wenn Sie sicher sind, dass die Dienste neu gestartet werden und Abhängigkeiten mit hoher Wahrscheinlichkeit funktionieren, da sonst die Gefahr einer Schleife besteht.
  4. Lassen Sie cron das Skript in Kürze erneut ausführen

Sobald das Skript festgelegt ist, ist cron ein guter Ort, um es zu testen. Wenn cron ineffizient ist, ist das Skript ein guter Ausgangspunkt für den Versuch, einen Systemdienst auf niedriger Ebene zu schreiben, der den Status einiger anderer Dienste überprüfen und sie bei Bedarf neu starten kann. Abhängig vom Aufwand, den Sie investieren möchten, kann das Skript möglicherweise sogar so eingerichtet werden, dass es Ihnen basierend auf den Ergebnissen eine E-Mail sendet (es sei denn, die fraglichen Dienste sind natürlich die Netzwerkdienste).

0
Matt