it-swarm.com.de

Durchschnittliche hohe Auslastung, geringe CPU-Auslastung - warum?

Wir sehen große Leistungsprobleme in einer Webanwendung und versuchen, den Engpass zu finden. Ich bin kein Systemadministrator, also gibt es einige Dinge, die ich nicht ganz verstehe. Einige grundlegende Untersuchungen haben ergeben, dass die CPU inaktiv ist, viel Speicher verfügbar ist, kein Austausch, keine E/A, aber eine hohe durchschnittliche Last.

Der Software-Stack auf diesem Server sieht folgendermaßen aus:

  • Solaris 10
  • Java 1.6
  • WebLogic 10.3.5 (8 Domänen)

Die auf diesem Server ausgeführten Anwendungen kommunizieren mit einer Oracle-Datenbank auf einem anderen Server.

Dieser Server hat 32 GB RAM und 10 CPUs (glaube ich).

Laufen prstat -Z gibt so etwas:

   PID USERNAME  SIZE   RSS STATE  PRI Nice      TIME  CPU PROCESS/NLWP
  3836 ducm0101 2119M 2074M cpu348  58    0   8:41:56 0.5% Java/225
 24196 ducm0101 1974M 1910M sleep   59    0   4:04:33 0.4% Java/209
  6765 ducm0102 1580M 1513M cpu330   1    0   1:21:48 0.1% Java/291
 16922 ducm0102 2115M 1961M sleep   58    0   6:37:08 0.0% Java/193
 18048 root     3048K 2440K sleep   59    0   0:06:02 0.0% sa_comm/4
 26619 ducm0101 2588M 2368M sleep   59    0   8:21:17 0.0% Java/231
 19904 ducm0104 1713M 1390M sleep   59    0   1:15:29 0.0% Java/151
 27809 ducm0102 1547M 1426M sleep   59    0   0:38:19 0.0% Java/186
  2409 root       15M   11M sleep   59    0   0:00:00 0.0% pkgserv/3
 27204 root       58M   54M sleep   59    0   9:11:38 0.0% stat_daemon/1
 27256 root       12M 8312K sleep   59    0   7:16:40 0.0% kux_vmstat/1
 29367 root      297M  286M sleep   59    0  11:02:13 0.0% dsmc/2
 22128 root       13M 6768K sleep   59    0   0:10:51 0.0% sendmail/1
 22133 smmsp      13M 1144K sleep   59    0   0:01:22 0.0% sendmail/1
 22003 root     5896K  240K sleep   59    0   0:00:01 0.0% automountd/2
 22074 root     4776K 1992K sleep   59    0   0:00:19 0.0% sshd/1
 22005 root     6184K 2728K sleep   59    0   0:00:31 0.0% automountd/2
 27201 root     6248K  344K sleep   59    0   0:00:01 0.0% mount_stat/1
 20964 root     2912K  160K sleep   59    0   0:00:01 0.0% ttymon/1
 20947 root     1784K  864K sleep   59    0   0:02:22 0.0% utmpd/1
 20900 root     3048K  608K sleep   59    0   0:00:03 0.0% ttymon/1
 20979 root       77M   18M sleep   59    0   0:14:13 0.0% inetd/4
 20849 daemon   2856K  864K sleep   59    0   0:00:03 0.0% lockd/2
 17794 root       80M 1232K sleep   59    0   0:06:19 0.0% svc.startd/12
 17645 root     3080K  728K sleep   59    0   0:00:12 0.0% init/1
 17849 root       13M 6800K sleep   59    0   0:13:04 0.0% svc.configd/15
 20213 root       84M   81M sleep   59    0   0:47:17 0.0% nscd/46
 20871 root     2568K  600K sleep   59    0   0:00:04 0.0% sac/1
  3683 ducm0101 1904K 1640K sleep   56    0   0:00:00 0.0% startWebLogic.s/1
 23937 ducm0101 1904K 1640K sleep   59    0   0:00:00 0.0% startWebLogic.s/1
 20766 daemon   5328K 1536K sleep   59    0   0:00:36 0.0% nfsmapid/3
 20141 daemon   5968K 3520K sleep   59    0   0:01:14 0.0% kcfd/4
 20093 ducm0101 2000K  376K sleep   59    0   0:00:01 0.0% pfksh/1
 20797 daemon   3256K  240K sleep   59    0   0:00:01 0.0% statd/1
  6181 root     4864K 2872K sleep   59    0   0:01:34 0.0% syslogd/17
  7220 ducm0104 1268M 1101M sleep   59    0   0:36:35 0.0% Java/138
 27597 ducm0102 1904K 1640K sleep   59    0   0:00:00 0.0% startWebLogic.s/1
 27867 root       37M 4568K sleep   59    0   0:13:56 0.0% kcawd/7
 12685 ducm0101 4080K  208K sleep   59    0   0:00:01 0.0% vncconfig/1
ZONEID    NPROC  SWAP   RSS MEMORY      TIME  CPU ZONE
    42      135   22G   19G    59%  87:27:59 1.2% dsuniucm01

Total: 135 processes, 3167 lwps, load averages: 54.48, 62.50, 63.11

Ich verstehe, dass die CPU größtenteils im Leerlauf ist, aber der Lastdurchschnitt ist hoch, was für mich ziemlich seltsam ist. Das Gedächtnis scheint kein Problem zu sein.

Laufen vmstat 15 gibt so etwas:

 kthr      memory            page            disk          faults      cpu
 r b w   swap  free  re  mf pi po fr de sr s0 s1 s4 sd   in   sy   cs us sy id
 0 0 0 32531400 105702272 317 1052 126 0 0 0 0 13 13 -0 8 9602 107680 10964 1 1 98
 0 0 0 15053368 95930224 411 2323 0 0 0 0 0 0  0  0  0 23207 47679 29958 3 2 95
 0 0 0 14498568 95801960 3072 3583 0 2 2 0 0 3 3  0 21 22648 66367 28587 4 4 92
 0 0 0 14343008 95656752 3080 2857 0 0 0 0 0 3 3  0 18 22338 44374 29085 3 4 94
 0 0 0 14646016 95485472 1726 3306 0 0 0 0 0 0 0  0  0 24702 47499 33034 3 3 94

Ich verstehe, dass die CPU größtenteils im Leerlauf ist, keine Prozesse in der Warteschlange warten, um ausgeführt zu werden, und nur wenig Austausch stattfindet.

Laufen iostat 15 gibt dies:

   tty        sd0           sd1           sd4           ssd0           cpu
 tin tout kps tps serv  kps tps serv  kps tps serv  kps tps serv   us sy wt id
   0  676 324  13    8  322  13    8    0   0    0  159   8    0    1  1  0 98
   1 1385   0   0    0    0   0    0    0   0    0    0   0    0    3  4  0 94
   0  584  89   6   24   89   6   25    0   0    0  332  19    0    2  1  0 97
   0  296   0   0    0    0   0    0    0   0    0    0   0    0    2  2  0 97
   1 1290  43   5   24   43   5   22    0   0    0  297  20    1    3  3  0 94

Laufen netstat -i 15 gibt folgendes an:

    input   aggr26    output       input  (Total)    output
packets errs  packets errs  colls  packets errs  packets errs  colls
1500233798 0     1489316495 0     0      3608008314 0     3586173708 0     0
10646   0     10234   0     0      26206   0     25382   0     0
11227   0     10670   0     0      28562   0     27448   0     0
10353   0     9998    0     0      29117   0     28418   0     0
11443   0     12003   0     0      30385   0     31494   0     0

Was vermisse ich?

80
Spiff

Bei einigen weiteren Untersuchungen scheint das Leistungsproblem hauptsächlich auf eine hohe Anzahl von Netzwerkanrufen zwischen zwei Systemen (Oracle SSXA und UCM) zurückzuführen zu sein. Die Anrufe sind schnell, aber reichlich und serialisiert, daher die geringe CPU-Auslastung (meistens warten auf E/A), der hohe Lastdurchschnitt (viele Anrufe warten darauf, verarbeitet zu werden) und insbesondere die langen Antwortzeiten (durch Anhäufung kleiner Antwortzeiten).

Vielen Dank für Ihren Einblick in dieses Problem!

42
Spiff

Wenn Sie "High Load Average" sagen, meinen Sie damit, dass prstat für "Load Average" am unteren Rand der Ausgabezahlen von angezeigt wird

Total: 135 processes, 3167 lwps, load averages: 54.48, 62.50, 63.11

Diese Zahlen ähneln denen von top und bedeuten wahrscheinlich die durchschnittliche Warteschlangengröße des laufenden Prozesses. Dies ist nicht der Prozentsatz der verwendeten Prozessorzeit, sondern wie viele "Dinge" die CPU für die Laufzeit belästigen. Zugegeben, diese sehen ziemlich hoch aus, aber das hängt alles von der App ab, die Sie ausführen. Die Prozesse tun möglicherweise nicht viel, sobald sie ihren Steckplatz erhalten haben. Siehe hier für eine nette Erklärung bezüglich oben.

Ich bin mit WebLogic nicht vertraut, aber ich habe festgestellt, dass mit Apache Tomcat im Allgemeinen viele Java -Threads gleichzeitig für scheinbar nicht viele Anforderungen erzeugt werden können. Dies könnte diese verursachen Hohe durchschnittliche Auslastungszahlen. Stellen Sie sicher, dass Sie gegebenenfalls Verbindungspooling verwenden, um eine Verbindung zum Backend herzustellen, und erhöhen Sie die Anzahl der inaktiven Threads, die Ihrer App für die Verarbeitung von Verbindungen zur Verfügung stehen (nicht sicher, wie Sie dies in WebLogic tun; Tomcat verfügt über eine pro Connector-Thread-Pool oder einem allgemeinen Executor-Thread-Pool). Wenn Sie dies nicht tun, werden möglicherweise brandneue Threads erzeugt, um Anforderungen zu verarbeiten.

In Bezug auf die Leistung müssen Sie genau festlegen , woran ein Teil Ihrer App leidet. Ist es die Verarbeitung, die auf der WebLogic/Java-Seite stattfindet, der Datenbankzugriff, DNS-Suchvorgänge (wenn sie aus irgendeinem Grund durchgeführt werden ...), Netzwerkprobleme oder etwas auf dem Betriebssystem.

In 99% der Fälle ist es Ihr Code und wie er mit der Datenbank kommuniziert, die die Dinge aufhält. Dann wird es die Konfiguration der Web-App sein. Nach diesem Punkt werden Sie daran arbeiten, die letzten Millisekunden aus Ihrer App herauszuholen oder eine höhere Parallelität mit derselben Hardware bereitzustellen. Für diese feinkörnigere Leistungsoptimierung benötigen Sie Metriken.

Für Java Ich würde vorschlagen, Java Melody zu installieren. Es kann viele Informationen darüber liefern, was Ihr Programm tut, und dabei helfen, einzugrenzen, wo es Zeit verbringt. I. Ich habe es nur mit Tomcat verwendet, sollte aber mit jedem Java EE Container/Servlet-Ding) gut funktionieren.

Es gibt eine Reihe von Möglichkeiten, wie Sie Java optimieren können. Sehen Sie sich daher die Leistungsrichtlinien an (ich bin sicher, dass Sie dies wahrscheinlich getan haben) und stellen Sie sicher, dass Sie die richtige Heap-Größe usw. einstellen, die für Ihr Programm geeignet ist. Java Melody kann Ihnen dabei helfen, die Größe des von Ihnen verbrauchten Java-Heaps zu ermitteln sowie festzustellen, wie hart der Garbage Collector arbeitet/wie oft er Ihr Programm unterbricht, um Objekte zu löschen.

Ich hoffe das war hilfreich. Wenn Sie weitere Informationen bereitstellen, kann ich diese Antwort möglicherweise aktualisieren und an Ihre Bedürfnisse anpassen.

32
webtoe

Nebenbei bemerkt, der Lastdurchschnitt umfasst auch Dinge, die auf die Festplattenaktivität warten (d. H. Die Festplatte belästigen), sowie solche, die auf die CPU warten. Dies ist eine Summe aus beidem ... Sie könnten also Probleme in der einen oder anderen haben.

Siehe http://en.wikipedia.org/wiki/Load_ (Computing) "Linux enthält auch [in seinem Lastdurchschnitt] Prozesse in unterbrechungsfreien Ruhezuständen (normalerweise warten auf Festplattenaktivität)"

Als Randnotiz war das besondere Problem, auf das ich stieß, dass ich einen hohen Lastdurchschnitt hatte, aber auch viel Leerlauf-CPU und geringe Festplattennutzung.

Es scheint, dass zumindest in meinem Fall manchmal Threads/Prozesse, die auf E/A warten, im Lastdurchschnitt angezeigt werden, aber nicht einen Anstieg verursachen in der Spalte "Warten". Aber sie sind immer noch I/O-gebunden.

Sie können feststellen, dass dies beim folgenden Code der Fall ist, wenn Sie ihn in jruby ausführen (führt nur 100 Threads mit jeweils vielen E/A aus):

100.times { Thread.new { loop { File.open('big', 'w') do |f| f.seek 10_000_000_000; f.puts 'a'; end}}}

Was eine Top-Ausgabe wie diese ergibt:

top - 17:45:32 up 38 days,  2:13,  3 users,  load average: 95.18, 50.29, 23.83
Tasks: 181 total,   1 running, 180 sleeping,   0 stopped,   0 zombie
Cpu(s):  3.5%us, 11.3%sy,  0.0%ni, 85.1%id,  0.0%wa,  0.0%hi,  0.0%si,  0.0%st
Mem:  32940904k total, 23239012k used,  9701892k free,   983644k buffers
Swap: 34989560k total,        0k used, 34989560k free,  5268548k cached

  PID USER      PR  NI  VIRT  RES  SHR S %CPU %MEM    TIME+  COMMAND
31866 packrd    18   0 19.9g  12g  11m S 117.0 41.3   4:43.85 Java
  912 root      11  -5     0    0    0 S  2.0  0.0   1:40.46 kjournald

Sie können also sehen, dass es viel Leerlauf-CPU, 0,0% wa, aber einen sehr hohen Lastdurchschnitt hat.

iostat zeigt die Festplatte in ähnlicher Weise als im Leerlauf liegend an:

avg-cpu:  %user   %Nice %system %iowait  %steal   %idle
       9.62    0.00    8.75    0.00    0.00   81.62

Device:         rrqm/s   wrqm/s   r/s   w/s    rkB/s    wkB/s avgrq-sz avgqu-sz   await  svctm  %util
sda               0.00    49.00  0.00  6.40     0.00   221.60    69.25     0.01    0.81   0.66   0.42
sda1              0.00    49.00  0.00  6.40     0.00   221.60    69.25     0.01    0.81   0.66   0.42
sda2              0.00     0.00  0.00  0.00     0.00     0.00     0.00     0.00    0.00   0.00   0.00

siehe auch http://linuxgazette.net/141/misc/lg/tracking_load_average_issues.html

Als weitere Randnotiz scheint dies auch zu implizieren, dass (zumindest in diesem Fall - unter CentOS) der Lastdurchschnitt jeden Thread separat in der Summe enthält.

25
rogerdpack

Hatte heute das gleiche Problem. Nach einigen Recherchen und Diagnosen stellte ich fest, dass mein kleiner VPS keine Festplatte mehr war.

Geben Sie unter Shell/Prompt (Linux/Unix) ein

df -h

um das festplattenfrei auf Ihrem Computer zu sehen. Wenn Ihnen die Festplatte ausgeht, kann dies das Problem sein.

7
PJunior

Ein weiteres nützliches Tool, das in dieser Situation hilft, ist nmon.

Es enthält verschiedene Möglichkeiten, um dieselben Daten anzuzeigen, die von den anderen Tools in einem kleinen Paket angezeigt werden.

Wenn dies Inhalte sind, die nicht zwischengespeichert werden können, würde ich empfehlen, mehrere Server hinter einem Load Balancer wie Haproxy im TCP-Modus zu platzieren, um die Last zu verteilen.

4
Daniel Baker

Um dies hinzuzufügen, sind einige nicht erwähnte Solaris-spezifische Tools, die beim Debuggen solcher Probleme nützlich sind, "intrstat", "mpstat" und "lockstat". Nachdem auf einem Host, auf dem einige schwere ETL-Ladevorgänge ausgeführt wurden, ein ähnliches Problem aufgetreten war, stellte mpstat eine hohe Anzahl von Interrupts fest, die sich mit vielen E/A befassten, was auf das Problem hinwies.

Zu diesem Zeitpunkt sahen wir auf einem T4-4 mit mpstat, dass vcpus über einen kurzen Überwachungszyklus mehr als 30000 Interrupts übergab, wonach die Leistung zu leiden begann. In diesem Fall bestand die einzige Problemumgehung darin, mehr CPU darauf zu werfen. Anschließend wurde jedoch daran gearbeitet, den Code zu verbessern.

Brendan Gregg hat im Laufe der Jahre viel über Leistung geschrieben, insbesondere über I/O, und ist eine Suche wert, wenn Sie mehr erfahren möchten.

2
Rowley