सवाल उच्च भार औसत, कम CPU उपयोग - क्यों?


हम एक वेब अनुप्रयोग पर बड़ी प्रदर्शन समस्याओं को देख रहे हैं और हम बाधा खोजने की कोशिश कर रहे हैं। मैं sysadmin नहीं हूँ इसलिए कुछ चीजें हैं जो मुझे काफी नहीं मिलती हैं। कुछ बुनियादी जांच से पता चलता है कि सीपीयू निष्क्रिय है, बहुत सारी मेमोरी उपलब्ध है, कोई स्वैपिंग नहीं, कोई I / O नहीं है, लेकिन उच्च औसत भार है।

इस सर्वर पर सॉफ़्टवेयर स्टैक इस तरह दिखता है:

  • सोलारिस 10
  • जावा 1.6
  • वेबलोगिक 10.3.5 (8 डोमेन)

इस सर्वर पर चल रहे अनुप्रयोग एक अलग सर्वर पर ओरेकल डेटाबेस के साथ बात करते हैं।

इस सर्वर में 32 जीबी रैम और 10 सीपीयू हैं (मुझे लगता है)।

चल रहा है prstat -Z ऐसा कुछ देता है:

   PID USERNAME  SIZE   RSS STATE  PRI NICE      TIME  CPU PROCESS/NLWP
  3836 ducm0101 2119M 2074M cpu348  58    0   8:41:56 0.5% java/225
 24196 ducm0101 1974M 1910M sleep   59    0   4:04:33 0.4% java/209
  6765 ducm0102 1580M 1513M cpu330   1    0   1:21:48 0.1% java/291
 16922 ducm0102 2115M 1961M sleep   58    0   6:37:08 0.0% java/193
 18048 root     3048K 2440K sleep   59    0   0:06:02 0.0% sa_comm/4
 26619 ducm0101 2588M 2368M sleep   59    0   8:21:17 0.0% java/231
 19904 ducm0104 1713M 1390M sleep   59    0   1:15:29 0.0% java/151
 27809 ducm0102 1547M 1426M sleep   59    0   0:38:19 0.0% java/186
  2409 root       15M   11M sleep   59    0   0:00:00 0.0% pkgserv/3
 27204 root       58M   54M sleep   59    0   9:11:38 0.0% stat_daemon/1
 27256 root       12M 8312K sleep   59    0   7:16:40 0.0% kux_vmstat/1
 29367 root      297M  286M sleep   59    0  11:02:13 0.0% dsmc/2
 22128 root       13M 6768K sleep   59    0   0:10:51 0.0% sendmail/1
 22133 smmsp      13M 1144K sleep   59    0   0:01:22 0.0% sendmail/1
 22003 root     5896K  240K sleep   59    0   0:00:01 0.0% automountd/2
 22074 root     4776K 1992K sleep   59    0   0:00:19 0.0% sshd/1
 22005 root     6184K 2728K sleep   59    0   0:00:31 0.0% automountd/2
 27201 root     6248K  344K sleep   59    0   0:00:01 0.0% mount_stat/1
 20964 root     2912K  160K sleep   59    0   0:00:01 0.0% ttymon/1
 20947 root     1784K  864K sleep   59    0   0:02:22 0.0% utmpd/1
 20900 root     3048K  608K sleep   59    0   0:00:03 0.0% ttymon/1
 20979 root       77M   18M sleep   59    0   0:14:13 0.0% inetd/4
 20849 daemon   2856K  864K sleep   59    0   0:00:03 0.0% lockd/2
 17794 root       80M 1232K sleep   59    0   0:06:19 0.0% svc.startd/12
 17645 root     3080K  728K sleep   59    0   0:00:12 0.0% init/1
 17849 root       13M 6800K sleep   59    0   0:13:04 0.0% svc.configd/15
 20213 root       84M   81M sleep   59    0   0:47:17 0.0% nscd/46
 20871 root     2568K  600K sleep   59    0   0:00:04 0.0% sac/1
  3683 ducm0101 1904K 1640K sleep   56    0   0:00:00 0.0% startWebLogic.s/1
 23937 ducm0101 1904K 1640K sleep   59    0   0:00:00 0.0% startWebLogic.s/1
 20766 daemon   5328K 1536K sleep   59    0   0:00:36 0.0% nfsmapid/3
 20141 daemon   5968K 3520K sleep   59    0   0:01:14 0.0% kcfd/4
 20093 ducm0101 2000K  376K sleep   59    0   0:00:01 0.0% pfksh/1
 20797 daemon   3256K  240K sleep   59    0   0:00:01 0.0% statd/1
  6181 root     4864K 2872K sleep   59    0   0:01:34 0.0% syslogd/17
  7220 ducm0104 1268M 1101M sleep   59    0   0:36:35 0.0% java/138
 27597 ducm0102 1904K 1640K sleep   59    0   0:00:00 0.0% startWebLogic.s/1
 27867 root       37M 4568K sleep   59    0   0:13:56 0.0% kcawd/7
 12685 ducm0101 4080K  208K sleep   59    0   0:00:01 0.0% vncconfig/1
ZONEID    NPROC  SWAP   RSS MEMORY      TIME  CPU ZONE
    42      135   22G   19G    59%  87:27:59 1.2% dsuniucm01

Total: 135 processes, 3167 lwps, load averages: 54.48, 62.50, 63.11

मैं समझता हूं कि सीपीयू ज्यादातर निष्क्रिय है, लेकिन भार औसत उच्च है, जो मेरे लिए काफी अजीब है। मेमोरी एक समस्या प्रतीत नहीं होती है।

चल रहा है vmstat 15 ऐसा कुछ देता है:

 kthr      memory            page            disk          faults      cpu
 r b w   swap  free  re  mf pi po fr de sr s0 s1 s4 sd   in   sy   cs us sy id
 0 0 0 32531400 105702272 317 1052 126 0 0 0 0 13 13 -0 8 9602 107680 10964 1 1 98
 0 0 0 15053368 95930224 411 2323 0 0 0 0 0 0  0  0  0 23207 47679 29958 3 2 95
 0 0 0 14498568 95801960 3072 3583 0 2 2 0 0 3 3  0 21 22648 66367 28587 4 4 92
 0 0 0 14343008 95656752 3080 2857 0 0 0 0 0 3 3  0 18 22338 44374 29085 3 4 94
 0 0 0 14646016 95485472 1726 3306 0 0 0 0 0 0 0  0  0 24702 47499 33034 3 3 94

मैं समझता हूं कि सीपीयू अधिकतर निष्क्रिय है, कतार में कोई प्रक्रिया इंतजार नहीं कर रही है, थोड़ा स्वैपिंग हो रहा है।

चल रहा है iostat 15 यह देता है:

   tty        sd0           sd1           sd4           ssd0           cpu
 tin tout kps tps serv  kps tps serv  kps tps serv  kps tps serv   us sy wt id
   0  676 324  13    8  322  13    8    0   0    0  159   8    0    1  1  0 98
   1 1385   0   0    0    0   0    0    0   0    0    0   0    0    3  4  0 94
   0  584  89   6   24   89   6   25    0   0    0  332  19    0    2  1  0 97
   0  296   0   0    0    0   0    0    0   0    0    0   0    0    2  2  0 97
   1 1290  43   5   24   43   5   22    0   0    0  297  20    1    3  3  0 94

चल रहा है netstat -i 15 निम्नलिखित देता है:

    input   aggr26    output       input  (Total)    output
packets errs  packets errs  colls  packets errs  packets errs  colls
1500233798 0     1489316495 0     0      3608008314 0     3586173708 0     0
10646   0     10234   0     0      26206   0     25382   0     0
11227   0     10670   0     0      28562   0     27448   0     0
10353   0     9998    0     0      29117   0     28418   0     0
11443   0     12003   0     0      30385   0     31494   0     0

मैं क्या खो रहा हूँ?


71
2018-02-29 22:29


मूल


मैं सोलारिस के साथ घर पर नहीं हूं, इसलिए मैं इसके लिए किसी और के लिए स्थगित कर दूंगा, लेकिन मैं आपकी वेब सर्वर कॉन्फ़िगरेशन को देखना शुरू कर दूंगा। शायद कुछ कतार में बहुत सारे धागे छोड़ने के लिए कृत्रिम रूप से प्रदर्शन को गेट करना है। (यह सुनिश्चित नहीं है कि यह क्या हो सकता है या भले ही यह संभव हो)। हालांकि, एक अच्छी तरह से लिखित प्रश्न के लिए Kudos। - SmallClanger
10 सीपीयू (मुझे लगता है) संभवतः मुद्दा है। आगे की जांच करने से पहले आपको पता होना चाहिए कि आप कौन से हार्डवेयर चल रहे हैं। उपयोग psrinfo -v सीपीयू की वास्तविक संख्या प्रदर्शित करने के लिए। - jlliagre
मैंने इस आदेश के बारे में कभी नहीं सुना है, लेकिन इसे चलाने पर ऐसा लगता है कि लगभग 250 वर्चुअल प्रोसेसर हैं। क्या यह अर्थसार्थक भी है? उस मामले में 50 का भार औसत महत्वहीन होगा? - Spiff
मुझे लगता है कि यह तब भी हो सकता है जब आपकी डिस्क भर जाती है। मेरे पास आज 1% मुक्त स्थान था / और लोड तक बढ़ते रहते हैं 19.00 कोई दृश्य कारण नहीं है। कुछ जगह मुक्त करने से समस्या हल हो गई (जल्द ही इसे नीचे आने के बाद); यद्यपि एक संयोग भी हो सकता है। - nh2


जवाब:


कुछ और जांच के साथ, ऐसा लगता है कि प्रदर्शन समस्या ज्यादातर दो प्रणालियों (ओरेकल एसएसएक्सए और यूसीएम) के बीच नेटवर्क कॉल की उच्च संख्या के कारण होती है। कॉल त्वरित लेकिन बहुत सी और सीरियलाइज्ड हैं, इसलिए कम CPU उपयोग (ज्यादातर आई / ओ के लिए इंतजार कर रहा है), उच्च लोड औसत (कई कॉल संसाधित होने की प्रतीक्षा कर रहे हैं) और विशेष रूप से लंबे प्रतिक्रिया समय (छोटे प्रतिक्रिया समय के संचय द्वारा)।

इस समस्या पर आपकी अंतर्दृष्टि के लिए धन्यवाद!


39
2018-03-02 15:15





जब आप 'हाई लोड औसत' कहते हैं, तो मुझे लगता है कि आप का मतलब है कि प्रीस्टैट आउटपुट आंकड़ों के नीचे 'लोड औसत' के लिए दिखाता है

Total: 135 processes, 3167 lwps, load averages: 54.48, 62.50, 63.11

ये संख्याएं, शीर्ष प्रदान करने वालों के समान दिखती हैं और शायद चलने की प्रक्रिया के औसत कतार आकार का मतलब है। यह प्रोसेसर समय का उपयोग नहीं किया जा रहा है लेकिन समय के लिए सीपीयू को कितनी चीजें परेशान कर रही हैं। माना जाता है कि ये काफी अधिक दिखते हैं लेकिन यह सब उस ऐप पर निर्भर करता है जो आप चल रहे हैं; एक बार जब वे अपना स्लॉट प्राप्त कर लेते हैं तो प्रक्रिया वास्तव में बहुत कुछ नहीं कर सकती है। देख यहाँ शीर्ष के बारे में एक अच्छी व्याख्या के लिए।

मैं वेबलॉगिक से परिचित नहीं हूं लेकिन मैंने देखा है कि आम तौर पर, अपाचे टॉमकैट के साथ कई जावा थ्रेड्स को कई अनुरोधों के रूप में दिखाई देने के लिए एक साथ उत्पन्न किया जा सकता है। यह ऐसा हो सकता है जो उन उच्च औसत लोड संख्याओं का कारण बन रहा है। सुनिश्चित करें कि आप कनेक्शन पूलिंग का उपयोग कर रहे हैं जहां बैकएंड से कनेक्ट करने के लिए उचित है और कनेक्शन को संभालने के लिए आपके ऐप पर उपलब्ध निष्क्रिय थ्रेड की संख्या को ऊपर उठाने पर विचार करें (सुनिश्चित नहीं है कि आप वेबलॉगिक पर ऐसा कैसे करते हैं; टोमकैट में प्रति कनेक्टर थ्रेड पूल है या एक सामान्य निष्पादक थ्रेड पूल)। यदि आप ऐसा नहीं करते हैं तो अनुरोधों को संसाधित करने के लिए ब्रांड नए धागे पैदा किए जा सकते हैं।

प्रदर्शन के रूप में, आपको नीचे की जरूरत है क्या आपके ऐप का हिस्सा पीड़ित है। क्या यह प्रसंस्करण है जो चीजों के वेबलॉगिक / जावा पक्ष में हो रहा है, डेटाबेस एक्सेस, DNS लुकअप (यदि वे किसी कारण से किए जा रहे हैं ...), नेटवर्क समस्याएं या ओएस पर कुछ।

99% समय यह आपका कोड होगा और यह कैसे हो रहा है डेटाबेस से बात करता है। फिर यह वेब ऐप की कॉन्फ़िगरेशन होगी। इस बिंदु के पीछे आप अपने ऐप से आखिरी मिलीसेकंड को निचोड़ने या उसी हार्डवेयर के साथ उच्च सहमति प्रदान करने पर काम करेंगे। इस बेहतर अनाज प्रदर्शन ट्यूनिंग के लिए आपको मीट्रिक की आवश्यकता है।

जावा के लिए मैं स्थापित करने का सुझाव दूंगा जावा मेलोडी। यह आपके कार्यक्रम के बारे में बहुत सारी जानकारी प्रदान कर सकता है और समय व्यतीत करने में मदद करता है। मैंने इसे केवल टॉमकैट के साथ उपयोग किया है, लेकिन किसी भी जावा ईई कंटेनर / सर्वलेट चीज़ के साथ ठीक काम करना चाहिए।

जावा को ट्यून करने के कई तरीके हैं, इसलिए उनके प्रदर्शन दिशानिर्देशों पर एक नज़र डालें (मुझे यकीन है कि आपके पास शायद) है और सुनिश्चित करें कि आप अपने प्रोग्राम के लिए उपयुक्त सही हीप आकार आदि सेट कर रहे हैं। जावा मेलोडी आपको जावा के ढेर के आकार को ट्रैक करने में मदद कर सकती है, साथ ही साथ कचरा कलेक्टर कितना कठिन काम कर रहा है / कितनी बार यह ऑब्जेक्ट को साफ़ करने के लिए आपके प्रोग्राम को बाधित कर रहा है।

मुझे उम्मीद है कि यह सहायक रहा है। यदि आप कोई और जानकारी प्रदान करते हैं, तो मैं इस उत्तर को अपडेट करने में सक्षम हो सकता हूं और इसे अपनी आवश्यकताओं के प्रति अधिक कर सकता हूं।


30
2018-03-01 00:36



आपके उत्तर के लिए धन्यवाद, अगर मेरा प्रतिनिधि काफी ऊंचा था तो मैं इसे ऊपर उठाऊंगा। मेरे अनुभव कोड या एसक्यूएल प्रश्नों से आमतौर पर अपराधी होते हैं। मैंने कुछ प्रोफाइलिंग रन किए और कोई हॉट स्पॉट नहीं मिला, इसलिए मैंने और अधिक मौलिक कारकों को देखना शुरू कर दिया। मैं कुछ और जांच करूँगा और प्रश्न को अपडेट करूँगा क्योंकि मुझे और भी पता चलता है। - Spiff
मैं प्रति-प्रोसेसर आंकड़ों को देखने और "सीएसडब्ल्यू" और "syscl" कॉलम को देखने के लिए 'mpstat 1 5' के आउटपुट की भी जांच करता हूं। उपरोक्त आपके vmstat से ऐसा लगता है कि आप बहुत सारे सिस्टम कॉल और संदर्भ स्विच कर रहे हैं, जो वेबटू के संदेह को मान्य करने के लिए प्रतीत होता है कि आपके पास बहुत सारे धागे हैं (सोलारिस उन्हें एलडब्लूपी- लाइटवेइट प्रोसेसिस कहते हैं) लगातार सीपीयू को परेशान करते हैं। उनमें से कोई भी बहुत कुछ नहीं कर रहा है जब वे दौड़ रहे हैं लेकिन कई लोग दौड़ने का इंतजार कर रहे हैं, इसलिए उच्च लोड औसत। - eirescot


एक साइड नोट के रूप में, लोड औसत में डिस्क गतिविधि (यानी डिस्क को परेशान करने) के साथ-साथ सीपीयू की प्रतीक्षा करने वाले लोगों की प्रतीक्षा करने वाली चीजें भी शामिल हैं, यह दोनों का योग है ... इसलिए आपको एक या दूसरे में समस्या हो सकती है।

देख http://en.wikipedia.org/wiki/Load_(computing) "लिनक्स में अनियंत्रित नींद के राज्यों में आमतौर पर [लोड लोड औसत] प्रक्रियाएं शामिल होती हैं (आमतौर पर डिस्क गतिविधि की प्रतीक्षा होती है)"

एक साइड नोट के रूप में, मैंने जिस विशेष समस्या में भाग लिया था वह था कि मेरे पास उच्च भार औसत था, लेकिन बहुत सी निष्क्रिय सीपीयू और कम डिस्क उपयोग भी था।

ऐसा प्रतीत होता है कि, कम से कम मेरे मामले में, कभी-कभी थ्रेड / प्रक्रियाएं I / O के लिए प्रतीक्षा औसत लोड औसत में दिखाई देती हैं, लेकिन करते हैं नहीं "प्रतीक्षा" कॉलम में वृद्धि का कारण बनता है। लेकिन वे अभी भी I / O बंधे हैं।

आप बता सकते हैं कि यह निम्न कोड के साथ मामला है, यदि आप इसे jruby में चलाते हैं (केवल 100 धागे प्रत्येक के साथ I / O प्रत्येक के साथ):

100.times { Thread.new { loop { File.open('big', 'w') do |f| f.seek 10_000_000_000; f.puts 'a'; end}}}

जो इस तरह एक शीर्ष आउटपुट देता है:

top - 17:45:32 up 38 days,  2:13,  3 users,  load average: 95.18, 50.29, 23.83
Tasks: 181 total,   1 running, 180 sleeping,   0 stopped,   0 zombie
Cpu(s):  3.5%us, 11.3%sy,  0.0%ni, 85.1%id,  0.0%wa,  0.0%hi,  0.0%si,  0.0%st
Mem:  32940904k total, 23239012k used,  9701892k free,   983644k buffers
Swap: 34989560k total,        0k used, 34989560k free,  5268548k cached

  PID USER      PR  NI  VIRT  RES  SHR S %CPU %MEM    TIME+  COMMAND
31866 packrd    18   0 19.9g  12g  11m S 117.0 41.3   4:43.85 java
  912 root      11  -5     0    0    0 S  2.0  0.0   1:40.46 kjournald

तो आप देख सकते हैं कि इसमें बहुत सी निष्क्रिय सीपीयू, 0.0% वा, लेकिन बहुत अधिक भार औसत है।

iostat समान रूप से डिस्क को मूल रूप से निष्क्रिय के रूप में दिखाता है:

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
       9.62    0.00    8.75    0.00    0.00   81.62

Device:         rrqm/s   wrqm/s   r/s   w/s    rkB/s    wkB/s avgrq-sz avgqu-sz   await  svctm  %util
sda               0.00    49.00  0.00  6.40     0.00   221.60    69.25     0.01    0.81   0.66   0.42
sda1              0.00    49.00  0.00  6.40     0.00   221.60    69.25     0.01    0.81   0.66   0.42
sda2              0.00     0.00  0.00  0.00     0.00     0.00     0.00     0.00    0.00   0.00   0.00

यह भी देखें http://linuxgazette.net/141/misc/lg/tracking_load_average_issues.html

एक और पक्ष नोट के रूप में, यह भी इंगित करता है कि (कम से कम इस मामले में - सेंटोस चल रहा है) लोड औसत में प्रत्येक धागे को कुल मिलाकर अलग किया जाता है।


19
2017-07-19 17:46



"लोड औसत में डिस्क गतिविधि के लिए प्रतीक्षा की जाने वाली चीजें भी शामिल हैं" लिनक्स पर, जबकि यह सवाल मूल रूप से सोलारिस के बारे में था, जो ऐसा लगता है कि लोड औसत में केवल रनिंग और रननेबल (यानी सीपीयू के लिए प्रतीक्षा) कार्य शामिल हैं। इस सवाल का एक लिनक्स संस्करण है इस। - Nickolay


आज भी यही समस्या थी। कुछ शोध और निदान के बाद मुझे एहसास हुआ कि मेरा छोटा वीपीएस था डिस्क से बाहर चल रहा है

खोल / प्रॉम्प्ट (लिनक्स / यूनिक्स) प्रकार में

df -h

देखने के लिए डिस्क मुक्त आपकी मशीन पर यदि आप डिस्क से बाहर हो रहे हैं जो समस्या / समस्या हो सकती है।


6
2018-01-23 17:36



क्या आप फिर स्वैप कर रहे थे, मुझे लगता है, तो यह कारण था? - rogerdpack


एक और उपयोगी उपकरण जो इस स्थिति में मदद करेगा, वह है।

इसमें एक छोटे से पैकेज में, अन्य टूल्स द्वारा प्रस्तुत किए गए समान डेटा को देखने के कई तरीके शामिल हैं।

यदि यह ऐसी सामग्री है जिसे कैश नहीं किया जा सकता है, तो मैं भार वितरित करने के लिए टीसीपी मोड में हैप्रोक्सी जैसे लोड बैलेंसर के पीछे एकाधिक सर्वर रखने की अनुशंसा करता हूं।


3
2017-07-19 18:17





बस इसमें जोड़ने के लिए, कुछ सोलालिस विशिष्ट उपकरण जिनका उल्लेख नहीं किया गया है जो इस तरह के मुद्दों को डीबग करने में उपयोगी हैं, "intrstat", "mpstat" और "lockstat" हैं। कुछ भारी ईटीएल भारों को चलाने वाले मेजबान से पहले एक समान समस्या का अनुभव करने के बाद mpstat ने इस मुद्दे पर संकेत दिए गए बहुत से I / O से निपटने में बहुत अधिक इंटरप्ट्स का खुलासा किया।

उस समय, एमपीस्टैट के साथ टी 4-4 पर हमने वीसीपीस को कम निगरानी चक्र पर 30000 से अधिक इंटरप्ट्स को सौंप दिया, जिसके बाद प्रदर्शन को भुगतना शुरू हो गया। इस मामले में एकमात्र कामकाज उस पर अधिक सीपीयू फेंकना था, हालांकि कोड को बेहतर बनाने के लिए बाद में काम किया गया।

ब्रेंडन ग्रेग ने प्रदर्शन के बारे में बहुत कुछ लिखा है, खासकर आई / ओ के आसपास के वर्षों में और एक खोज के लायक है जिसे आप और जानना चाहते हैं।


1
2018-06-23 14:20