<div dir="ltr"><div dir="ltr"><div dir="ltr"><div>Hi, a quick test results of build 24. The option XX:G1PeriodicGCInterval works fine in our containers.  </div><div> </div><div><div><i><font size="1">[root@node193618-jdk12 ~]# java -XX:G1PeriodicGCInterval=3000 -jar app.jar 1</font></i></div><div><i><font size="1">07:32:05 -> Init: 32M Used: 1M Committed: 32M Max: 3276M </font></i></div><div><i><font size="1"><br></font></i></div><div><i><font size="1">07:32:08 -> Init: 32M Used: 800M Committed: 1389M Max: 3276M </font></i></div><div><i><font size="1">total time = 3357, ms</font></i></div><div><i><font size="1">done</font></i></div><div><i><font size="1">07:32:11 -> Init: 32M Used: 1079M Committed: 1546M Max: 3276M </font></i></div><div><i><font size="1">07:32:14 -> Init: 32M Used: 1080M Committed: 1546M Max: 3276M </font></i></div><div><i><font size="1">07:32:17 -> Init: 32M Used: 1081M Committed: 1546M Max: 3276M </font></i></div><div><i><font size="1"><b>07:32:20 -> Init: 32M Used: 15M Committed: 32M Max: 3276M </b></font></i></div><div><i><font size="1">07:32:23 -> Init: 32M Used: 15M Committed: 32M Max: 3276M </font></i></div><div><i><font size="1">07:32:26 -> Init: 32M Used: 13M Committed: 32M Max: 3276M </font></i></div><div><br></div></div></div><div>It's easy to repeat the test - just download <a href="https://github.com/jelastic/java-vertical-scaling-test/blob/master/dist/app.jar" target="_blank">app.jar</a> and run </div><div><i>java -XX:G1PeriodicGCInterval=3000 -jar app.jar 1 </i></div><div><i>+ one more <Enter> in a second </i></div><div><i><br></i></div>There are couple small improvement suggestions related to the description at <a href="http://openjdk.java.net/jeps/346" target="_blank">JEP 346</a> <div><br></div><i>G1 <b>triggers</b> a this periodic garbage collection <b>if both</b>: </i><br><i>1) More than G1PeriodicGCInterval milliseconds have <b>passed</b> since any previous garbage collection pause...</i></div><div dir="ltr"><i>2) The average one-minute system load value as returned by the getloadavg() call on the host system is <b><font color="#ff0000">above</font></b> G1PeriodicGCSystemLoadThreshold. This condition is ignored if G1PeriodicGCSystemLoadThreshold is zero.</i><br><br>The description of loadavg threshold can be improved in the following way:   <br><br><i>2) The average one-minute system load value as returned by the getloadavg() call on the <b><font color="#0000ff">JVM</font></b> host system <b><font color="#0000ff">(VM or container) </font></b>is <b><font color="#ff0000">below</font></b> G1PeriodicGCSystemLoadThreshold. This condition is ignored if G1PeriodicGCSystemLoadThreshold is zero.</i></div><div><div dir="ltr"><br></div><div dir="ltr"><div dir="ltr">I believe the red is a technical mistake in the description, the source code comment is quite confusing too, but at least it sounds correct:</div></div><div><i><br></i></div><div><i>Maximum recent <b>system</b> wide <b>system</b> load as returned by the 1m value of getloadavg() at which G1 triggers a periodic GC. A load <font color="#ff0000"><b>above</b></font> this value <b><font color="#ff0000">cancels</font></b> a given periodic GC.  </i><br></div><div><br></div><div><div>Also the blue addition provides more clarity on the host system.   <br></div></div><div><br></div>One more minor suggestion - <i>G1PeriodicGCInterval </i>should be defined in milliseconds at the moment which seems impractical to me. Not clear why somebody would need to trigger GC less than in minutes, so people will always write a lot of 000. Can we update it to seconds at least? </div><div><br></div><div>Thanks </div><div><div><br><div class="gmail_quote"><div dir="ltr">On Thu, 15 Nov 2018 at 18:10, Ruslan Synytsky <<a href="mailto:rs@jelastic.com" target="_blank">rs@jelastic.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div class="gmail_quote"><div>Hi guys, some new findings related to this topic. Previously we got a great question from Stefan Johansson: </div><div><br></div>>> Another question, when <br>>> running in the cloud, what load is the user expecting us to compare <br>>> against, the overall system or the local container. I'm actually not <br>>> entirely sure what the getloadavg() call return in case of running in a <br>>> container.<br><br>> Good question! It depends on the used container technology. In short, if it’s a system</div><div class="gmail_quote">> container then it shows the load of the container, if it’s an application container then the </div><div class="gmail_quote">> load of the host machine. There is an article on a related topic </div><div class="gmail_quote">> <a href="https://jelastic.com/blog/java-and-memory-limits-in-containers-lxc-docker-and-openvz/" target="_blank">https://jelastic.com/blog/java-and-memory-limits-in-containers-lxc-docker-and-openvz/</a> <div><br></div><div>I found more details / info that will be useful for end users, there is a quick summary:  </div><div><ul><li>VMs - the problem does not exist as JVM gets loadavg of the parent virtual machine it’s running in.</li><li>Containers </li><ul><li>LXC - the problem does not exist, because <a href="https://github.com/lxc/lxcfs" target="_blank">LXCFS</a> is making Linux containers feel more like a virtual machine.</li><li>OpenVZ - the problem does not exist as every container has a virtualized view of /proc pseudo-filesystem  </li><li>Docker and runC - by default loadavg will be provided from the host machine, which is a kind of problem for determining the real load inside a container. However, the recent improvements in runC engine are solving this issue: <a href="https://github.com/opencontainers/runc/pull/1882" target="_blank">libcontainer: add /proc/loadavg to the white list of bind mount</a>. Also there is a useful related article - <a href="https://medium.com/@Alibaba_Cloud/kubernetes-demystified-using-lxcfs-to-improve-container-resource-visibility-86f48ce20c6" target="_blank">LXCFS for Docker and K8S</a>. So, we can assume that this solution will be available by default in the near future.</li></ul></ul></div><div>Also, some kind of a quick summary / "a state of JVM elasticity": </div><div><ul><li>G1 - the new options will be introduced soon: <i>G1PeriodicGCInterval, </i><i>G1PeriodicGCSystemLoadThreshold, G1PeriodicGCInvokesConcurrent, </i>the work is in progress.</li><li>Shenandoah - the leading GC in terms of elasticity at the moment (my personal opinion). Available options: <i>ShenandoahUncommitDelay, ShenandoahGuaranteedGCInterval.</i></li><li>OpenJ9 - introduced special options: <i>IdleTuningGcOnIdle, IdleTuningCompactOnIdle, IdleTuningMinIdleWaitTime. </i>However, the uncommitment is not fully transparent for end users, as a result it's harder to track the real usage. The only way to measure the effect is to monitor resident memory size <i>RES</i> using <i>top</i>. Also it implements different approach for checking idle sate - based on <i>samplerThreadStateLogic.</i> For more details please <a href="https://github.com/eclipse/openj9/issues/2312#issuecomment-431453020" target="_blank">check to this conversation</a>. </li><li>ZGC - the work is in the progress, there <a href="http://cr.openjdk.java.net/~pliden/zgc/zrelease_unused_heap/webrev.0" target="_blank">is a quick patch</a> to support releasing of memory back to the OS in <span class="m_935686816345103010gmail-m_-5171428932168134272gmail-il">ZGC. </span>If you want to try it out, the patch should apply to the latest jdk/jdk tree. Use the new option <i>-XX:+ZReleaseUnusedHeap</i>. A more refined version of the patch will most likely be upstreamed at some point in the future.</li><li>Azul C4 - seems like it's scalable vertically too. I sent clarification request to Deputy CTO, but have not received any feedback so far, so it's unknown how exactly it works. If anyone can share his/her personal experience than will be useful.</li></ul></div><div>Thanks everybody involved for moving this topic forward. </div><div>Regards </div></div>-- <br><div dir="ltr" class="m_935686816345103010gmail-m_-5171428932168134272gmail_signature"><div dir="ltr"><div><div dir="ltr"><div style="font-size:12.8px"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div style="font-family:"Times New Roman""><span style="font-family:Calibri,sans-serif;font-size:15px">Ruslan</span><br style="font-family:Calibri,sans-serif;font-size:15px"><span style="font-family:Calibri,sans-serif;font-size:15px">CEO @ </span><span style="font-family:Calibri,sans-serif;font-size:15px"><a href="https://jelastic.com/" style="color:rgb(17,85,204)" target="_blank">Jelastic</a></span></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div>
</blockquote></div><br clear="all"><div><br></div>-- <br><div dir="ltr" class="m_935686816345103010gmail_signature"><div dir="ltr"><div><div dir="ltr"><div style="font-size:12.8px"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div style="font-family:"Times New Roman""><span style="font-family:Calibri,sans-serif;font-size:15px">Ruslan</span><br style="font-family:Calibri,sans-serif;font-size:15px"><span style="font-family:Calibri,sans-serif;font-size:15px">CEO @ </span><span style="font-family:Calibri,sans-serif;font-size:15px"><a href="https://jelastic.com/" style="color:rgb(17,85,204)" target="_blank">Jelastic</a></span></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div>