<div dir="ltr"><br><div class="gmail_extra"><br><br><div class="gmail_quote">On Tue, Jan 21, 2014 at 1:38 AM, Thomas Schatzl <span dir="ltr"><<a href="mailto:thomas.schatzl@oracle.com" target="_blank">thomas.schatzl@oracle.com</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div class="im">....
</div>I can imagine this was how the non-generational G1 worked initially too.<br>
It did not work out to have the expected performance, or at least it has<br>
been shown extremely beneficial for a few reasons to by default collect<br>
the nursery regions. Probably mainly because G1 would select the regions<br>
it recently allocated into anyway.<br>
<br>
As you mention, Shenandoah will/should likely also automatically do the<br>
same too.<br>
<br>
Again, note that young gen in G1 is really mostly about selecting the<br>
"best" regions for reclamation. You may notice most code in G1 is only<br>
interested in the collection set, not the young gen.<br>
<div class="im"><br>
> > As an aside, I have no bias for generational collectors but I have seen<br>
> > places where having a continuously running collector would have been very<br>
> > advantageous. For example, I had one case we had a hard 16ms time budget on<br>
> > bursts of fixed units of work. In that case the work could be completed in 5<br>
> > or 6 ms which left 10ms for GC (should it decide to run and undoubtably<br>
> > would have run in the middle of the 5-6ms burst of work) but we could never<br>
> > get the collector to run consistently in under 10ms without risking an OOME.<br>
> > I’m pretty convinced that continuous collection policy would have helped us<br>
> > meet that goal and we had plenty of CPU to throw at the problem so….<br>
<br>
</div>I think another problem related to hardware is memory, not so much CPU.<br>
As you mention, there are typically always enough CPUs to throw at the<br>
problem. Increasing the amount of memory starting from a certain<br>
threshold gets comparatively expensive, and managing to have good memory<br>
bandwidth (at good latency) even more so.<br>
<br>
Others probably have more insight into that.<br>
<br></blockquote><div><br></div><div>I have exactly the same sentiments. In my experience, much Java code today is highly</div><div>generational, and the increased headroom requirements of Shenandoah would limit</div><div>
its applicability at the ultra-large end of the heap size spectrum, especially when the allocation</div><div>and death rates are very high. It seems to me that any collector that wants to support ultra-high</div><div>allocation and death rates would have to be generational, to be competitive.</div>
<div>On the other hand, Shenandoah might be targeting a different market where very low pause-times</div><div>are more important, the object allocation and death rates are relatively moderate, and adding</div><div>memory is still cheap because programs typically do not need very large heaps.</div>
<div><br></div><div>Echoing Thomas, and as mentioned in another email, I'd suggest that we might also want to</div><div>explore a hybrid/generational version of Shenandoah, with a scavenging young generation collector</div>
<div>and Shenandoah running in the old generation.</div><div><br></div><div>-- ramki</div></div></div></div>