There is a possibility to use off-heap caching via commercial or OS product to manage small heap size and, thus, small full GC times. Haven't used t myself, and did not read anywhere about somebody using it for this purpose, but makes sense. A price to pay is extra CPU that will be burned (de)serializing data, but with quad-cores, even modest machines have that extra CPU power to burn. If non-stop performance is that important...
<br><br>Denis.<br><br><div><span class="gmail_quote">On 9/27/07, <b class="gmail_sendername">Jerry Waldorf</b> <<a href="mailto:Jerry.Waldorf@sun.com">Jerry.Waldorf@sun.com</a>> wrote:</span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
I have been working with the BPEL engine team in our CAPS product<br>group.  The issue that they trying to address is around memory uses of<br>business process instance variables that are part of a large number of<br>instances of processes running concurrently.  For example, it is
<br>possible in a single process to have 100,000 instances each consuming<br>100,000 bytes of data.  That is 10,000,000,000 bytes of stuff.<br><br>In a regular unix (or windows) process using C if you held all of this<br>
data in memory and let the operating system page out the "old" stuff,<br>then having a really large memory process should not be a problem.  Just<br>keep it all in memory.  The operating system can probably do just as
<br>good a job of figuring out what is old and what is new based on LRU than<br>the programmer can.  In fact it can probably outperform it because it<br>can do the paging at a much lower, more efficient level in the kernel.
<br><br>With java we have the benefit of the garbage collector.  And there is<br>some overhead that the GC has when you have a very large heap that is<br>close to fully allocated.  The question is how much is this overhead and
<br>would it be worth the extra effort of coding some caching into your java<br>application.  Or would it be better to just allocate a really large heap<br>and let java and the operating system manage the paging for you.  My
<br>guess is that it would be hard for the developer to beat the OS and Java<br>GC so it would be better to use a large amount of heap and let java gc<br>take care of it for you, especially now that we have all of this cool
<br>generational stuff in the GC.<br><br>The below is a very primitive test program that tries to measure the<br>overhead that large heaps add to the GC.  On a windows laptop with a 1.5<br>gig heap it appeared to add around 30% overhead to the GC.  Does this
<br>sound right?  Are there things that can be done to tune the GC to make<br>it behave better in these cases?  And is there any work being done to<br>handle very large memory based java applications?<br><br>/*<br> * Main.java
<br> *<br> * Created on Sep 27, 2007, 9:37:09 PM<br> *<br> * To change this template, choose Tools | Templates<br> * and open the template in the editor.<br> */<br><br>package javaapplication5;<br><br>import java.util.ArrayList
;<br><br>/**<br> *<br> * @author jwaldorf<br> */<br>public class Main {<br><br>    /**<br>     * @param args the command line arguments<br>     */<br>    public static void main(String[] args) {<br>        for (int foo = 0; foo < 10; foo++) {
<br>            int i = 0;<br>            ArrayList l = new ArrayList();<br>            long count;<br>            long lstart = System.currentTimeMillis();<br>            for (count = 0; count < 100000000; count++) {<br>
                String s1 = new<br>String("12345678901234567890123456789012345678901234567890");<br>            }<br>            long lend = System.currentTimeMillis();<br><br>            System.out.println("Low Mem total time = " + (lend - lstart));
<br><br>            lstart = System.currentTimeMillis();<br>            for (count = 0; count < 100000000; count++) {<br>                double f = Math.cos(Math.sin(Math.PI) * 234.23432);<br>            }<br>            lend = 
System.currentTimeMillis();<br>            System.out.println("Low mem total time non-mem = " + (lend -<br>lstart));<br><br>            try {<br>//            for (int z = 0; z < 3392000; z++) {<br>                while (true) {
<br>                    i++;<br>                    String s = new String("foobar");<br>                    l.add(s);<br>                }<br>            } catch (Throwable t) {<br>                l.remove(1000);
<br>                l.remove(1001);<br>                for (int c = 0; c < 100; c++) {<br>                    l.remove(c);<br>                }<br>                System.out.println("Iterations = " + i);<br>                
t.printStackTrace();<br>            }<br>            lstart = System.currentTimeMillis();<br>            for (count = 0; count < 100000000; count++) {<br>                String s1 = new<br>String("12345678901234567890123456789012345678901234567890");
<br>            }<br>            lend = System.currentTimeMillis();<br>            System.out.println("Full mem total time mem = " + (lend -<br>lstart));<br><br>            lstart = System.currentTimeMillis();<br>
            for (count = 0; count < 100000000; count++) {<br>                double f = Math.cos(Math.sin(Math.PI) * 234.23432);<br>            }<br>            lend = System.currentTimeMillis();<br>            System.out.println
("Full mem total time non-mem = " + (lend<br>- lstart));<br>        }<br>    }<br>}<br><br>--<br>Jerry Waldorf<br>Chief Architect<br>Software Infrastructure<br>Sun Microsystems<br><a href="mailto:jerry.waldorf@sun.com">
jerry.waldorf@sun.com</a><br><br><br></blockquote></div><br>