<html xmlns:v="urn:schemas-microsoft-com:vml" xmlns:o="urn:schemas-microsoft-com:office:office" xmlns:w="urn:schemas-microsoft-com:office:word" xmlns:m="http://schemas.microsoft.com/office/2004/12/omml" xmlns="http://www.w3.org/TR/REC-html40"><head><meta http-equiv=Content-Type content="text/html; charset=utf-8"><meta name=Generator content="Microsoft Word 15 (filtered medium)"><style><!--
/* Font Definitions */
@font-face
        {font-family:"Cambria Math";
        panose-1:2 4 5 3 5 4 6 3 2 4;}
@font-face
        {font-family:Calibri;
        panose-1:2 15 5 2 2 2 4 3 2 4;}
/* Style Definitions */
p.MsoNormal, li.MsoNormal, div.MsoNormal
        {margin:0cm;
        font-size:11.0pt;
        font-family:"Calibri",sans-serif;}
a:link, span.MsoHyperlink
        {mso-style-priority:99;
        color:blue;
        text-decoration:underline;}
p.MsoListParagraph, li.MsoListParagraph, div.MsoListParagraph
        {mso-style-priority:34;
        mso-margin-top-alt:auto;
        margin-right:0cm;
        mso-margin-bottom-alt:auto;
        margin-left:0cm;
        font-size:11.0pt;
        font-family:"Calibri",sans-serif;}
span.apple-converted-space
        {mso-style-name:apple-converted-space;}
span.EmailStyle20
        {mso-style-type:personal-reply;
        font-family:"Calibri",sans-serif;
        color:windowtext;}
.MsoChpDefault
        {mso-style-type:export-only;
        font-size:10.0pt;}
@page WordSection1
        {size:612.0pt 792.0pt;
        margin:72.0pt 72.0pt 72.0pt 72.0pt;}
div.WordSection1
        {page:WordSection1;}
/* List Definitions */
@list l0
        {mso-list-id:859898643;
        mso-list-template-ids:1334490972;}
@list l0:level1
        {mso-level-start-at:4;
        mso-level-tab-stop:36.0pt;
        mso-level-number-position:left;
        text-indent:-18.0pt;}
@list l0:level2
        {mso-level-start-at:2;
        mso-level-number-format:alpha-lower;
        mso-level-tab-stop:72.0pt;
        mso-level-number-position:left;
        text-indent:-18.0pt;}
@list l1
        {mso-list-id:908465469;
        mso-list-template-ids:357089356;}
@list l1:level1
        {mso-level-start-at:2;
        mso-level-tab-stop:36.0pt;
        mso-level-number-position:left;
        text-indent:-18.0pt;}
@list l1:level2
        {mso-level-start-at:2;
        mso-level-number-format:alpha-lower;
        mso-level-tab-stop:72.0pt;
        mso-level-number-position:left;
        text-indent:-18.0pt;}
@list l2
        {mso-list-id:1090932624;
        mso-list-template-ids:30696224;}
@list l2:level1
        {mso-level-start-at:3;
        mso-level-tab-stop:36.0pt;
        mso-level-number-position:left;
        text-indent:-18.0pt;}
@list l2:level2
        {mso-level-number-format:alpha-lower;
        mso-level-tab-stop:72.0pt;
        mso-level-number-position:left;
        text-indent:-18.0pt;}
@list l3
        {mso-list-id:1759868289;
        mso-list-template-ids:1081271338;}
@list l3:level1
        {mso-level-start-at:4;
        mso-level-tab-stop:36.0pt;
        mso-level-number-position:left;
        text-indent:-18.0pt;}
@list l3:level2
        {mso-level-number-format:alpha-lower;
        mso-level-tab-stop:72.0pt;
        mso-level-number-position:left;
        text-indent:-18.0pt;}
@list l4
        {mso-list-id:1833107766;
        mso-list-template-ids:601399988;}
@list l4:level2
        {mso-level-number-format:alpha-lower;
        mso-level-tab-stop:72.0pt;
        mso-level-number-position:left;
        text-indent:-18.0pt;}
ol
        {margin-bottom:0cm;}
ul
        {margin-bottom:0cm;}
--></style><!--[if gte mso 9]><xml>
<o:shapedefaults v:ext="edit" spidmax="1026" />
</xml><![endif]--><!--[if gte mso 9]><xml>
<o:shapelayout v:ext="edit">
<o:idmap v:ext="edit" data="1" />
</o:shapelayout></xml><![endif]--></head><body lang=EN-CA link=blue vlink=purple style='word-wrap:break-word'><div class=WordSection1><p class=MsoNormal><span style='mso-fareast-language:EN-US'>Thanks for that clarification, Ron…<o:p></o:p></span></p><p class=MsoNormal><span style='mso-fareast-language:EN-US'><o:p> </o:p></span></p><p class=MsoNormal><span style='mso-fareast-language:EN-US'>Would it be fair to say a system is stable, in the case where when the Load Balancer predicts the current resources will soon become unstable, it launches more instances/resources before instability sets in? That is, appropriate feedback loops can keep the underlying systems stable? Of course, keeping a system stable under load bursts could be challenging, but manageable.<o:p></o:p></span></p><p class=MsoNormal><span style='mso-fareast-language:EN-US'><o:p> </o:p></span></p><p class=MsoNormal><span style='mso-fareast-language:EN-US'>My past experience with Akka/Scala shows that we can provision systems such that we get better CPU utilization because such systems can distribute tasks more effectively over limited Platform Threads. I am hopeful that with Loom, Virtual Threads, Structured Concurrency, etc. we also can provision systems with better resource utilization. For example, the load balance spawns new instances at 75% utilization rather than 50% under conventional systems.<o:p></o:p></span></p><p class=MsoNormal><span style='mso-fareast-language:EN-US'><o:p> </o:p></span></p><p class=MsoNormal><span style='mso-fareast-language:EN-US'>Also, my hope is that Loom will let us design and implement this with a lower cognitive load than using reactive programming techniques. Once Loom becomes more available, such as Java 19, it will be interesting to see what impact this has on the Reactive Community, Scala, Akka, Kotlin and Kotlin Coroutines, etc.<o:p></o:p></span></p><p class=MsoNormal><span style='mso-fareast-language:EN-US'><o:p> </o:p></span></p><p class=MsoNormal><span style='mso-fareast-language:EN-US'>This whole Loom Project would make a fascinating University course as a lot of important historical lessons are apparent. There has been a lot of progress from Fibers to Virtual Threads…<o:p></o:p></span></p><p class=MsoNormal><span style='mso-fareast-language:EN-US'><o:p> </o:p></span></p><p class=MsoNormal><span style='mso-fareast-language:EN-US'>I took two <a href="https://www.coursera.org/">Coursera</a> courses, one on Functional Programming in Scala, and the other on Reactive Programming in Scala. They were great courses. It would be fantastic for Coursera to have a course on Concurrent Programming in Loom.<o:p></o:p></span></p><p class=MsoNormal><span style='mso-fareast-language:EN-US'><o:p> </o:p></span></p><p class=MsoNormal><span style='mso-fareast-language:EN-US'>Cheers, Eric<o:p></o:p></span></p><p class=MsoNormal><span style='mso-fareast-language:EN-US'><o:p> </o:p></span></p><div><div style='border:none;border-top:solid #E1E1E1 1.0pt;padding:3.0pt 0cm 0cm 0cm'><p class=MsoNormal><b><span lang=EN-US>From:</span></b><span lang=EN-US> Ron Pressler <ron.pressler@oracle.com> <br><b>Sent:</b> July 14, 2022 3:35 AM<br><b>To:</b> Eric Kolotyluk <eric@kolotyluk.net><br><b>Cc:</b> Alex Otenko <oleksandr.otenko@gmail.com>; Rob Bygrave <robin.bygrave@gmail.com>; Egor Ushakov <egor.ushakov@jetbrains.com>; loom-dev@openjdk.org<br><b>Subject:</b> Re: [External] : Re: jstack, profilers and other tools<o:p></o:p></span></p></div></div><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>First, there is no such thing as more or less stable. Stability is binary. Either the rate at which requests are completed is equal to the rate at which they arrive (the system is stable), or it is lower (in which case requests pile up and the system is unstable). Although, I guess you could talk about how quickly requests pile up and your server starts dropping them. <o:p></o:p></p><div><p class=MsoNormal><o:p> </o:p></p></div><div><p class=MsoNormal>Second, if your system is stable, Little’s law tells you how many requests are being concurrently served. Obviously, if you’re serving L concurrent requests in a stable system, then you have sufficient resources to serve them concurrently. Every request might consume a little or a lot of some resources — CPU, memory, networking — and so those resources' availability imposes upper bounds on your concurrency. But (assuming you use threads as your units of concurrency) every concurrent request must consume at least one thread, or it won’t be able to make progress at all. So threads are also an upper bound on concurrency, and we know empirically that in a great many server systems OS threads become the most constraining upper bound on concurrency well before other resources. Virtual threads remove that particular limitation, which helps all those systems, and now the concurrency of your system is only limited by the other resources I mentioned.<o:p></o:p></p></div><div><p class=MsoNormal><o:p> </o:p></p></div><div><p class=MsoNormal>If every request consumes 1/10 of your available CPU over its entire duration, then your CPU puts a limit of 10 on your concurrency and threads are not your bottleneck, but if you’re using virtual threads — meaning you want a much higher number of threads — then that’s not your circumstance. Clearly, when your CPU, or any other resource consumed by the requests you serve, is at 100% (for any non-instantaneous duration) then your system is not stable.<o:p></o:p></p></div><div><p class=MsoNormal><o:p> </o:p></p></div><div><p class=MsoNormal>— Ron<o:p></o:p></p><div><p class=MsoNormal><br><br><o:p></o:p></p><blockquote style='margin-top:5.0pt;margin-bottom:5.0pt'><div><p class=MsoNormal>On 13 Jul 2022, at 19:26, <a href="mailto:eric@kolotyluk.net">eric@kolotyluk.net</a> wrote:<o:p></o:p></p></div><p class=MsoNormal><o:p> </o:p></p><div><div><p class=MsoNormal>Just testing my intuition here… because reading what Ron says is often eye-opening… and changes my intuition<o:p></o:p></p></div><div><p class=MsoNormal> <o:p></o:p></p></div><ol style='margin-top:0cm' start=1 type=1><li class=MsoListParagraph style='margin-top:0cm;margin-bottom:0cm;mso-list:l4 level1 lfo1'>Loom improves concurrency via Virtual Threads<o:p></o:p></li></ol><ol style='margin-top:0cm' start=1 type=1><ol style='margin-top:0cm' start=1 type=a><li class=MsoListParagraph style='margin-top:0cm;margin-bottom:0cm;mso-list:l4 level2 lfo1'>And consequently, potentially improves throughput<o:p></o:p></li></ol></ol><ol style='margin-top:0cm' start=2 type=1><li class=MsoListParagraph style='margin-top:0cm;margin-bottom:0cm;mso-list:l4 level1 lfo1'>A key aspect of concurrency is blocking, where blocked tasks enable resources to be applied to unblocked tasks (where Fork-Join is highly effective)<o:p></o:p></li></ol><ol style='margin-top:0cm' start=2 type=1><ol style='margin-top:0cm' start=1 type=a><li class=MsoListParagraph style='margin-top:0cm;margin-bottom:0cm;mso-list:l4 level2 lfo2'>Pre-Loom, resources such as Threads could be applied to unblocked tasks, but<o:p></o:p></li></ol></ol><div style='margin-left:108.0pt'><p class=MsoNormal style='text-indent:-108.0pt'><span style='font-size:7.0pt;font-family:"Times New Roman",serif'>                                                              <span class=apple-converted-space> </span></span>i.<span style='font-size:7.0pt;font-family:"Times New Roman",serif'>     <span class=apple-converted-space> </span></span>Platform Threads are heavy, expensive, etc. such that the number of Platform Threads puts a bound on concurrency<o:p></o:p></p></div><ol style='margin-top:0cm' start=2 type=1><ol style='margin-top:0cm' start=2 type=a><li class=MsoListParagraph style='margin-top:0cm;margin-bottom:0cm;mso-list:l1 level2 lfo3'>Post-Loom, resources such as Virtual Threads can now be applied to unblocked tasks, such that<o:p></o:p></li></ol></ol><div style='margin-left:108.0pt'><p class=MsoNormal style='text-indent:-108.0pt'><span style='font-size:7.0pt;font-family:"Times New Roman",serif'>                                                              <span class=apple-converted-space> </span></span>i.<span style='font-size:7.0pt;font-family:"Times New Roman",serif'>     <span class=apple-converted-space> </span></span>Light, cheap, etc. Virtual Threads enable a much higher bound on concurrency<o:p></o:p></p></div><div style='margin-left:108.0pt'><p class=MsoNormal style='text-indent:-108.0pt'><span style='font-size:7.0pt;font-family:"Times New Roman",serif'>                                                            <span class=apple-converted-space> </span></span>ii.<span style='font-size:7.0pt;font-family:"Times New Roman",serif'>     <span class=apple-converted-space> </span></span>According to Little’s Law, throughput<span class=apple-converted-space> </span><b><i>can</i></b><span class=apple-converted-space> </span>rise because the number of threads<span class=apple-converted-space> </span><b><i>can</i></b><span class=apple-converted-space> </span>rise.<o:p></o:p></p></div><ol style='margin-top:0cm' start=3 type=1><li class=MsoListParagraph style='margin-top:0cm;margin-bottom:0cm;mso-list:l2 level1 lfo4'>Little’s Law also says “The only requirements are that the system be stable and non-preemptive;”<o:p></o:p></li></ol><ol style='margin-top:0cm' start=3 type=1><ol style='margin-top:0cm' start=1 type=a><li class=MsoListParagraph style='margin-top:0cm;margin-bottom:0cm;mso-list:l2 level2 lfo4'>While the underlying O/S may be preemptive, the JVM is not, so this requirement is met.<o:p></o:p></li><li class=MsoListParagraph style='margin-top:0cm;margin-bottom:0cm;mso-list:l2 level2 lfo4'>But, Ron says, “While it is true that the rate of arrival might rise without bound, if the number of threads is insufficient to meet it, then the system is no longer stable (normally that means that queues are growing without bound).”<o:p></o:p></li><li class=MsoListParagraph style='margin-top:0cm;margin-bottom:0cm;mso-list:l2 level2 lfo4'>Which I take to imply, that increasing the number of Virtual Threads increases the stability… ?<o:p></o:p></li></ol></ol><div style='margin-left:108.0pt'><p class=MsoNormal style='text-indent:-108.0pt'><span style='font-size:7.0pt;font-family:"Times New Roman",serif'>                                                              <span class=apple-converted-space> </span></span>i.<span style='font-size:7.0pt;font-family:"Times New Roman",serif'>     <span class=apple-converted-space> </span></span>Even in Loom, there is an upper bound on Virtual Threads created, albeit a much higher upper bound.<o:p></o:p></p></div><ol style='margin-top:0cm' start=4 type=1><li class=MsoListParagraph style='margin-top:0cm;margin-bottom:0cm;mso-list:l3 level1 lfo5'>Where I am still confused is<o:p></o:p></li></ol><ol style='margin-top:0cm' start=4 type=1><ol style='margin-top:0cm' start=1 type=a><li class=MsoListParagraph style='margin-top:0cm;margin-bottom:0cm;mso-list:l3 level2 lfo5'>In Loom, I would expect that even when all our CPU Cores are at 100%, 100% throughput, the system is still stable?<o:p></o:p></li></ol></ol><div style='margin-left:108.0pt'><p class=MsoNormal style='text-indent:-108.0pt'><span style='font-size:7.0pt;font-family:"Times New Roman",serif'>                                                              <span class=apple-converted-space> </span></span>i.<span style='font-size:7.0pt;font-family:"Times New Roman",serif'>     <span class=apple-converted-space> </span></span>Or maybe I am misinterpreting what Ron said?<o:p></o:p></p></div><ol style='margin-top:0cm' start=4 type=1><ol style='margin-top:0cm' start=2 type=a><li class=MsoListParagraph style='margin-top:0cm;margin-bottom:0cm;mso-list:l0 level2 lfo6'>However, latency will suffer, unless<o:p></o:p></li></ol></ol><div style='margin-left:108.0pt'><p class=MsoNormal style='text-indent:-108.0pt'><span style='font-size:7.0pt;font-family:"Times New Roman",serif'>                                                              <span class=apple-converted-space> </span></span>i.<span style='font-size:7.0pt;font-family:"Times New Roman",serif'>     <span class=apple-converted-space> </span></span>more CPU Cores are added to the overall load, via some load balancer<o:p></o:p></p></div><div style='margin-left:108.0pt'><p class=MsoNormal style='text-indent:-108.0pt'><span style='font-size:7.0pt;font-family:"Times New Roman",serif'>                                                            <span class=apple-converted-space> </span></span>ii.<span style='font-size:7.0pt;font-family:"Times New Roman",serif'>     <span class=apple-converted-space> </span></span>flow control, such as backpressure, is added such that queues do not grow without bound (a topic I would love to explore more)<o:p></o:p></p></div><div style='margin-left:108.0pt'><p class=MsoNormal style='text-indent:-108.0pt'><span style='font-size:7.0pt;font-family:"Times New Roman",serif'>                                                          <span class=apple-converted-space> </span></span>iii.<span style='font-size:7.0pt;font-family:"Times New Roman",serif'>     <span class=apple-converted-space> </span></span>Or, does an increase in latency mean a loss of stability?<o:p></o:p></p></div><div><p class=MsoNormal> <o:p></o:p></p></div><div><p class=MsoNormal>Cheers, Eric<o:p></o:p></p></div><div><p class=MsoNormal> <o:p></o:p></p></div><div><div style='border:none;border-top:solid #E1E1E1 1.0pt;padding:3.0pt 0cm 0cm 0cm'><div><p class=MsoNormal><b><span lang=EN-US>From:</span></b><span class=apple-converted-space><span lang=EN-US> </span></span><span lang=EN-US>loom-dev <<a href="mailto:loom-dev-retn@openjdk.org">loom-dev-retn@openjdk.org</a>><span class=apple-converted-space> </span><b>On Behalf Of<span class=apple-converted-space> </span></b>Ron Pressler<br><b>Sent:</b><span class=apple-converted-space> </span>July 13, 2022 6:30 AM<br><b>To:</b><span class=apple-converted-space> </span>Alex Otenko <<a href="mailto:oleksandr.otenko@gmail.com">oleksandr.otenko@gmail.com</a>><br><b>Cc:</b><span class=apple-converted-space> </span>Rob Bygrave <<a href="mailto:robin.bygrave@gmail.com">robin.bygrave@gmail.com</a>>; Egor Ushakov <<a href="mailto:egor.ushakov@jetbrains.com">egor.ushakov@jetbrains.com</a>>; <a href="mailto:loom-dev@openjdk.org">loom-dev@openjdk.org</a><br><b>Subject:</b><span class=apple-converted-space> </span>Re: [External] : Re: jstack, profilers and other tools</span><o:p></o:p></p></div></div></div><div><p class=MsoNormal> <o:p></o:p></p></div><div><div><p class=MsoNormal>The application of Little’s law is 100% correct. Little’s law tells us that the number of threads must *necessarily* rise if throughput is to be high. Whether or not that alone is *sufficient* might depend on the concurrency level of other resources as well. The number of threads is not the only quantity that limits the L in the formula, but L cannot be higher than the number of threads. Obviously, if the system’s level of concurrency is bounded at a very low level — say, 10 — then having more than 10 threads is unhelpful, but as we’re talking about a program that uses virtual threads, we know that is not the case.<o:p></o:p></p></div></div><div><div><p class=MsoNormal> <o:p></o:p></p></div></div><div><div><p class=MsoNormal>Also, Little’s law describes *stable* systems; i.e. it says that *if* the system is stable, then a certain relationship must hold. While it is true that the rate of arrival might rise without bound, if the number of threads is insufficient to meet it, then the system is no longer stable (normally that means that queues are growing without bound).<o:p></o:p></p></div><div><div><div><div><p class=MsoNormal> <o:p></o:p></p></div></div><div><div><p class=MsoNormal>— Ron<o:p></o:p></p></div></div><div><div><p class=MsoNormal><br><br><br><o:p></o:p></p></div><blockquote style='margin-top:5.0pt;margin-bottom:5.0pt'><div><div><p class=MsoNormal>On 13 Jul 2022, at 14:00, Alex Otenko <<a href="mailto:oleksandr.otenko@gmail.com">oleksandr.otenko@gmail.com</a>> wrote:<o:p></o:p></p></div></div><div><p class=MsoNormal> <o:p></o:p></p></div><div><div><div><p class=MsoNormal>This is an incorrect application of Little's Law. The law only posits that there is a connection between quantities. It doesn't specify which variables depend on which. In particular, throughput is not a free variable.<span class=apple-converted-space> </span><o:p></o:p></p></div><div><div><p class=MsoNormal> <o:p></o:p></p></div></div><div><div><p class=MsoNormal>Throughput is something outside your control. 100k users open their laptops at 9am and login within 1 second - that's it, you have throughput of 100k ops/sec.<o:p></o:p></p></div></div><div><div><p class=MsoNormal> <o:p></o:p></p></div></div><div><div><p class=MsoNormal>Then based on response time the system is able to deliver, you can tell what concurrency makes sense here. Adding threads is not going to change anything - certainly not if threads are not the bottleneck resource. Threads become the bottleneck when you have hardware to run them, but not the threads.<o:p></o:p></p></div></div></div><div><p class=MsoNormal> <o:p></o:p></p></div><div><div><div><p class=MsoNormal>On Tue, 12 Jul 2022, 15:47 Ron Pressler, <<a href="mailto:ron.pressler@oracle.com">ron.pressler@oracle.com</a>> wrote:<o:p></o:p></p></div></div><blockquote style='border:none;border-left:solid #CCCCCC 1.0pt;padding:0cm 0cm 0cm 6.0pt;margin-left:4.8pt;margin-top:5.0pt;margin-right:0cm;margin-bottom:5.0pt'><div><div><div><p class=MsoNormal> <o:p></o:p></p></div><div><div><p class=MsoNormal><br><br><br><o:p></o:p></p></div><blockquote style='margin-top:5.0pt;margin-bottom:5.0pt'><div><div><p class=MsoNormal>On 11 Jul 2022, at 22:13, Rob Bygrave <<a href="mailto:robin.bygrave@gmail.com" target="_blank">robin.bygrave@gmail.com</a>> wrote:<o:p></o:p></p></div></div><div><p class=MsoNormal> <o:p></o:p></p></div><div><div><div><div><div><p class=MsoNormal><i>> An existing application that migrates to using virtual threads doesn’t replace its platform threads with virtual threads</i><o:p></o:p></p></div></div><div><div><p class=MsoNormal> <o:p></o:p></p></div></div><div><div><p class=MsoNormal>What I have been confident about to date based on the testing I've done is that we can use Jetty with a Loom based thread pool and that has worked very well. That is replacing current platform threads with virtual threads. I'm suggesting this will frequently be sub 1000 virtual threads.  Ron, are you suggesting this isn't a valid use of virtual threads or am I reading too much into what you've said here?<o:p></o:p></p></div></div><div><div><p class=MsoNormal> <o:p></o:p></p></div></div></div></div></div></blockquote><div><div><p class=MsoNormal> <o:p></o:p></p></div></div><div><div><p class=MsoNormal>The throughput advantage to virtual threads comes from one aspect — their *number* — as explained by Little’s law. A web server employing virtual thread would not replace a pool of N platform threads with a pool of N virtual threads, as that does not increase the number of threads required to increase throughput. Rather, it replaces the pool of N virtual threads with an unpooled ExecutorService that spawns at least one new virtual thread for every HTTP serving task. Only that can increase the number of threads sufficiently to improve throughput.<o:p></o:p></p></div></div><div><p class=MsoNormal><br><br><br><o:p></o:p></p></div><blockquote style='margin-top:5.0pt;margin-bottom:5.0pt'><div><div><div><div><div><p class=MsoNormal> <o:p></o:p></p></div></div></div><div><div><p class=MsoNormal> <o:p></o:p></p></div></div><div><div><p class=MsoNormal>><span class=apple-converted-space> </span><b><i>unusual</i></b><span class=apple-converted-space> </span>for an application that has any virtual threads to have fewer than, say, 10,000<o:p></o:p></p></div></div><div><div><p class=MsoNormal> <o:p></o:p></p></div></div><div><div><p class=MsoNormal>In the case of http server use of virtual thread, I feel the use of<span class=apple-converted-space> </span><b><i>unusual</i></b><span class=apple-converted-space> </span>is too strong. That is, when we are using virtual threads for application code handling of http request/response (like Jetty + Loom), I suspect this is frequently going to operate with less than 1000 concurrent requests per server instance. <span class=apple-converted-space> </span><o:p></o:p></p></div></div></div></div></blockquote><div><div><p class=MsoNormal> <o:p></o:p></p></div></div><div><div><p class=MsoNormal>1000 concurrent requests would likely translate to more than 10,000 virtual threads due to fanout (JEPs 425 and 428 cover this). In fact, even without fanout, every HTTP request might wish to spawn more than one thread, for example to have one thread for reading and one for writing. The number 10,000, however, is just illustrative. Clearly, an application with virtual threads will have some large number of threads (significantly larger than applications with just platform threads), because the ability to have a large number of threads is what virtual threads are for.<o:p></o:p></p></div></div></div><div><div><p class=MsoNormal> <o:p></o:p></p></div></div><div><div><p class=MsoNormal>The important point is that tooling needs to adapt to a high number of threads, which is why we’ve added a tool that’s designed to make sense of many threads, where jstack might not be very useful.<o:p></o:p></p></div></div><div><div><p class=MsoNormal> <o:p></o:p></p></div></div><div><div><p class=MsoNormal>— Ron<o:p></o:p></p></div></div></div></div></blockquote></div></div></blockquote></div></div></div></div></div></blockquote></div><p class=MsoNormal><o:p> </o:p></p></div></div></body></html>