<div dir="ltr">Helvi, Miguel<div><br></div><div>I find that many (most)? users of the Einstein Toolkit define their problem size based on physics and accuracy requirements, and then adapt the number of nodes they uses to make this problem run most efficiently. This usually requires a certain (fixed) amount of work per core. Correspondingly, an informative benchmarking chart is a &quot;weak scaling test&quot;. Strong scalability is also interesting, but is more difficult to interpret in the presence of adaptive mesh refinement with a complex system of equations since using too few nodes leads to out-of-memory situations, and using too many nodes quickly leads to inefficiencies if you use higher-order derivatives.</div><div><br></div><div>Efficiency depends also on the number of OpenMP threads vs. the number of MPI processes, and (obviously) the amount of I/O you&#39;re doing, which is governed by very different characteristics (the file system used, number of file servers, etc.) We thus typically benchmark weak scalability on setups that perform very little I/O, and where we exclude initial data generation.</div><div><br></div><div>When setting up a benchmark, it is important to monitor as many performance characteristics as possible to ensure that one isn&#39;t limited by I/O, or by any other &quot;accidental&quot; feature that could easily be removed in a production simulation such as horizon finding, constraint evaluation, too frequent regridding, etc.</div><div><br></div><div>It is surprisingly easy to accidentally enable a feature in the Einstein Toolkit that adversely affects performance, in particular when running on 1000+ cores. Correspondingly, one has to take great care when defining a benchmark that no such features are present. Timer output will be valuable here to understand how much</div><div><br></div><div>A QC-0 setup should be a good test case if you want to study BBH scenarios. Or maybe GW150914 &lt;<a href="http://einsteintoolkit.org/gallery/bbh/index.html">http://einsteintoolkit.org/gallery/bbh/index.html</a>&gt; would be more interesting and relevant? You would obviously crank up the resolution to turn this into a weak scaling test. In my experience, running for a few minutes (less than ten) after initial data setup will suffice to get good numbers.</div><div><br></div><div>The benchmarks I am running are usually simpler since I tend to focus on a particular features that I want to optimize (e.g. RHS evaluation, grid structure management). I think it&#39;s been some time since we ran production-scale BBH benchmarks (with puncture tracking, regridding tracking the black holes, etc.), I believe we focussed on hydrodynamics benchmarks recently.</div><div><br></div><div>The final quantity against which I report performance is usually &quot;grid point updates per second&quot;, plotted against the number of nodes used. This is the time required to evaluate the RHS for a single grid point, amortized over and including all overhead such as scheduling, regridding, prolongation, synchronization, etc. (Since this measures time, smaller numbers are better.) On a fast machine, and if the overhead is low, this number can be as low as a few microseconds. Mesh refinement and parallelization will add a non-negligible overhead to this, and a weak scaling test will show when the parallelization overhead becomes prohibitive.</div><div><br></div><div>-erik</div><div><br></div><div><br></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Fri, May 12, 2017 at 11:41 AM, helvi witek <span dir="ltr">&lt;<a href="mailto:hwitek@icc.ub.edu" target="_blank">hwitek@icc.ub.edu</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Hi Ian, Carlos, <br><br>thanks a lot for your feedback. <br>Together
 with Miguel Zilhao we are planning to perform these scaling tests using
 the Einstein Toolkit together with the McLachlan and/or our own 
evolution thorns on the Cosmos cluster at the University of Cambridge.<br>If you are interested, we would be happy to make the results available to the community and to the public, e.g., on the wiki. <br><br>We
 were thinking about evolving a head-on collision of two black holes to 
avoid contamination by the initial data construction. We would restrict 
the output to &quot;carpet-timing..asc&quot; and &quot;AllTimers*&quot;. Would you recommend
 any other output to monitor the performance during these tests?<br>Please let us know if you have any other comments.<br><br>Best wishes,<br>Helvi &amp; Miguel<br></div><div class="gmail_extra"><span class=""><br clear="all"><div><div class="m_1196741967860651305gmail_signature" data-smartmail="gmail_signature"><div dir="ltr">==============================<wbr>=============<br>
Dr. Helvi Witek<br>
Marie-Curie Research Fellow<br>
Dep. Fisica Quantica i Astrofisica &amp; ICCUB<br>
Universitat de Barcelona<br>
==============================<wbr>=============</div></div></div>
<br></span><div><div class="h5"><div class="gmail_quote">On Wed, May 10, 2017 at 4:40 PM, Carlos Lousto <span dir="ltr">&lt;<a href="mailto:colsma@rit.edu" target="_blank">colsma@rit.edu</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="auto"><div>Agreed, but the available machines in Xsede change every 3 years or so. It would be nice if we had a way to update/add to such &quot;live&quot; paper with a supplementary repo(?)<br><br>Carlos Lousto</div><div><div class="m_1196741967860651305h5"><div><br>On May 10, 2017, at 10:29 AM, Ian Hinder &lt;<a href="mailto:ian.hinder@aei.mpg.de" target="_blank">ian.hinder@aei.mpg.de</a>&gt; wrote:<br><br></div><blockquote type="cite"><div><br><div><div>On 10 May 2017, at 15:31, helvi witek &lt;<a href="mailto:hwitek@icc.ub.edu" target="_blank">hwitek@icc.ub.edu</a>&gt; wrote:</div><br class="m_1196741967860651305m_-5313117177206680648Apple-interchange-newline"><blockquote type="cite"><div dir="ltr"><div>Hi everyone,<br><br>we are going to apply for HPC time using the Lean code which is largely based on the Einstein Toolkit. Among the required technical information are scaling tests. While we will perform our own tests I also checked for &quot;official&quot; information for the ET. I noticed that there is very little public information, e.g. on the wiki, about recent (say, within the last five years) scaling tests aside from Eloisa&#39;s recent paper <br><div><a href="http://inspirehep.net/record/1492289" target="_blank">http://inspirehep.net/record/1<wbr>492289</a><br></div>and this tracker<br><a href="http://lists.einsteintoolkit.org/pipermail/users/2013-February/002815.html" target="_blank">http://lists.einsteintoolkit.o<wbr>rg/pipermail/users/2013-Februa<wbr>ry/002815.html</a><br clear="all"><br></div><div>Did I miss anything? It might be a good idea to add a standardized test or references to the wiki page.<br></div></div></blockquote><div><br></div><div>It would probably be very useful for many groups if we were to write a short paper describing the scaling of the ET in various cases on current HPC machines.  For someone running simulations very similar to those used, referring to such a paper may be sufficient to demonstrate scaling of the code for a proposal.  If the code used was quite different, then if the parameter files and any required scripts from such a paper were made public, it would be easier for each group to adapt them to their own code.</div></div><div><br></div><div>
<div style="color:rgb(0,0,0);letter-spacing:normal;text-align:start;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;word-wrap:break-word"><div style="color:rgb(0,0,0);letter-spacing:normal;text-align:start;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;word-wrap:break-word"><div style="color:rgb(0,0,0);letter-spacing:normal;text-align:start;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;word-wrap:break-word"><div style="color:rgb(0,0,0);letter-spacing:normal;text-align:start;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;word-wrap:break-word"><div>-- </div><div>Ian Hinder</div><div><a href="http://members.aei.mpg.de/ianhin" target="_blank">http://members.aei.mpg.de/ianh<wbr>in</a></div></div></div></div></div>
</div>
<br></div></blockquote></div></div><blockquote type="cite"><div><span>______________________________<wbr>_________________</span><br><span>Users mailing list</span><br><span><a href="mailto:Users@einsteintoolkit.org" target="_blank">Users@einsteintoolkit.org</a></span><br><span><a href="http://lists.einsteintoolkit.org/mailman/listinfo/users" target="_blank">http://lists.einsteintoolkit.o<wbr>rg/mailman/listinfo/users</a></span><br></div></blockquote></div></blockquote></div><br></div></div></div>
<br>______________________________<wbr>_________________<br>
Users mailing list<br>
<a href="mailto:Users@einsteintoolkit.org">Users@einsteintoolkit.org</a><br>
<a href="http://lists.einsteintoolkit.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.einsteintoolkit.<wbr>org/mailman/listinfo/users</a><br>
<br></blockquote></div><br><br clear="all"><div><br></div>-- <br><div class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div>Erik Schnetter &lt;<a href="mailto:schnetter@cct.lsu.edu" target="_blank">schnetter@cct.lsu.edu</a>&gt;<br><a href="http://www.perimeterinstitute.ca/personal/eschnetter/" target="_blank">http://www.perimeterinstitute.ca/personal/eschnetter/</a></div><div><br></div></div></div>
</div>