<div dir="ltr">Hi Ronal,<div><br></div><div>Thanks for the clarification.</div><div><br></div><div>Cheers,</div><div>Benja</div></div><br><div class="gmail_quote"><div dir="ltr">On Wed, Oct 24, 2018 at 5:48 PM Roland Haas &lt;<a href="mailto:rhaas@illinois.edu">rhaas@illinois.edu</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hello Benja,<br>
<br>
you will still see both black holes. Half this size is really &quot;reduce<br>
the radius of the sphere by half&quot; and not showing only one half of the<br>
domain.<br>
<br>
Eg the original rpar file may have had a domain that goes out to a<br>
radius of 2000M while the new one goes only to 1000M. The black holes<br>
are never further apart than about 20M or so though so they are always<br>
included.<br>
<br>
Yours,<br>
Roland<br>
<br>
&gt; Hi Ronal,<br>
&gt; <br>
&gt; Many thanks for your help, we are going to try the suggested rpar.<br>
&gt; Just one question, if we use &quot;domain half its current size&quot; as you<br>
&gt; suggested, when we will plot phi.*.xy.h5 result files we will see the two<br>
&gt; &quot;black holes&quot; as figure &quot;<br>
&gt; <a href="https://docs.einsteintoolkit.org/et-docs/File:vt-5.png" rel="noreferrer" target="_blank">https://docs.einsteintoolkit.org/et-docs/File:vt-5.png</a>&quot;<br>
&gt; or just one ?<br>
&gt; <br>
&gt; Cheers,<br>
&gt; Benja<br>
&gt; <br>
&gt; <br>
&gt; On Tue, Oct 23, 2018 at 7:47 PM Roland Haas &lt;<a href="mailto:rhaas@illinois.edu" target="_blank">rhaas@illinois.edu</a>&gt; wrote:<br>
&gt; <br>
&gt; &gt; Hello Benja,<br>
&gt; &gt;<br>
&gt; &gt; attached please find a modified rpar file where I made two changes:<br>
&gt; &gt;<br>
&gt; &gt; * changed the boundary condition to be of Robin type instead of<br>
&gt; &gt;   Dirichlet type, which reduces reflections on the boundary (the line<br>
&gt; &gt;   NewRad::z_is_radial = &quot;yes&quot;)<br>
&gt; &gt; * made the domain half its current size which reduces memory footprint<br>
&gt; &gt;   and runtime but will induce some reflections off the boundary, this<br>
&gt; &gt;   makes the simulation smaller so that is uses less memory<br>
&gt; &gt; * then ran with very low resolution (N=24 instead of N=28) this makes<br>
&gt; &gt;   the simulation runs faster<br>
&gt; &gt;<br>
&gt; &gt; I gave it a test run on my workstation (12 cores, 96GB of RAM) and it<br>
&gt; &gt; runs at ~4.1 M/hour. Since the full simulation is<br>
&gt; &gt; about 1000 M this will finish in 10 days.<br>
&gt; &gt;<br>
&gt; &gt; If this is too slow (which is may well be) then you can try and reduce<br>
&gt; &gt; the finite difference order to 6 from 8 by changing the lines (they<br>
&gt; &gt; are not consecutive in the file):<br>
&gt; &gt;<br>
&gt; &gt; Driver::ghost_size                      = 5<br>
&gt; &gt; Coordinates::patch_boundary_size        = 5<br>
&gt; &gt; Coordinates::additional_overlap_size    = 3<br>
&gt; &gt; Coordinates::outer_boundary_size        = 5<br>
&gt; &gt; ML_BSSN::fdOrder                        = 8<br>
&gt; &gt; SummationByParts::order                 = 8<br>
&gt; &gt; Interpolate::interpolator_order         = 5<br>
&gt; &gt; WeylScal4::fdOrder                      = 8<br>
&gt; &gt; to:<br>
&gt; &gt;<br>
&gt; &gt; Driver::ghost_size                      = 4<br>
&gt; &gt; Coordinates::patch_boundary_size        = 4<br>
&gt; &gt; Coordinates::additional_overlap_size    = 3<br>
&gt; &gt; Coordinates::outer_boundary_size        = 4<br>
&gt; &gt; ML_BSSN::fdOrder                        = 6<br>
&gt; &gt; SummationByParts::order                 = 6<br>
&gt; &gt; Interpolate::interpolator_order         = 3<br>
&gt; &gt; WeylScal4::fdOrder                      = 6<br>
&gt; &gt;<br>
&gt; &gt; which gives me a run speed of ~6.9M/hr (so 7 days runtime).<br>
&gt; &gt;<br>
&gt; &gt; This is the command line to start the simulation:<br>
&gt; &gt;<br>
&gt; &gt; simfactory/bin/sim create-submit GW150914_24 --define N 24 \<br>
&gt; &gt; --parfile ~/runs/devel/GW150914.rpar --procs 12 --walltime 24:00:00<br>
&gt; &gt;<br>
&gt; &gt; Yours,<br>
&gt; &gt; Roland<br>
&gt; &gt;  <br>
&gt; &gt; &gt; Dear friends,<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; We are trying to use the EinsteinToolKit GW150914.rpar binary<br>
&gt; &gt; &gt; balckhole merge simulation  as use case to test that our container<br>
&gt; &gt; &gt; orchestration product OpenShift can be used for HPC.<br>
&gt; &gt; &gt; Our test environment only has 30 CPUs so we need to execute that<br>
&gt; &gt; &gt; simulation in a reasonable time.<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; Please can you tell us how to modify  GW150914.rpar in order to get a<br>
&gt; &gt; &gt; less precise simulation executed in a 30 CPUs cluster in a reasonable<br>
&gt; &gt; &gt; time (~ few days).<br>
&gt; &gt; &gt; Now we can run the simulation  GW150914.rpar using OpenMPI +<br>
&gt; &gt; &gt; EinsteinToolKit, but it takes so long to be executed (~ weeks).<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; We believe that  GW150914.rpar EinsteinToolKit is a great use case to<br>
&gt; &gt; &gt; test OpenShift for HPC, and of course we will reference to<br>
&gt; &gt; &gt; EinsteinToolKit is our final report as a use case for Openshift in<br>
&gt; &gt; &gt; HPC mode.<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; Many thanks in advance for your help,<br>
&gt; &gt; &gt; Benja<br>
&gt; &gt; &gt;  <br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt; --<br>
&gt; &gt; My email is as private as my paper mail. I therefore support encrypting<br>
&gt; &gt; and signing email messages. Get my PGP key from <a href="http://pgp.mit.edu" rel="noreferrer" target="_blank">http://pgp.mit.edu</a> .<br>
&gt; &gt;  <br>
&gt; <br>
&gt; <br>
<br>
<br>
<br>
-- <br>
My email is as private as my paper mail. I therefore support encrypting<br>
and signing email messages. Get my PGP key from <a href="http://pgp.mit.edu" rel="noreferrer" target="_blank">http://pgp.mit.edu</a> .<br>
</blockquote></div><br clear="all"><div><br></div>-- <br><div dir="ltr" class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr">Benjamín Chardí Marco<br>Senior Red Hat Consultant<br>RHCE #<span>100</span>-<span>107</span>-<span>341</span><br><a href="mailto:bchardim@redhat.com" style="color:rgb(17,85,204)" target="_blank">bchardim@redhat.com</a><br>Mobile: 0034 654 344 878<br></div></div>