<div dir="auto">Also, I have just realized I missed the last email from Roland. I&#39;ll also have a look at branch rhaas/mpiio of Carpet and try to setup a test on few nodes to see if/how much using the parameter <span style="font-size:12.8px">CarpetIOHDF5::user_MPIIO</span>  reduces the peak in the amount of data written to disk at the same time (which was the actual issue).<div dir="auto"><br></div><div dir="auto">Thank you very much Roland,</div><div dir="auto">Lorenzo</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Tue, Nov 1, 2022, 23:59 Lorenzo Ennoggi &lt;<a href="mailto:lorenzo.ennoggi@gmail.com" rel="noreferrer noreferrer noreferrer" target="_blank">lorenzo.ennoggi@gmail.com</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="auto">Hi Erik,<div dir="auto">thank you very much for getting back to me. I&#39;ll have a look a that and try to test it.</div><div dir="auto"><br></div><div dir="auto">Thanks again for your help,</div><div dir="auto">Lorenzo</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Tue, Nov 1, 2022, 13:49 Erik Schnetter &lt;<a href="mailto:schnetter@gmail.com" rel="noreferrer noreferrer noreferrer noreferrer noreferrer noreferrer noreferrer" target="_blank">schnetter@gmail.com</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Lorenzo<br>
<br>
The thorn `Carpet/CarpetSimulationIO` can write N output files on M<br>
processes, and uses an efficient mechanism to map in between. That is,<br>
it uses the high-speed interconnect instead of disk I/O to exchange<br>
data.<br>
<br>
This thorn is, to my knowledge, not used in production, so you&#39;d want<br>
to test it before you use it. It needs the `SimulationIO` external<br>
library.<br>
<br>
-erik<br>
<br>
On Thu, Oct 6, 2022 at 12:28 PM Lorenzo Ennoggi<br>
&lt;<a href="mailto:lorenzo.ennoggi@gmail.com" rel="noreferrer noreferrer noreferrer noreferrer noreferrer noreferrer noreferrer noreferrer" target="_blank">lorenzo.ennoggi@gmail.com</a>&gt; wrote:<br>
&gt;<br>
&gt; Hello,<br>
&gt; In order to avoid stressing the filesystem on the cluster I&#39;m running on, I was suggested to avoid writing one output/checkpoint file per MPI process and instead collecting data from multiple processes before outputting/checkpointing happens. I found the combination of parameters<br>
&gt;<br>
&gt; IO::out_mode       = &quot;np&quot;<br>
&gt; IO::out_proc_every = 8<br>
&gt;<br>
&gt; does the job for output files, but I still have one checkpoint file per process. Is there a similar parameter, or combination of parameters, which can be used for checkpoint files?<br>
&gt;<br>
&gt; Thank you very much,<br>
&gt; Lorenzo Ennoggi<br>
&gt; _______________________________________________<br>
&gt; Users mailing list<br>
&gt; <a href="mailto:Users@einsteintoolkit.org" rel="noreferrer noreferrer noreferrer noreferrer noreferrer noreferrer noreferrer noreferrer" target="_blank">Users@einsteintoolkit.org</a><br>
&gt; <a href="http://lists.einsteintoolkit.org/mailman/listinfo/users" rel="noreferrer noreferrer noreferrer noreferrer noreferrer noreferrer noreferrer noreferrer noreferrer" target="_blank">http://lists.einsteintoolkit.org/mailman/listinfo/users</a><br>
<br>
<br>
<br>
-- <br>
Erik Schnetter &lt;<a href="mailto:schnetter@gmail.com" rel="noreferrer noreferrer noreferrer noreferrer noreferrer noreferrer noreferrer noreferrer" target="_blank">schnetter@gmail.com</a>&gt;<br>
<a href="http://www.perimeterinstitute.ca/personal/eschnetter/" rel="noreferrer noreferrer noreferrer noreferrer noreferrer noreferrer noreferrer noreferrer noreferrer" target="_blank">http://www.perimeterinstitute.ca/personal/eschnetter/</a><br>
</blockquote></div>
</blockquote></div>