<div dir="ltr">Helvi<div><br></div><div>The preferred way would be to create a Simfactory entry. The &quot;unset MPI&quot; command would also go there.</div><div><br></div><div>If you are unfamiliar with Simfactory, then you would open an issue ticket on the ET web site and attach the option list.</div><div><br></div><div>-erik</div><div><br></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Thu, Oct 19, 2017 at 8:26 AM, hwitek <span dir="ltr">&lt;<a href="mailto:hwitek@ffn.ub.es" target="_blank">hwitek@ffn.ub.es</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi everyone,<br>
<br>
we could compile the toolkit on MareNostrum4 without any further<br>
problems (&quot;unset MPI&quot; did the trick), and I want to run some further<br>
tests before providing the configuration script.<br>
<br>
What is the standard way to include new configuration files into the<br>
toolkit? Should I send it to someone in particular?<br>
<br>
cheers,<br>
Helvi<br>
<div class="HOEnZb"><div class="h5"><br>
On 2017-10-18 19:16, hwitek wrote:<br>
&gt; Hi Miguel, everyone,<br>
&gt;<br>
&gt; regarding your first point: I had a similar problem on its<br>
&gt; predecessor,<br>
&gt; MareNostrum 3.<br>
&gt; The trick was to unset the global MPI variable, so in my bashrc I had<br>
&gt; something like<br>
&gt;<br>
&gt; module load intel<br>
&gt; ...<br>
&gt; unset MPI<br>
&gt;<br>
&gt; I hope this helps! I&#39;ll also have a go at the compilation myself<br>
&gt; tonight.<br>
&gt;<br>
&gt; cheers,<br>
&gt; Helvi<br>
&gt;<br>
&gt;<br>
&gt; On 2017-10-18 18:52, Miguel Zilhão wrote:<br>
&gt;&gt; hi all,<br>
&gt;&gt;<br>
&gt;&gt; i&#39;ve been compiling the latest ET on marenostrum 4, and there were a<br>
&gt;&gt; couple of issues i&#39;d like to ask:<br>
&gt;&gt;<br>
&gt;&gt; 1. on marenostrum, they bundle a lot of mpi-related tools on modules.<br>
&gt;&gt; in particular, one of the<br>
&gt;&gt; default modules that is loaded is called &#39;impi&#39;. this module sets the<br>
&gt;&gt; global variable $MPI to &#39;impi&#39;, ie<br>
&gt;&gt;<br>
&gt;&gt;   $ echo $MPI<br>
&gt;&gt;     impi<br>
&gt;&gt;<br>
&gt;&gt; this seems to severely interfere with the Cactus building process. at<br>
&gt;&gt; the configuration stage i get<br>
&gt;&gt; the following:<br>
&gt;&gt;<br>
&gt;&gt; Configuring with flesh MPI<br>
&gt;&gt;    Warning: use of flesh MPI via MPI option is deprecated and should<br>
&gt;&gt; be replaced with the thorn<br>
&gt;&gt; ExternalLibraries/MPI and its MPI_DIR option<br>
&gt;&gt;    MPI selected, but no known MPI method - what is &quot;impi&quot; ?<br>
&gt;&gt;<br>
&gt;&gt; to workaround this problem, i&#39;ve unloaded the module (module unload<br>
&gt;&gt; impi), which undefines the $MPI<br>
&gt;&gt; variable. after this, the configuration stage works fine.<br>
&gt;&gt; this seems to me like a bug, though. after all, a cluster-wide global<br>
&gt;&gt; variable called $MPI seems<br>
&gt;&gt; like a natural thing to exist in a lot of these machines... should<br>
&gt;&gt; the building of Cactus rely on<br>
&gt;&gt; the non-existence of such a variable?<br>
&gt;&gt;<br>
&gt;&gt; the other inconvenient thing is that, by unloading the impi module,<br>
&gt;&gt; one also removes from $PATH the<br>
&gt;&gt; mpirun command. so one has to unload the module for compiling the<br>
&gt;&gt; code, and then load it back to be<br>
&gt;&gt; able to run it.<br>
&gt;&gt;<br>
&gt;&gt; 2. i was not able to compile with any of the provided intel compilers<br>
&gt;&gt; (with gcc it worked fine). i<br>
&gt;&gt; know there are known issues with some versions of the intel<br>
&gt;&gt; compilers; is there some sort of list of<br>
&gt;&gt; intel compilers that are known to work? i could maybe try to ask the<br>
&gt;&gt; technical support if they could<br>
&gt;&gt; make those specific versions available...<br>
&gt;&gt;<br>
&gt;&gt; thanks,<br>
&gt;&gt; Miguel<br>
&gt;&gt; ______________________________<wbr>_________________<br>
&gt;&gt; Users mailing list<br>
&gt;&gt; <a href="mailto:Users@einsteintoolkit.org">Users@einsteintoolkit.org</a><br>
&gt;&gt; <a href="http://lists.einsteintoolkit.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.einsteintoolkit.<wbr>org/mailman/listinfo/users</a><br>
<br>
--<br>
===========================<br>
Dr. Helvi Witek<br>
Marie-Curie Research Fellow<br>
Dep. Fisica Quantica i Astrofisica<br>
Universitat de Barcelona<br>
===========================<br>
______________________________<wbr>_________________<br>
Users mailing list<br>
<a href="mailto:Users@einsteintoolkit.org">Users@einsteintoolkit.org</a><br>
<a href="http://lists.einsteintoolkit.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.einsteintoolkit.<wbr>org/mailman/listinfo/users</a><br>
</div></div></blockquote></div><br><br clear="all"><div><br></div>-- <br><div class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div>Erik Schnetter &lt;<a href="mailto:schnetter@cct.lsu.edu" target="_blank">schnetter@cct.lsu.edu</a>&gt;<br><a href="http://www.perimeterinstitute.ca/personal/eschnetter/" target="_blank">http://www.perimeterinstitute.ca/personal/eschnetter/</a></div><div><br></div></div></div>
</div>