<div dir="ltr">Stefan<div><br></div><div>There exist several algorithms for managing the SPH particles and finding interactions. Personally, I dislike using an algorithm that would e.g. changing the particle radius depending on the process decomposition.</div><div><br></div><div>If I was to implement an SPH method for astrophysics in Cactus, then I would probably choose a binary tree. I would make the process decomposition that is implied by this tree independent of how Cactus decomposes its grid functions. Thus you can test both grid functions and particle algorithms independently.</div><div><br></div><div>To couple particles and grids, you need two ingredients:</div><div>- Interpolate grid quantities at particle locations</div><div>- Deposit particle quantities onto grid</div><div><br></div><div>The first already exists in Cactus; you would use the Cactus interpolator for this.</div><div><br></div><div>The second is particle-specific, and this routine needs to be written. Determining the grid cell enclosing a particle is the main ingredient. For PUGH (a uniform grid) this is straightforward; for Carpet, there is a routine &quot;gh::locate_position&quot; that one would call.</div><div><br></div><div>Apart from these considerations, I have a personal preference for algorithms that are derived from a Lagrangian. A variable smoothing length is likely important in astrophysics since you will encounter large density differences there.</div><div><br></div><div>-erik</div><div><br></div><div><br></div><div><br></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Wed, Nov 25, 2015 at 2:18 AM, Stefan Ruehe <span dir="ltr">&lt;<a href="mailto:sruehe@astrophysik.uni-kiel.de" target="_blank">sruehe@astrophysik.uni-kiel.de</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><u></u>
<div style="font-size:10pt;font-family:Verdana,Geneva,sans-serif">
<p>Good morning,</p>
<p> </p>
<p>I have made some thoughts about the problems with SPH and MPI.</p>
<p>I found a paper by Valdez-Balderas et al (2012) (<a href="http://adsabs.harvard.edu/abs/2012arXiv1210.1017V" target="_blank">http://adsabs.harvard.edu/abs/2012arXiv1210.1017V</a>), which could help to solve some of the problems.</p>
<p>They suggest a particle halo on each processor unit, in which the neighbour particle of the adjacent processors are saved. This should be synchronized in each timestep.</p>
<p>One problem of this method is SPH have to use fixed smoothlength, otherwise the volume of the halo can&#39;t be set. The variability of the smoothlength is required to have an adaptive refinement in the SPH-algorithm. I would suggest to use semi-fixed smoothlength, which are smaller in higher refindement levels. This could reduce the disadvantages of the fixed smoothlength.</p>
<p>What is your opinion this? </p>
<p> </p>
<p>Now I try to test how good SPH-approximations for the hydrodynamic grid variables in the Tmunu base are under the condition of such &quot;adaptive-fixed&quot; smoothlength. I have an other method in mind, but this would need more temporary memory.</p>
<p>Best regards,</p>
<p>Stefan Ruehe</p>
<p> </p>
<p> </p>
<div> </div>
</div>
<br>_______________________________________________<br>
Users mailing list<br>
<a href="mailto:Users@einsteintoolkit.org">Users@einsteintoolkit.org</a><br>
<a href="http://lists.einsteintoolkit.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.einsteintoolkit.org/mailman/listinfo/users</a><br>
<br></blockquote></div><br><br clear="all"><div><br></div>-- <br><div class="gmail_signature">Erik Schnetter &lt;<a href="mailto:schnetter@cct.lsu.edu" target="_blank">schnetter@cct.lsu.edu</a>&gt;<br><a href="http://www.perimeterinstitute.ca/personal/eschnetter/" target="_blank">http://www.perimeterinstitute.ca/personal/eschnetter/</a></div>
</div>