<html><head></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space; color: rgb(0, 0, 0); font-size: 14px; font-family: Calibri, sans-serif; "><div><div><div>Hi all.</div><div><br></div><div>Something new (I think) and trivial, but is annoying me.</div><div><br></div><div>For diagnostic purposes, I was running a Cactus/Carpet executable (ETK Maxwell) with CarpetIOBasic::output_1Devery = 1. To my surprise, the output happens every *two* timesteps. When I switch the parameter to 2, the same thing happens. So I get the following behaviour:</div><div><br></div><div>parameter value &nbsp;=&gt; actual output frequency</div><div>-------------------------------------------------------------</div><div>1 =&gt; 2</div><div>2 =&gt; 2</div><div>4 =&gt; 4</div><div>8 =&gt; 8</div><div><br></div><div>The grid has multiple refinement levels. I tried a smaller testsuite (perhaps one of the ML_BSSN tests, which are unigrid), and there "output_1Devery = 1"&nbsp;really did produce output every timestep.</div><div><br></div><div>I know a proper report needs a sample parameter file for reproducibility, but before I get that (not logged into the right machine right now), perhaps someone could tell me why this -might- happen? The logic in the IOBasic thorn seems simple enough ...</div><div><br></div><div>Thanks, Bernard</div><div><br></div><div><div><div><div>-----------------------------------------------------------------------------&nbsp;</div><div>Bernard Kelly -- CRESST Research Associate, NASA/GSFC</div><div>&nbsp;&nbsp;</div><div>Phone: +1 (301) 286-7243</div><div>E-Mail: bernard.j.kelly@nasa.gov</div><div>Web:&nbsp;http://science.gsfc.nasa.gov/sed/index.cfm?fuseAction=people.jumpBio&amp;iphonebookid=13052</div><div>-----------------------------------------------------------------------------</div></div><div><br></div></div></div></div></div></body></html>