<div dir="ltr"><div class="gmail_extra"><div class="gmail_extra" style="font-size:12.8px"><span class="im"><div class="gmail_quote">On 7 October 2015 at 18:17, Robert L. Wilson <span dir="ltr"><<a href="mailto:wilson@math.wisc.edu" target="_blank">wilson@math.wisc.edu</a>></span> wrote:</div></span><div class="gmail_quote"><span class="im"><br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex"><div bgcolor="#FFFFFF" text="#000000">I am interested in whether that is actually being carried out as a standard procedure in any, or many, disciplines. I certainly don't object to it as a goal and hence as "supposed to be doing". But <b>Science</b>magazine, one of the major publishers of research articles in many scientific subjects, recently carried the suggestion that this ought to be done, as a reaction to the number of scientific papers that have been retracted (worldwide, not just in <b>Science</b>) recently. As a mathematician, where results don't usually depend on lab equipment and procedures, the whole discovery and publication activity is a little different from many of the subjects they publish. But, from what I read in <b>Science</b>, I got the impression this was not usually a condition for journal acceptance in any subject. Is that so?<br></div></blockquote><div><br></div></span><div>I think the following says it all, albeit from a domain usually far removed from the rigour of mathematical proof:</div><div><br></div></div></div><blockquote style="font-size:12.8px;margin:0px 0px 0px 40px;border:none;padding:0px"><div class="gmail_extra"><div class="gmail_quote"><a href="http://www.nature.com/news/over-half-of-psychology-studies-fail-reproducibility-test-1.18248" target="_blank">http://www.nature.com/news/over-half-of-psychology-studies-fail-reproducibility-test-1.18248</a></div></div></blockquote><div class="gmail_extra" style="font-size:12.8px"><div class="gmail_quote"><div><br></div><div>Its unglamorous, poorly funded, and tedious work disproving other researchers' results. There is also selective bias in journals reporting novel results versus negative results:</div><div><br></div></div></div><blockquote style="font-size:12.8px;margin:0px 0px 0px 40px;border:none;padding:0px"><div class="gmail_extra"><div class="gmail_quote"><a href="http://journals.plos.org/plosone/article?id=10.1371/journal.pone.0084896" target="_blank">http://journals.plos.org/plosone/article?id=10.1371/journal.pone.0084896</a></div></div></blockquote><div class="gmail_extra" style="font-size:12.8px"><div class="gmail_quote"><div><br></div><div>Returning to cryptography, and as a non-cryptographer - how do I verify that the cryptographic tools I use are "generally regarded" or "provably demonstrated" as secure? Do I simply rely on the authority of Bruce?</div><div><br></div></div></div><blockquote style="font-size:12.8px;margin:0px 0px 0px 40px;border:none;padding:0px"><div class="gmail_extra"><div class="gmail_quote"><a href="http://www.schneierfacts.com/" target="_blank">http://www.schneierfacts.com</a></div></div></blockquote><div class="gmail_extra" style="font-size:12.8px"><div class="gmail_quote"><br></div></div><div style="font-size:12.8px"><div class="gmail_extra"><div class="gmail_quote"><div>Regards,</div><div>Gary </div></div></div></div></div></div>