<div dir="ltr"><div class="gmail_extra"><div class="gmail_quote">On Tue, Jun 9, 2015 at 8:08 PM, Tony Arcieri <span dir="ltr"><<a href="mailto:bascule@gmail.com" target="_blank">bascule@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_extra"><div class="gmail_quote"><span class="">On Tue, Jun 9, 2015 at 1:13 AM, Ben Laurie <span dir="ltr"><<a href="mailto:ben@links.org" target="_blank">ben@links.org</a>></span> wrote:<br></span><span class=""><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">But why BLAKE2? And who cares how fast it is?</blockquote><div><br></div></span><div>Anyone verifying the integrity of a large file. Like a 500GB database backup, for example... </div></div></div></div></blockquote><div><br></div><div>True, </div><div>with a footnote that I/O bandwidth places some bounds on the need for speed.<br>Consider an archive tool (software) that reads the file, computes validation codes as it writes</div><div>data and the associated meta data including computed check sums.  </div><div>Consider that tar and cpio contain user data (UID/GID) and unix style file </div><div>permissions tar supports block compression.</div><div><br></div><div>As long as the process is fast enough the IO streams will stay full and</div><div>be the limiting component making the check sum and even encryption free</div><div>for the net pipeline with some startup and shut down overhead.<br></div><div><br></div></div><div><br></div>-- <br><div class="gmail_signature"><div dir="ltr">  T o m    M i t c h e l l</div></div>
</div></div>