<div dir="ltr"><div class="gmail_extra"><div class="gmail_quote">On Thu, Jan 15, 2015 at 12:11 PM, Ray Dillinger <span dir="ltr"><<a href="mailto:bear@sonic.net" target="_blank">bear@sonic.net</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">In general, compression algorithms ought to be beneficial in<br>
cryptography.  Greater information density means less redundant<br>
structure of the sort that results in "cribs" for the analysts<br>
to use.  The problem with most compression programs is that<br>
they have very distinctive headers that instead provide cribs<br>
for the analysts in the first few hundred bytes of the file.<br></blockquote><div><br></div><div> Well chosen, yes...</div><div>A compressed file has more "known" structure than just the header.</div><div>A large pile of encrypted files with a known structure and a common key</div><div>could be all that modern tools in Utah need to attack the key.</div><div><br></div><div>If compression after encryption is a net gain that would be more secure.</div><div>If compression was first than knowing how the initial data was compressed</div><div>may a loss of security as the hint is "it was compressed with ___"</div><div><br></div><div>A good encryption and no knowledge that the content was compressed first</div><div>would be fine.   Some compression tools have a notion of a compression</div><div>preset level which might be used when the same file is sent multiple times</div><div>with the same or different keys.</div><div><br></div><div>Interesting... </div><div><br>
</div><div><br></div></div><br clear="all"><div><br></div>-- <br><div class="gmail_signature"><div dir="ltr">  T o m    M i t c h e l l</div></div>
</div></div>