<p dir="ltr">On Apr 2, 2015 6:57 AM, "Ben Laurie" <<a href="mailto:ben@links.org">ben@links.org</a>> wrote:<br>
><br>
> On 1 April 2015 at 15:40, Lodewijk andré de la porte <<a href="mailto:l@odewijk.nl">l@odewijk.nl</a>> wrote:<br>
>><br>
>> 2015-04-01 20:22 GMT+09:00 ianG <<a href="mailto:iang@iang.org">iang@iang.org</a>>:<br>
>>><br>
>>> We can imagine the WGs worrying about the security effects of that.  Can someone craft a virus that turns off *all* ciphers?  If the IoT thing is 20 years old and switches the cooling water on a NY nuclear powerstation, is it clearly more secure by eliminating its 20 year old cipher?  Does the fallback to cleartext make the effect of the last cipher dropping off worse?  Is letting someone hack the cipher worse or better than disabling access?<br>
>><br>
>><br>
>> It would probably decline all communication (fail to negotiate a protocol), which seems fine to me.<br>
><br>
><br>
> So, you think declining to control a nuclear power plant because some minor device had a security issue is fine?</p>
<p dir="ltr">No remote (+manual) control that's known to be insecure. Seems sane to me.</p>
<p dir="ltr">> Seriously?</p>
<p dir="ltr">Yeah! The thing probably manages itself just fine. You'd rather have anyone (or, more people than authorized) access/control it remotely?</p>
<p dir="ltr">It's an example, ofc. But when you use a cipher you do so because you want security. Not getting it seems like it's always a critical failure.</p>
<p dir="ltr">Is falling back to insecure better than failing fully (in some situations)? Probably almost never. I think the nontrivial failures due to all communication suddenly dissapearing at once (and people not having planned for that) can and will cause problems, but having supposedly secure communication become insecure is will cause problems more certainly.</p>
<p dir="ltr">The idea is that bad cyphers turn off ASAP without a human intervening. Also because we know humans sometimes (often) just don't intervene.<br>
</p>