<div dir="auto">Does anyone know of good solutions to this issue?<div dir="auto"><br></div><div dir="auto">> I'm struggling to find a way to preserve data</div><div dir="auto">> across corrupt systems damaging it and</div><div dir="auto">> harddrives that break frequently.  This is very</div><div dir="auto">> hard for me to solve.<br></div><div dir="auto"><br></div><div dir="auto">I'm basically running off a raspberry pi right now.  I don't have a lot of finances.  I do have a number of external drives, but they tend to break faster than I can recover my files from them, resulting in a big queue of "to image/analyse" .</div><div dir="auto"><br></div><div dir="auto">I've been using git-annex, but I'm running into the issue that `git annex repair` seems to wipe my git history when I run into object corruption.</div><div dir="auto"><br></div><div dir="auto">What kinds of solutions exist already for large hash-addressed data integrity with history, that will work when the storage media are failing quickly?</div></div>