Zum Inhalt springen
MichaelMueller

Aufbewahrung von Dokumenten

Empfohlene Beiträge

McScrooge
vor 1 Stunde von br4v3m:

Die Daten werden komplett auf die Handies kopiert (im heimischen WLAN).

Provokante Frage: Wofür braucht man das?

Am 10.3.2024 um 09:30 von Lazaros:

Hat jemand von euch schon mal jahrelang zurückliegende alte Bankdaten gebraucht?

Nein.

Diesen Beitrag teilen


Link zum Beitrag
br4v3m
vor einer Stunde von McScrooge:

Provokante Frage: Wofür braucht man das?

Braucht man nicht zwingend, aber ist komfortabel, v.a. wenn man wie ich viel unterwegs ist.

Diesen Beitrag teilen


Link zum Beitrag
MichaelMueller

Ich bin mit dem DMS eigentlich ganz zufrieden bisher, damit sind auch mobile Zugriffe und Backups geregelt. Suchen und Kategorisieren kein Problem sowie alle E-Mail Anhänge werden auch direkt automatisch eingespielt.

Amazon Rechnung automatisiert per E-Mail schicken lassen, wird importiert und direkt richtig eingeordnet. Man muss nichts mehr mit Hand machen.
Alle paar Wochen muss ich die Bankdokumente von MoneyMoney ins Netzlaufwerk kopieren, damit diese importiert und direkt richtig eingeordnet werden.
Vielleicht finde ich dafür noch eine Lösung, das automatisch machen zu lassen.

Diesen Beitrag teilen


Link zum Beitrag
Bolanger

Was machen die DMS-Nutzer eigentlich, wenn die Software nicht weiterentwickelt wird, zu teuer wird oder aus sonst welchen Gründen in Zukunft nicht mehr verfügbar ist? Ich mag keine Lösungen, bei denen man sich auf einen Anbieter festlegt.

Diesen Beitrag teilen


Link zum Beitrag
MichaelMueller

@Bolanger was soll dann sein? Das gleiche wie bei allen anderen Softwareprodukte auch. 
 

Du hast ja kein Risiko…

 

Diesen Beitrag teilen


Link zum Beitrag
Barqu
5 hours ago, Bolanger said:

Was machen die DMS-Nutzer eigentlich, wenn die Software nicht weiterentwickelt wird, zu teuer wird oder aus sonst welchen Gründen in Zukunft nicht mehr verfügbar ist? Ich mag keine Lösungen, bei denen man sich auf einen Anbieter festlegt.

Paperless-ngx ist opensource. 

Diesen Beitrag teilen


Link zum Beitrag
Malvolio
· bearbeitet von Malvolio

Mein Vater ist 2012 gestorben .... über ein Jahr später hat die Rentenversicherung noch eine Ausbildungsbescheinigung von ihm angefordert .... aus den 60er-Jahren wohlgemerkt. Das war wirklich kurios. 

Diesen Beitrag teilen


Link zum Beitrag
MichaelMueller
vor 3 Stunden von Barqu:

Paperless-ngx ist opensource. 

Selbst wenn nicht, ich mein die Dateien liegen ja auf dem filesystem wie man es will, man kann die Struktur auch vorgeben. D.h. wenn das Programm nicht mehr gibt, hat man ja erstmal nichts an Daten oder Struktur verloren.

 

vor 2 Stunden von Malvolio:

über ein Jahr später hat die Rentenversicherung noch eine Ausbildungsbescheinigung von ihm angefordert .... aus den 60er-Jahren wohlgemerkt. Das war wirklich kurios. 

Ob dir da ein DMS geholfen hätte?
Dann hätte dein Vater ein DMS gebraucht und du auch noch die Zugangsdaten oder du hättest die Daten pflegen müssen. 

Diesen Beitrag teilen


Link zum Beitrag
Malvolio
vor 1 Minute von MichaelMueller:

Ob dir da ein DMS geholfen hätte?
Dann hätte dein Vater ein DMS gebraucht und du auch noch die Zugangsdaten oder du hättest die Daten pflegen müssen. 

Wohl kaum .... aber über die Jahrzehnte hat manchmal auch Papier und ein alter Leitz-Ordner durchaus seine Vorteile. :D Obwohl ich in dem Fall nicht weiß, ob überhaupt etwas passiert wäre, wenn wir die Unterlagen nicht mehr gehabt hätten.

Diesen Beitrag teilen


Link zum Beitrag
Kzoll

Cloud-basierte DMS-Lösungen bieten oft mehr Flexibilität und Skalierbarkeit als lokale Lösungen. Du kannst den Anbieter wechseln, ohne Daten oder Anwendungen neu installieren zu müssen.

Diesen Beitrag teilen


Link zum Beitrag
alsuna

Und dafür lege ich sensible Dokumente in die Cloud. Genau mein Humor.

Diesen Beitrag teilen


Link zum Beitrag
MichaelMueller
vor 3 Stunden von Kzoll:

Du kannst den Anbieter wechseln, ohne Daten oder Anwendungen neu installieren zu müssen

Und der Wechsel und die Datenübertragung passiert dann automatisch über die Wolke

 

vor 2 Stunden von alsuna:

Und dafür lege ich sensible Dokumente in die Cloud. Genau mein Humor.

Ende zu Ende verschlüsselt dann natürlich ;)

Diesen Beitrag teilen


Link zum Beitrag
StE

Nach Durchsicht dieses Fades vielleicht dies:

 

1. Gibt keine Cloud, nur anderer Leute Computer. So Firmen dahinter gehen schneller pleite als man gucken kann, siehe die inzwischen zahlreichen IoT-Geräte, die nach Insolvenz nur noch Elektroschrott sind. Oder jemand aus Weissrussland schnappt sich die Domain und hat plötzlich die Möglichkeit, 20.000 Türen in Deutschland nach Wunsch einfach aufzusperren. Oder, was quasi jeden Monat inzwischen passiert, die Bude wird gehackt und die Daten waren doch nicht Ende zu Ende verkrypted und tauchen als Auszug plötzlich in irgendwelchen kriminellen Foren auf.

 

2. Vorsicht vor Datenhaltung auf SSDs oder USB HDDs. Je nach Alterungsgrad der Zellen in SSDs verlieren diese irgendwann ihre Daten. Bei HDDs kommts zu Sektorfehler. Nicht beschreiben und dann einfach für x Jahre in den Safe legen geht ziemlich sicher in die Hose. Die einzig heute in 2024 einigermaßen noch relevanten Medien, die 30-100 Jahre halten, sind mit langsamster Geschwindigkeit beschriebene HTL Blurays (nicht LTH), oder LTO-Bänder, dunkel, trocken, kühl und hochkant gelagert.

 

3. Es braucht nicht unbedingt immer die große Open Source Lösung mit Webinterface und Tralala. Wer unter Linux fit und eher Purist ist: Ich scanne unter Linux mit scanimage, werfe mit imagemagick-Trick leere Seiten weg, begradige mit scantailor-universal-cli, und wandle alle Seiten mit ocrmypdf dann von multipage TIFF in ein PDF, alles in einem Rutsch. Und wenn ich was suche findet rga siehe https://phiresky.github.io/blog/2019/rga--ripgrep-for-zip-targz-docx-odt-epub-jpg/ alles mit Schlagworten wieder.

Diesen Beitrag teilen


Link zum Beitrag
Bolanger
· bearbeitet von Bolanger
Am 26.4.2024 um 15:00 von StE:

Die einzig heute in 2024 einigermaßen noch relevanten Medien, die 30-100 Jahre halten, sind mit langsamster Geschwindigkeit beschriebene HTL Blurays (nicht LTH), oder LTO-Bänder, dunkel, trocken, kühl und hochkant gelagert.

 

Und wenn man als Backup Medien erstellt und weglegt läuft man Gefahr, diese wegen fehlendem Equipment (Laufwerke, Anschlüsse) nicht mehr lesen zu können.

Ich verwende daher weiterhin Festplatten, von denen jede alle Dateien enthält, die gesichert werden sollen. Die Zugriffsmöglichkeit auf das Backup ist also bei jeder Sicherung nötig und damit auch gewährleistet. Einmal erstellte und dann vergessene Backups ffunktionieren für den Privatanwender in der Praxis nicht.

Das Backup geschieht dann inkrementell mit Robocopy.

Das einzige, was ich noch nicht habe ist eine Fehler- und Lesbarkeitsprüfung der Daten, die sich schon lange auf der Festplatte befinden.

Diesen Beitrag teilen


Link zum Beitrag
hattifnatt
· bearbeitet von hattifnatt
vor 2 Stunden von Bolanger:

Ich verwende daher weiterhin Festplatten, von denen jede alle Dateien enthält, die gesichert werden sollen. Die Zugriffsmöglichkeit auf das Backup ist also bei jeder Sicherung nötig und damit auch gewährleistet.

Das erfüllt allerdings nicht die Kriterien "Datensicherheit" und "Ausfallsicherheit" an ein Backup, weil Dinge wie ein Verschlüsselungstroyaner (wenn man die Platte aus "Faulheit" immer angeschlossen lässt) oder auch der von @StE erwähnte normale Verschleiß von Festplatten (mechanisch, oder elektronisch bei SSDs) das Backup unbrauchbar machen können.

 

Hier werden USB-Sticks empfohlen:

https://www.ratgeber-datenrettung.de/haltbarkeit-von-ssd-hdd-usb-co/

Diesen Beitrag teilen


Link zum Beitrag
Bolanger
vor 8 Minuten von hattifnatt:

Das erfüllt allerdings nicht die Kriterien "Datensicherheit" und "Ausfallsicherheit" an ein Backup, weil Dinge wie ein Verschlüsselungstroyaner oder auch der normale Verschleiß von Festplatten (mechanisch, oder elektronisch bei SSDs) das Backup unbrauchbar machen können.

Absolute Sicherheit gibt es nicht. Bei mir könnte ein Verschlüsselungstrojaner das Backup unbrauchbar machen. Ein Cloudanbieter könnte dafür gehackt werden, was bei meiner offline-Festplatte nicht so schnell passiert. Nebenbei bemerkt habe ich 2 offline-Festplatten. Eine wird fürs regelmäßige Backup genutzt und die andere wird an einem anderen Ort gelagert und enthält einen Datenstand, der ein paar Monate alt ist. Na klar, wenn man einen Trojaner hat, der erst nach Monaten aktiv wird, nützt das auch nichts. Ansonsten aber schon.

 

Ich mache mir eher Gedanken, wie ich die Qualität der vorhandenen Daten prüfen kann. Bei meinem inkrementellen Update-Prozess werden nämlich nur die Dateigröße, Datum und name geprüft. Wenn sich da nichts verändert hat, wird die alte Datei der Sicherung nicht angerührt. das bedeutet aber nicht zwangsläufig, dass die Datei noch fehlerfrei und lesbar ist. Dieses Problem ist auch nicht auf Backups beschränkt, sondern gilt genau so für Datein im Arbeitsverzeichnis auf dem Rechner. Man weiß eben erst, wenn man die Datei nutzen möchte, ob sie noch funktioniert.

 

Und wie ich schon geschrieben habe halte ich persönlich Backup-Medien, die man einmal erstellt und dann über Jahrzehnte nicht mehr anfasst (und damit aus den Augen verliert) für suboptimal. Man vierliert dann nämlich auch aus den Augen, ob die passende Lese-Hardware und ggf. Software noch verfügbar ist. Und wenn man sich nichtmal mehr an ein backup erinnert, dann nützt es noch weniger, weil man gar nicht mehr weiß, dass Daten überhaupt irgendwo irgendwie verfügbar sein sollten.

 

Hmmm... angefangen Mitte der 90er mit Atari auf 3,5" Disketten -> Kann ich heute nicht mehr lesen, da weder Atari, Diskdrive noch Software verfügbar

Dann PC mit Disketten -> kann ich heute nicht mehr lesen, da ich kein Diskdrive mehr habe

dann PC mit SyQuest und Iomega -> Habe die Laufwerke nicht mehr

dann CD-Rom etc. -> Habe noch ein externes laufwerk, aber der Abgesang hat schon lange begonnen. Das war mal Standausausstattung aller PCs

dann USB1-3-Anschluss-Geräte -> Nun, gibt Adapter, aber auch der Abgesang auf USB1-3 hat bereits begonnen

 

Daher habe ich vor vielen Jahren schon angefangen, die Daten stets auf die (noch) aktuellen Speichermedien mit umzuziehen.

Diesen Beitrag teilen


Link zum Beitrag
odensee

Wurde die 3-2-1-Regel schon erwähnt?


 

Diesen Beitrag teilen


Link zum Beitrag
Dandy

Es driftet langsam in "Admin-Nerd-Backup-Paranoia" ab ^_^

Tatsächlich praktiziere ich sowas wie 3-2-1. Ich habe eine externe Festplatte am Rechner und zwei externe Festplatten (2,5" USB HDDs) auf die ich, eher unregelmäßig als regelmäßig :blushing:, wichtige Ordner und Backups aufsynchronisiere (mittels FreeFileSync unter Windows). Eine der Platten wandert bei mir zuhause in den Tresor, die gelegentlich (1-2 mal im Jahr) gegen eine gleichartige Platte im Bankschließfach getauscht wird (Wohnungsbrandszenario). Dazu habe ich noch ein NAS, aber das ist weniger als Backup sondern eher für den Datentausch und permanente Verfügbarkeit (Medien und so) als FritzNAS realisiert. Da die angeschlossene HDD am NAS nur anläuft, wenn auch tatsächlich zugegriffen wird, ist deren Haltbarkeit gewärleistet (aber natürlich nie sicher). Wichtig ist in dem Zusammenhang übrigens auch, dass man Backupmedien hat, die nicht permanent am Rechner angeschlossen sind, falls es mal aus Softwaregründen (bspw. Virus) zu einem Totalverlust von Daten auf dem System kommt.

 

Meines Wissens nach sind Flash-Drives, egal ob USB-Sticks, Speicherkarten oder externe SSDs, für Backups eher schlecht geeignet, weil Flash-Zellen auch beim Lesen bzw. nur bei elektrischer Versorgung des Mediums aufgefrischt werden. Die Flash-Zellen verlieren ihre Ladung (== Information) mit der Zeit, wenn auch nur langsam. Klassische HDDs kennen dieses Problem nicht, da auf Magnetismus basierend. Günstiger sind sie obendrein, auch wenn das inzwischen kein so großer Faktor mehr ist (hatte mal 50€ pro 2TB externer USB HDD gezahlt).

 

Große Cloudanbieter wie Google oder Microsoft werden sicherlich nicht plötzlich aus dem Markt verschwinden. Allerdings kosten sie regelmäßig Geld für größeren Speicherplatz, den man für Backups wohl benötigen wird. Ich verwende nur die kostenlose Lösung von Onedrive mit 5GB, für Daten auf die ich von überall zugreifen will. Backups sind das keine, aber zusätzliche Redundanz. Sensible Daten würde ich darauf aber immer verschlüsseln. Gab ja schon diverse Datenlecks, selbst bei Microsoft. Eine großes verschlüsseltes Archiv lässt sich zudem leicht auf verschiedenen Medien sichern ohne ein Versionschaos anzurichten (spreche aus Erfahrung).

 

Was die Bankbelege angeht, so hatte ich schon einige Szenarien, in denen ich alte Daten gebraucht hatte. Bspw. für Einstandskurse oder Rückerstattung von Quellensteuer vergangener Jahre. Auch wenn man sein Vermögen bei Heirat, bspw. wegen Scheidung und Zugewinnausgleich braucht, steht man plötzlich vor der Situation, uralte Bankbelege zu benötigen. Je weiter das zurückliegt, desto schwieriger (und teurer) wird es, die von den Banken noch zu bekommen. Bei Wechsel der Bank oder deren Eigentümerwechsel/Schließung, sieht es dann ganz schlecht aus. Auch das habe ich schon bei einem Festgeldanbieter erleben müssen.

 

Aus meiner Erfahrung ist es also leider nötig, die Belege herunterzuladen. Die Banken verweisen bei der kurzen Haltedauer gerne auf den Datenschutz, was ich für vorgeschoben halte. Dass ich an meine eigenen Daten nach ein paar Jahren selbst nicht mehr drankomme, fordert sicherleich kein Datenschutzgesetz. Ich vermute dahinter eher Bequemlichkeit bei den Banken und evtl. eine Einnahmequelle für die Bereitstellung alter Daten für den Kunden. Ich würde mir vom Gesetzgeber da deutlich längere Speicherfristen der Banken wünschen. Was mich so daran nervt ist, dass es immer noch bei vielen Banken/Brokern extrem umständlich ist, sich alle Belege eines Jahres runterzuladen. Bei einigen muss man immer noch jedes einzelne Dokument anklicken und dann separat abspeichern. Kostet unnötig Zeit. Auch da wäre es gut, wenn ein Sammeldownload aller Dokumente für einen selbst wählbaren Zeitraum für die Banken vorgeschrieben wäre. Dann müsste man es nur alle paar Jahre mal machen.

 

 

Diesen Beitrag teilen


Link zum Beitrag
StE

Bitte nicht potentiell leicht paranoide Nerds dissen, deren Systeme die deutsche Wirtschaft ubiquitär am Laufen halten. Normale HDDs verwenden eine Magnetisierung und die Bits sind selbst im fabrikneuen Zustand physikalisch eigentlich schon gar nicht mehr lesbar. Nur durch allerschärfste Signalverarbeitungstricks gelingt es, die Bits als Signal von unter dem Rauschteppich wieder hervorzuholen. Daß da nicht viel Zeit in Jahren fehlt, damit unrekonstruierbare Sektorfehler entstehen, leuchtet ein. Echte Connoisseure verwenden daher wegen umfassender Prüfsummen und Redundanzmöglichkeiten ZFS: https://github.com/openzfs/zfs OP hat nicht verraten, ob es sich um private oder Firmen-Dokumente handelt. Wer es gern KISS haben will, kann sich an den Anforderungen an GmbHs orientieren. Nach 12 Jahren ist in aller Regel der Drops gelutscht (10 Jahre + Bilanz im Folgejahr + warten auf Neujahr). Noch länger laufende Vertragswerke passen gut und gern allesamt in einen Leitz. Und als Kopie auf eine jedes Jahr mal neu gebrannte DVD-RAM. Die Firma hat trotzdem alles auf Papier, solange es in Deutschland erlaubt ist. Alle 5 Jahre ist irgendein Kryptoverfahren plötzlich geknackt und jeder braucht für 13.000 Euro das Update auf vorläufig revisionssicheres SHA-512, weil sich ein Beamter im Ministerium das so wünscht.

Diesen Beitrag teilen


Link zum Beitrag
hattifnatt
vor 2 Stunden von Bolanger:

Ich mache mir eher Gedanken, wie ich die Qualität der vorhandenen Daten prüfen kann.

Da wären wohl checksum-Programme nützlich (hat robocopy leider nicht als Option).

Diesen Beitrag teilen


Link zum Beitrag
chirlu
vor 1 Stunde von Dandy:

Große Cloudanbieter wie Google oder Microsoft werden sicherlich nicht plötzlich aus dem Markt verschwinden. Allerdings kosten sie regelmäßig Geld für größeren Speicherplatz, den man für Backups wohl benötigen wird.

 

Ja, ich bezahle Strato monatlich 7,50 Euro für 1,1 TB Kapazität (etwa zu einem Drittel gefüllt). Darauf liegen generationelle Backups mittels Borg.

Diesen Beitrag teilen


Link zum Beitrag
Bolanger

Hat jemand eine Empfehlung, wie man einfach die Prüfsummen zweier Verzeichnisstämme vergleichen kann?

Diesen Beitrag teilen


Link zum Beitrag
stagflation
cd "Verzeichnis1"

find . \
   -type f \
   -exec /usr/bin/md5sum {} \; \
| sort -k 2 \
>/tmp/verzeichnis1.txt

cd "Verzeichnis2"

find . \
   -type f \
   -exec /usr/bin/md5sum {} \; \
| sort -k 2 \
>/tmp/verzeichnis2.txt

diff /tmp/verzeichnis1.txt /tmp/verzeichnis2.txt

# oder auch mit GUI
diffuse /tmp/verzeichnis1.txt /tmp/verzeichnis2.txt

 

Diesen Beitrag teilen


Link zum Beitrag
hattifnatt

Hier noch eine Übersicht für Windows-Tools:

 

Diesen Beitrag teilen


Link zum Beitrag
MichaelMueller

Wie man richtig Backups erstellt klingt nach einem weiteren Thread 

Diesen Beitrag teilen


Link zum Beitrag

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden

×
×
  • Neu erstellen...