Das Internet vergisst doch – und das ist manchmal ein Problem
Ich hab letzte Woche nach einem Tutorial gesucht das mir 2014 bei einem Webpack-Problem geholfen hat. Ich erinnere mich noch ungefähr worum es ging, ich erinnere mich an die Lösung – aber ich wollte die Quelle nochmal lesen. Der Link ist tot. Die Seite existiert nicht mehr. Wayback Machine hat eine Kopie von 2015, aber die Bilder fehlen und ein paar Code-Beispiele sind durch Encoding-Fehler unlesbar.
Wie verbreitet das ist
Studien zur Linkrot-Rate sind erschreckend: ein signifikanter Teil aller Links auf wissenschaftlichen Seiten, in Wikipedia-Artikeln und auf Nachrichtenwebsites führt nach einigen Jahren ins Leere. Für technische Blogs und Foren ist die Rate wahrscheinlich noch höher – Domains laufen aus, Hosting-Verträge enden, Leute hören auf zu bloggen und nehmen ihre Inhalte mit.
Das bedeutet: jedes Mal wenn jemand schreibt "hier ist die Lösung, Link unten" und der Link stirbt, ist diese Lösung für alle zukünftigen Sucher verloren. Stackoverflow-Antworten die auf externe Ressourcen verweisen verlieren an Wert. Code-Kommentare mit "Quelle: [toter Link]" sind frustrierend.
Was man dagegen tun kann
Wichtige Inhalte lokal archivieren. Nicht nur bookmarken – herunterladen oder in eine lokale Notiz kopieren. Ich mach das seit ein paar Jahren für alles was ich mehr als einmal brauchen werde.
Für eigene Inhalte: stabil hosten, Redirects setzen wenn sich URLs ändern, nicht einfach Seiten löschen ohne Nachfolger. Jeder Link der stirbt ist ein kleines Loch im kollektiven Gedächtnis des Webs.
Das Internet vergisst – schneller und stiller als es sollte.
← zurück zu Rants 📂 Archiv