Windows 10 braucht nicht mehr defragmentiert werden

Suche vergebens nach der Möglichkeit des defragmentierens. Geht das nun bei Win 10 automatisch?

8 Antworten zur Frage

Bewertung: 2 von 10 mit 1334 Stimmen

Videos zum Thema
YouTube Videos

Windows 10 braucht nicht mehr defragmentiert werden?

Seit der Einführung von NTFS muss nicht mehr defragmentiert werden, also spätestens seit Windows 2000.
Die Option gab es noch, weil man Festplatten auch mit FAT16 bzw. FAT32 formatieren konnte, aber auf NTFS war Defragmentieren noch nie notwendig, und nun hat man auch die Option komplett entfernt, weil sie keiner mehr braucht.
Kannst Du ganz kurz erklären, warum man bei NTFS nicht mehr defragmentieren muss? Das Problem mit den zerklüfteten Dateien gibts doch weiterhin?
Jein. Ja, es gibt "zerklüftete" Dateien. Nein, das ist kein Problem mehr. Das geht jetzt allerdings ziemlich tief in die Betriebssystemlehre hinein.
Falls du Englisch kannst:
NTFS - Wikipedia
Ich hab mal versucht, mich auf deutschen Seiten schlau zu machen - aber "fast ergebnislos". Die Meinungen waren sehr geteilt und die Gründe, die bei NTFS für oder gegen Defrag sprechen waren keine anderen als die, die bei FATxx auch schon gegolten haben / hätten.
Dass der Defrag nicht mehr notwendig sei, weil in einem Multitasking-System sowieso an mehreren Dateien gelesen wird und der Schreib-Lese-Kopf dadurch eh' hin und her springt, möchte ich eigentlich nicht gelten lassen - ausser vielleicht in einem sehr hoch belasteten Multitasking-System - bei mir jedenfalls tuts das nur sehr selten.
Ok, dann steigen wir ein wenig in die Filesystemtheorie ein
Warum entsteht überhaupt Fragmentierung? Wenn wir am Anfang Dateien auf die Festplatte legen, dann haben wir lauter jungfräuliche Blöcke auf der Platte, und wir können jede Datei in fortlaufenden Blöcken ablegen. Schwierig wird es aber, wenn wir Dateien später vergrößern, weil wir z.B. einen Text schreiben und der beim zweiten Abspeichern größer wird. Dann ist aber unter Umständen bereits eine neue Datei in die direkt darauffolgenden Blöcke geschrieben, und so muss unsere Datei in Blöcke erweitert werden, die nicht unmittelbar danach folgen: Die Datei ist fragmentiert. Und irgendwann ist jeder Block mindestens einmal beschrieben worden, und dann wird es ganz schwer. Wir müssen alte Dateien löschen und auf die Weise Blöcke wieder freigeben. Bei einem naiven Filesystem wie FAT16 werden die freigewordenen Blöcke einfach wieder in die Liste der verfügbaren Blöcke einsortiert und beim nächsten Beschreiben neu vergeben. Wir haben jetzt also keine Garantie mehr, dass wir Blöcke in ununterbrochener Reihenfolge bekommen, jetzt ist jede Datei fragmentiert. Weil jetzt der Lesekopf nur noch herumspringt, um die einzelnen Blöcke der Dateien zu finden, werden Festplattenzugriffe immer langsamer, und Aufräumen ist angesagt!
Soweit die Geschichte, wie sie uns seit DOS-Zeiten erzählt wird. Praktisch sieht es heute aber völlig anders aus.
1. Keine Festplatte nennt uns die Blöcke mehr in der Reihenfolge, in der sie tatsächlich auf den Magnetscheiben liegen. Alle heute verkauften Festplatten verwenden LBA. Das ist auch ein Erbe aus DOS-Zeiten. Das Verfahren, wie die Plattengeometrie an das Betriebssystem gemeldet wurden, hatte Einschränkungen bezüglich der maximalen Werte, die Zylinderzahl, Sektorzahl und Plattenzahl annehmen können: Maximal möglich waren 1024 Zylinder, 63 Sektoren und 16 Köpfe, was eine Festplattenkapazität von maximal 504 MByte ergibt - viel zu klein, um heutige Festplatten anzusprechen.
Also wurde LBA eingeführt, bei der 28 Bit verwendet werden, um die Blöcke zu adressieren, was maximal 128 GByte ergibt - egal, wie die Blöcke tatsächlich auf der Festplatte verteilt sind. Da aber auch 128-GByte-Platten längst Geschichte sind, gibt es inzwischen 48-Bit-LBA, welches theoretisch 128 Petabyte addressieren kann - das könnte noch ein paar Jahre reichen.
Was ist das Ergebnis: Eine Defragmentierung auf Betriebssystemebene ist ziemlich sinnlos, weil es keine Garantie gibt, dass Blöcke mit unmittelbar aufeinander folgenden Nummern auch wirklich unmittelbar hintereinander liegen. Das Betriebssystem hat keine Ahnung, wo die Daten tatsächlich auf der Festplatte liegen und kann deswegen auch nicht viel optimieren.
2. Alle Festplatten kommen mit einem Festplattencache. Dieser ist einige MByte groß, fasst also mehrere tausend Sektoren. Wenn eine Leseanfrage an die Festplatte gestellt wird, dann wird sie nach Möglichkeit erst einmal aus dem Cache beantwortet. Für kleine Dateien reicht das oft aus, wenn kurz zuvor die gleiche Datei schon einmal gelesen wurde. Schreibzugriffe werden immer erst einmal im Cache abgelegt.
Auf die Weise kann die Festplatte vor allem die Schreibaufträge selbst sortieren. D.h. sie wird unmittelbar aufeinanderfolgende Blöcke auch dann unmittelbar aufeinanderfolgend schreiben, wenn sie nicht zur gleichen Datei gehören. Und sie wird das Springen der Köpfe wegen einer stark fragmentierten Datei entzerren, weil sie nur dann den Block schreibt, wenn sie - bildlich gesprochen - gerade Zeit und sowieso in der Gegend zu tun hat.
3. Heutige Festplatten reservieren einen Teil der Kapazität als Ersatzblöcke. Wenn ein Block nicht mehr richtig les- oder schreibbar ist, wird er im Festplattencontroller als defekt gekennzeichnet und ein Block aus der Reserve bekommt seine Blocknummer. Dieser Reserveblock liegt garantiert nicht in direkt neben den Blöcken mit den Nachbarnummern. Selbst wenn du Glück hattest und einige Blöcke mit aufeinanderfolgenden Nummern tatsächlich hintereinander auf der Festplatte gelegen hatten - je älter die Festplatte ist, desto wahrscheinlicher wird es, dass einige Blöcke bereits durch Ersatzblöcke ersetzt wurden, die ursprünglich nicht fragmentierte Datei ist es nun, ohne dass irgendjemand eine Ahnung davon hat.
4. Entwickler moderner Betriebssysteme kennen das Problem der Fragmentierung natürlich zur Genüge, und sie wenden einige Tricks an, um es zu umgehen. Sie fragmentieren z.B. absichtlich! Und zwar wird meistens nach etwa 2 MByte die Blocknummerierung unterbrochen und an einer anderen Stelle fortgesetzt. Auf die Weise haben wir nicht mehr das Problem mit einer Fragmentierung aller 512 Byte , sondern nur noch aller 2 MByte , also wird unser Problem auf einem Schlag nur noch ein Viertausendstel so schlimm, da wir fast immer die Garantie haben, dass die nächsten 4000 Blöcke hintereinander liegende Nummern haben. Auch sind die Blöcke in B*-Bäumen organisiert, die nach dem Ende einer fortlaufenden Nummerierung der Blöcke eine sehr schnelle Suche nach der Fortsetzung erlaubt und gleichzeitig für eine optimale Verteilung der Blöcke auf der Festplatte sorgt - egal in welcher Reihenfolge die Blöcke nun tatsächlich auf der Festplatte liegen. Der Ansatz stammt aus der Datenbankentwicklung, wo das Problem schon in den 1960er und 1970er Jahren bekannt und gelöst wurde. Auch lassen moderne Betriebssysteme beim Beginn einer neuen Datei immer, wenn möglich, einige Blöcke zur vorhergehenden Datei Abstand, damit die weiter wachsen kann, ohne fragmentiert zu werden.
5. Moderne Betriebssystem richten im RAM des Rechners einen eigenen Cache ein, in dem oft benötigte Daten wie z.B. die Verzeichnisstruktur abgelegt sind. Damit entfällt das ständige Nachladen von der Festplatte. Wenn die Platte wenig belastet ist, wird der Fesplattencache auf die Platte geschrieben - aber nun in optimierter Reihenfolge, nicht jede Datei einzeln, sondern die Blocknummern in aufsteigender Reihenfolge. Auf die Weise spielt die Fragmentierung keine praktische Rolle mehr.
Das klingt für mich logisch und nachvollziehbar; , dass Du Dir soviel Mühe gegeben hast.
Um ein Zitat aus "My fair Lady" zu bringen:
"Ich glaub, jetzt hab ich's