it-swarm.com.de

Gibt es einen Grund, die primäre Partition/das primäre Laufwerk C von Windows klein zu halten?

In meinen Jobs vor fast zwei Jahrzehnten haben IT-Experten die Größe der Windows-Hauptpartition (Laufwerk C) im Vergleich zu den anderen Partitionen extrem klein gehalten. Sie würden argumentieren, dass dieser PC mit optimaler Geschwindigkeit läuft, ohne sich zu verlangsamen.

Der Nachteil ist jedoch, dass das Laufwerk C: leicht voll wird, wenn es klein gehalten wird. Bald können Sie keine neue Software mehr installieren, da der Speicherplatz knapp wird. Selbst wenn ich Software auf Laufwerk D: installiere, wird ein Teil davon immer nach C: kopiert, wodurch es voll wird.

Meine Frage ist diese Praxis noch gut? Warum wird es gemacht? Was sind die Hauptvorteile, wenn überhaupt? Eine offensichtliche ist, wenn die primäre Partition abstürzt, sind Ihre Daten in der sekundären sicher.

Der Grund, warum ich diese Frage stelle, ist, dass ich versuche, Visual Studio zu aktualisieren, und nicht, weil ich nur noch 24 MB in der primären Partition habe.

70
hk_

Der historische Grund für diese Vorgehensweise liegt höchstwahrscheinlich in den Leistungseigenschaften rotierender magnetischer Festplatten. Der Bereich auf sich drehenden Datenträgern mit der höchsten sequentiellen Zugriffsgeschwindigkeit sind die äußersten Sektoren (in der Nähe des Starts des Laufwerks).

Wenn Sie das gesamte Laufwerk für Ihr Betriebssystem verwenden, werden Ihre Betriebssystemdateien früher oder später (durch Aktualisierungen usw.) auf der gesamten Festplattenoberfläche verteilt. Um sicherzustellen, dass die Betriebssystemdateien physisch im schnellsten Festplattenbereich verbleiben, erstellen Sie am Anfang des Laufwerks eine kleine Systempartition und verteilen den Rest des Laufwerks auf beliebig viele Datenpartitionen.

Die Suchlatenz hängt zum Teil auch davon ab, wie weit sich die Köpfe bewegen müssen. Daher hat es bei Rotationsantrieben auch einen Vorteil, wenn alle kleinen Dateien etwas nahe beieinander liegen.

Diese Praxis hat mit dem Aufkommen des SSD-Speichers alle Vernunft verloren.

25
WooShell

Gibt es einen Grund, die primäre Partition/das primäre Laufwerk C von Windows klein zu halten?

Hier sind einige Gründe, dies zu tun:

  1. Alle Systemdateien und das Betriebssystem selbst befinden sich auf der primären Partition. Es ist besser, diese Dateien von anderer Software, persönlichen Daten und Dateien getrennt zu halten, da ein ständiges Einmischen in die bootfähige Partition und das Mischen Ihrer Dateien gelegentlich zu Fehlern führen kann, z. B. das versehentliche Löschen von Systemdateien oder Ordnern. Organisation ist wichtig. Aus diesem Grund ist die Größe der primären Partition niedrig - um Benutzer davon abzuhalten, alle ihre Daten dort abzulegen.
  2. Backups - Es ist viel einfacher, schneller und effektiver, eine kleinere Partition zu sichern und wiederherzustellen als eine größere, abhängig vom Zweck des Systems. Wie von @computercarguy in den Kommentaren angemerkt, ist es besser, bestimmte Ordner und Dateien zu sichern, als eine ganze Partition zu sichern, sofern dies nicht erforderlich ist.
  3. Es könnte die Leistung jedoch kaum merklich verbessern. Auf NTFS Dateisystemen gibt es auf jeder Partition die sogenannten Master File Tables und sie enthält Metadaten zu allen Dateien auf der Partition:

    Beschreibt alle Dateien auf dem Volume, einschließlich Dateinamen, Zeitstempel, Streamnamen und Listen von Clusternummern, in denen sich Datenströme befinden, Indizes, Sicherheitskennungen und Dateiattribute wie "schreibgeschützt", "komprimiert", "verschlüsselt" usw.

Dies könnte bringt einen Vorteil mit sich, der jedoch nicht bemerkt werden kann. Daher kann dies ignoriert werden, da es wirklich keinen Unterschied macht. @ WooShells Antwort bezieht sich eher auf das Leistungsproblem, obwohl es immer noch vernachlässigbar ist.

Eine andere Sache für note ist, dass es im Falle einer SSD + HDD viel besser ist, Ihr Betriebssystem auf der SSD und alle Ihre persönlichen Dateien/Daten auf der HDD zu speichern. Sie benötigen wahrscheinlich keine Leistungssteigerung durch eine SSD für die meisten Ihrer persönlichen Dateien, und Solid-State-Laufwerke für Privatanwender haben in der Regel nicht viel Speicherplatz, sodass Sie lieber nicht versuchen, sie mit persönlichen Dateien zu füllen .

Kann jemand erklären, warum diese Praxis gemacht wird und ist sie noch gültig?

Beschrieb einige der Gründe, warum es getan wird. Und ja, es ist immer noch gültig, obwohl es anscheinend keine gute Praxis mehr ist. Die bemerkenswertesten Nachteile sind, dass Endbenutzer verfolgen müssen, wo Anwendungen vorschlagen, ihre Dateien zu installieren und diesen Speicherort zu ändern (dies ist während fast jeder Softwareinstallation möglich, insbesondere wenn eine Experten-/erweiterte Installation möglich ist), sodass die bootfähige Partition nicht funktioniert. ' Es muss nicht voll sein, da das Betriebssystem gelegentlich aktualisiert werden muss. Ein weiterer Nachteil ist, dass beim Kopieren von Dateien von einer Partition auf eine andere diese tatsächlich kopiert werden müssen. Wenn sich die Dateien in derselben Partition befinden, werden lediglich die MFT und aktualisiert Die Metadaten müssen nicht die gesamten Dateien erneut schreiben.

Einige davon können leider weitere Probleme verursachen:

  1. Dies erhöht die Komplexität der Struktur, wodurch die Verwaltung schwieriger und zeitaufwendiger wird.
  2. Einige Anwendungen schreiben weiterhin Dateien/Metadaten auf die Systempartition (Dateizuordnungen, Kontextmenüs usw.), auch wenn sie auf einer anderen Partition installiert sind. Dies erschwert die Sicherung und kann zu Fehlern bei der Synchronisierung zwischen Partitionen führen. (Danke an @ Bobs Kommentar)

Um das Problem zu vermeiden, müssen Sie:

  1. Versuchen Sie immer, Anwendungen auf den anderen Partitionen zu installieren (ändern Sie den Standardinstallationspfad).
  2. Stellen Sie sicher, dass Sie nur wichtige Software auf Ihrer bootfähigen Partition installieren. Andere nicht so benötigte und unwichtige Software sollte außerhalb davon aufbewahrt werden.

Ich sage auch nicht, dass es die beste Idee ist, mehrere Partitionen mit einer kleinen primären zu haben. Es hängt alles vom Zweck des Systems ab, und obwohl es eine bessere Möglichkeit zum Organisieren Ihrer Dateien bietet, hat es auch Nachteile, die auf Windows-Systemen heutzutage mehr sind als die Vorteile.

Hinweis: Und wie Sie bereits erwähnt haben, werden die Daten, die sich in separaten Partitionen befinden, im Falle eines Ausfalls der bootfähigen Partition sicher aufbewahrt.

5
Fanatique

Kurze Antwort: Nicht mehr.

Nach meiner Erfahrung (über 20 Jahre IT-Adminship-Arbeit) ist der Hauptgrund für diese Vorgehensweise (andere sind unten aufgeführt), dass Benutzer Windows im Grunde nicht mit ihren Daten und ihrem Festplattenspeicher vertraut haben.

Windows hat sich lange Zeit als notorisch schlecht erwiesen, wenn es darum ging, im Laufe der Zeit stabil zu bleiben, sich selbst zu reinigen, die Systempartition intakt zu halten und bequem auf Benutzerdaten zuzugreifen. Benutzer haben es daher vorgezogen, die von Windows bereitgestellte Dateisystemhierarchie abzulehnen und ihre eigene außerhalb dieser zu rollen. Die Systempartition fungierte auch als Ghetto, um Windows die Möglichkeit zu verweigern, außerhalb ihrer Grenzen Chaos anzurichten.

  • Es gibt viele Produkte, einschließlich Produkte von Microsoft, die nicht sauber deinstalliert werden und/oder Kompatibilitäts- und Stabilitätsprobleme verursachen (die auffälligste Manifestation sind übrig gebliebene Dateien und Registrierungseinträge in der Umgebung und DLL Hell in all seinen Inkarnationen). Viele vom Betriebssystem erstellte Dateien (Protokolle, Windows-Updates usw.) werden anschließend nicht bereinigt, was dazu führt, dass das Betriebssystem mit der Zeit immer mehr Speicherplatz beansprucht. In der Zeit von Windows 95 und sogarXPging der Rat so weit, hin und wieder eine Neuinstallation des Betriebssystems vorzuschlagen. Die Neuinstallation des Betriebssystems erforderte die Fähigkeit, das Löschen des Betriebssystems und seiner Partition zu gewährleisten (um auch falsche Daten im Dateisystem zu bereinigen) - unmöglich ohne mehrere Partitionen. Das Aufteilen des Laufwerks ohne Datenverlust ist nur mit speziellen Programmen möglich (die böse Überraschungen mit sich bringen können, z. B. das Ausstiegshilfen und das Versetzen von Daten in einen unbrauchbaren Zustand, wenn ein fehlerhafter Sektor festgestellt wird). Verschiedene "Aufräum" -Programme haben das Problem gelindert, aber da ihre Logik auf Reverse Engineering und beobachtetem Verhalten basiert, war es noch wahrscheinlicher, dass sie eine schwerwiegende Fehlfunktion verursachten, die eine Neuinstallation erzwang (z. B. wurde das Dienstprogramm RegClean von MS selbst nach Office abgebrochen) Veröffentlichung von 2007, die Annahmen über die zugrunde liegende Registrierung brach). Die Tatsache, dass viele Programme ihre Daten an beliebigen Orten gespeichert haben, hat die Trennung von Benutzer- und Betriebssystemdaten noch schwieriger gemacht, sodass Benutzer Programme auch außerhalb der Betriebssystemhierarchie installieren konnten.
    • Microsoft hat eine Reihe von Möglichkeiten ausprobiert, um die Stabilität mit unterschiedlichem Erfolg zu verbessern ( gemeinsam genutzte DLLs , Windows-Dateischutz und sein Nachfolger TrustedInstaller - Side-by-Side-Subsystem , ein separates Repository für .NET-Module mit Speicherstruktur, die Versions- und Herstellerkonflikte verhindert ). Die neuesten Versionen von Windows Installer verfügen sogar über eine rudimentäre Abhängigkeitsprüfung (wahrscheinlich der letzte große Paketmanager, der diese Funktion im Allgemeinen enthält).
    • In Bezug auf die Einhaltung der Best Practices durch Software von Drittanbietern wurde zwischen der Aufrechterhaltung der Kompatibilität mit schlampig geschriebener, aber ausreichend verwendeter Software unterschieden (andernfalls würden die Benutzer nicht auf eine neue Windows-Version aktualisieren) Kludges und Workarounds im Betriebssystem, einschließlich undokumentiertem API-Verhalten, Live-Patching von Programmen von Drittanbietern zur Behebung von Fehlern und einige Ebenen der Registry- und Dateisystemvirtualisierung - und zwischen dem Forcen Drittanbieter müssen Maßnahmen wie ein Zertifizierungslogo-Programm und ein Fahrersignaturprogramm einhalten (ab Vista obligatorisch).
  • Benutzerdaten, die unter einem langen Pfad unter dem Benutzerprofil vergraben waren, machten es unpraktisch, nach Pfaden zu suchen und diese anzugeben. Die Pfade verwendeten auch lange Namen , hatten Leerzeichen (eine Fluch von Befehlsshells überall) und nationale Zeichen (ein Hauptproblem für Programmiersprachen mit Ausnahme neuerer, die umfassende Unicode-Unterstützung bieten) und waren länderspezifisch (!) Und ohne winapi-zugriff nicht erreichbar (!!) (um jegliche internationalisierungsbemühungen in skripten zunichte zu machen), was auch nicht weiter geholfen hat.
    Ihre Daten im Stammverzeichnis eines separaten Laufwerks zu haben, wurde als praktischere Datenstruktur angesehen als die von Windows bereitgestellte.
    • Dies wurde nur in sehr aktuellen Windows-Versionen behoben. Die Pfade selbst wurden in Vista korrigiert, indem lange Namen komprimiert, Leerzeichen und lokalisierte Namen entfernt wurden. Das Browsing-Problem wurde in Win7 behoben, das Startmenü-Einträge sowohl für das Stammverzeichnis des Benutzerprofils als auch für die meisten anderen darunter befindlichen Verzeichnisse und Dinge wie dauerhafte "Favoriten" -Ordner in Dateiauswahldialogen mit sinnvollen Standardeinstellungen wie Downloads bereitstellte, um die Notwendigkeit zu speichern stöbern Sie jedes Mal danach.
  • Insgesamt haben die Bemühungen der MS am Ende Früchte getragen. Seit Win7 sind das Betriebssystem, die Bestandssoftware und die Software von Drittanbietern, einschließlich Bereinigungsdienstprogrammen, stabil genug und die Festplatten groß genug, damit das Betriebssystem für die gesamte Lebensdauer einer typischen Workstation keine Neuinstallation erfordert. Und die Bestandshierarchie ist nutzbar und zugänglich genug, um sie tatsächlich zu akzeptieren und in der täglichen Praxis zu verwenden.

Sekundäre Gründe sind:

  • Frühe Software (Dateisystem- und Partitionsunterstützung in BIOS und Betriebssystemen) blieb bei der Unterstützung großer Datenmengen hinter den Festplatten zurück, sodass die Festplatte in Teile aufgeteilt werden musste, um die volle Kapazität nutzen zu können.
    • Dies war vor allem unter DOS und Windows 95 ein Problem. Mit dem Aufkommen von FAT32 (Windows 98) und NTFS (Windows NT 3.1) wurde das Problem vorerst weitgehend gelöst.
    • Die kürzlich aufgetretene 2-TB-Barriere wurde durch die jüngste Generation von Dateisystemen ( ext4 und neueste Versionen von NTFS ), GPT und 4k-Festplatten behoben.
  • Verschiedene Versuche zur Leistungsoptimierung. Rotationsfestplatten sind beim Lesen von Daten von äußeren Spuren (die den Startsektoren zugeordnet sind) etwas (etwa 1,5-mal) schneller als die inneren, was darauf hindeutet, häufig aufgerufene Dateien wie Betriebssystembibliotheken und Auslagerungsdateien am Anfang der Festplatte zu suchen.
    • Da auf Benutzerdaten auch sehr oft zugegriffen wird und die Neupositionierung des Kopfes einen noch größeren Einfluss auf die Leistung hat, ist die Verbesserung der realen Nutzung, abgesehen von sehr spezifischen Arbeitslasten, bestenfalls marginal.
  • Mehrere physische Festplatten. Dies ist eine ungewöhnliche Konfiguration für eine Workstation, da eine moderne Festplatte häufig für sich genommen ausreichend groß ist und auf Laptops nicht einmal Platz für eine zweite Festplatte vorhanden ist. Bei den meisten, wenn nicht allen Stationen, die ich mit diesem Setup gesehen habe, handelt es sich um Desktops, die ältere Festplatten (wieder) verwenden, die noch betriebsbereit sind und sich auf die erforderliche Größe summieren - andernfalls sollte entweder ein RAID verwendet werden oder eines der Laufwerke sollte halten Backups erstellen und nicht regelmäßig verwenden.
    • Dies ist wahrscheinlich der einzige Fall, in dem das Aufteilen von System und Daten in separate Volumes einen echten Gewinn bringt: Da sie sich physisch auf unterschiedlicher Hardware befinden, kann auf sie parallel zugegriffen werden (es sei denn, es handelt sich um zwei PATA-Laufwerke mit demselben Kabel) und es gibt keine Leistung Beim Umschalten auf die Kopfpositionierung drücken.
      • Um die Windows-Verzeichnisstruktur wiederzuverwenden, verschiebe ich normalerweise C:\Users auf das Datenlaufwerk. Das Verschieben eines einzelnen Profils oder auch nur von Documents, Downloads und Desktop erwies sich als minderwertig, da andere Teile des Profils und Public ebenfalls unkontrolliert wachsen können (siehe "Separate Konfiguration und Daten" weiter unten).
    • Obwohl die Datenträger zu einem übergreifenden Volume zusammengefasst werden können, verwende oder empfehle ich dies nicht, da es sich bei Dynamic Volumes um eine proprietäre Technologie handelt, mit der Tools von Drittanbietern Probleme haben, und weil bei Ausfall eines der Laufwerke das gesamte Laufwerk ausfällt Lautstärke geht verloren.
  • Eine M.2 SSD + HDD.
    • In diesem Fall empfehle ich eher, SSD ausschließlich als Cache zu verwenden: Auf diese Weise erhalten Sie den Vorteil einer SSD für Ihr gesamtes Datenarray und nicht nur für einen beliebigen Teil davon, und was beschleunigt wird, wird automatisch von dem bestimmt, was Sie tatsächlich tun Zugang in der Praxis.
    • In jedem Fall ist diese Konfiguration in einem Laptop einer einzelnen SSD unterlegen, da Festplatten auch unempfindlich gegen Erschütterungen und Vibrationen von außen sind, die bei Laptops sehr häufig auftreten.
  • Dual-Boot-Szenarien. Im Allgemeinen können zwei Betriebssysteme nicht gleichzeitig auf einer Partition vorhanden sein. Dies ist das einzige mir bekannte Szenario, das mehrere Partitionen auf einer Workstation garantiert. Und Use Cases dafür sind heutzutage ohnehin selten, da jede Workstation jetzt leistungsfähig genug ist, um VMs auszuführen.
  • Auf Servern gibt es eine Reihe anderer gültiger Szenarien - aber keines davon gilt für die Domäne des Super Users.
    • Z.B. Man kann persistente Daten (Programme und Konfiguration) von sich ändernden Daten (App-Daten und Protokolle) trennen, um zu verhindern, dass eine außer Kontrolle geratene App das gesamte System zerstört. Es gibt auch verschiedene spezielle Anforderungen (z. B. in einem eingebetteten System befinden sich dauerhafte Daten häufig in einem EEPROM, während Arbeitsdaten auf einem RAM -Laufwerk gespeichert sind). Der Filesystem Hierarchy Standard von Linux eignet sich gut für solche Optimierungen.
4
ivan_pozdeev

Ich bin ein Softwareentwickler, habe aber auch Zeit mit "normaler"/Back-Office-IT-Arbeit verbracht. Ich behalte normalerweise das Betriebssystem und die Anwendungen auf Laufwerk C: und meine persönlichen Dateien auf Laufwerk D :. Dies müssen nicht unbedingt separate physische Laufwerke sein, aber derzeit verwende ich eine relativ kleine SSD als mein "System" -Laufwerk (C :) und ein "traditionelles" Festplattenlaufwerk (dh mit rotierenden Magnetplatten) als mein "Zuhause". fahren (D :).

Alle Dateisysteme sind fragmentiert. Bei SSDs ist dies im Grunde kein Problem, bei herkömmlichen Festplatten jedoch immer noch.

Ich habe festgestellt, dass Fragmentierung die Systemleistung erheblich beeinträchtigen kann. Ich habe zum Beispiel festgestellt, dass ein vollständiger Build eines großen Softwareprojekts nach der Defragmentierung meines Laufwerks um über 50% verbessert wurde - und der betreffende Build dauerte fast eine Stunde. Das war also nicht ein trivialer Unterschied.

Wenn ich meine persönlichen Dateien auf einem separaten Datenträger aufbewahre, habe ich festgestellt:

  • das Systemvolumen wird nicht annähernd so schnell (oder stark) fragmentiert.
  • das Defragmentieren der beiden separaten Volumes ist viel schneller als bei einem einzelnen Volume mit allem, was darauf gespeichert ist. Jedes Volume benötigt 20% bis 25% der Zeit, die das kombinierte Volume benötigt.

Ich habe dies auf mehreren PC-Generationen mit mehreren Windows-Versionen beobachtet.

(Ein Kommentator wies darauf hin, dass dies auch das Erstellen von Backups erleichtert.)

Ich sollte beachten, dass die von mir verwendeten Entwicklungstools dazu neigen, eine große Anzahl temporärer Dateien zu generieren, die anscheinend einen wesentlichen Beitrag zur Fragmentierung leisten. Der Schweregrad dieses Problems hängt also von der verwendeten Software ab. Möglicherweise bemerken Sie keinen oder nur einen geringen Unterschied. (Aber es gibt auch andere Aktivitäten - zum Beispiel Video-/Audiokomposition und -bearbeitung -, die E/A-intensiv sind und je nach verwendeter Software eine große Anzahl von temporären Dateien/Zwischendateien erzeugen können. Mein Punkt ist, nicht schreiben Dies wirkt sich nur auf eine Benutzerklasse aus.)

Einschränkung: Mit neueren Windows-Versionen (ab 8) ist dies sehr viel schwieriger geworden, da Benutzerordner auf einem anderen Volume als C: nicht mehr offiziell unterstützt werden. Ich kann Ihnen sagen, dass ich kein direktes Upgrade von Windows 7 auf Windows 10 durchführen konnte, aber YMMV (Es gibt verschiedene Möglichkeiten, einen Benutzerordner [neu] zu finden, ich weiß nicht, welche davon betroffen sind). .

Ein zusätzlicher Hinweis: Wenn Sie zwei separate Volumes auf einem herkömmlichen Laufwerk verwalten, möchten Sie möglicherweise eine Auslagerungsdatei auf dem Volume D: einrichten. Aus den in der Antwort von WooShell beschriebenen Gründen wird die Suchzeit beim Schreiben in die Auslagerungsdatei verkürzt.

4
David

Früher habe ich ein bisschen IT-Arbeit geleistet, und hier ist, was ich weiß und woran ich mich erinnere.

In der Vergangenheit gab es, wie andere gesagt haben, einen echten Vorteil, wenn eine kleine C-Partition am Anfang der Festplatte vorhanden war. Sogar heute in einigen Laptops der unteren Preisklasse könnte dies noch zutreffen. Wenn Sie eine kleinere Partition haben, ist die Fragmentierung geringer, und wenn Sie die Partition am Anfang der Festplatte belassen, können Sie besser suchen und damit die Zeiten ablesen. Dies gilt auch heute noch für Laptops (normalerweise) und langsamere "grüne" Festplatten.

Ein weiterer großer Vorteil, den ich heute noch nutze, ist, dass "data" und "os" auf getrennten Laufwerken gespeichert sind oder dass ich diese getrennten Partitionen nicht verwalten kann. Es gibt keine wirkliche Geschwindigkeitssteigerung, wenn SSD oder noch schnellere Magnetlaufwerke verwendet werden, aber es gibt eine große Option zur "einfachen Behebung", wenn das Betriebssystem irgendwann tankt. Tauschen Sie einfach das Laufwerk aus oder führen Sie einen neuen Ghost für diese Partition durch. Die Daten des Benutzers sind intakt. Bei ordnungsgemäßer Einrichtung ist die Neuinstallation von Windows zwischen Laufwerk D: und "Roaming-Profilen" innerhalb von 5 Minuten kein Problem. Das macht es zu einem guten Schritt für einen Level 1 Tech.

3
coteyr

Vor fast zwei Jahrzehnten hätte die Bandbreite von Windows 98 bis XP dominiert, einschließlich NT4 und 2000 auf der Workstation-/Serverseite.

Alle Festplatten wären auch PATA- oder SCSI-verkabelte Magnetspeicher, da SSDs mehr kosten als der Computer und SATA nicht vorhanden ist.

Wie die Antwort von WooShell besagt, sind die unteren logischen Sektoren auf dem Laufwerk (außerhalb von Platter) in der Regel die schnellsten. Meine Velociraptor-Laufwerke mit 1 TB WDC starten mit 215 MB/s, fallen aber in den äußeren Sektoren auf 125 MB/s ab, was einem Rückgang von 40% entspricht. Und dies ist ein 2,5 "-Laufwerk Platter-Laufwerk, sodass bei den meisten 3,5" -Laufwerken im Allgemeinen ein immer größerer Leistungseinbruch zu verzeichnen ist ( mehr als 50% ). Dies ist der Hauptgrund dafür, dass die Hauptpartition klein bleibt. Dies gilt jedoch nur, wenn die Partition im Verhältnis zur Größe des Laufwerks klein ist.

Der andere Hauptgrund, die Partition klein zu halten, war, wenn Sie FAT32 als Dateisystem verwendeten, das keine Partitionen mit mehr als 32 GB unterstützte. Wenn Sie NTFS verwendeten, wurden Partitionen mit bis zu 2 TB vor Windows 2000 und bis zu 256 TB unterstützt.

Wenn Ihre Partition im Verhältnis zur Menge der zu schreibenden Daten zu klein war, ist es einfacher, sie zu fragmentieren und schwieriger zu defragmentieren. Von dir kann gerade aus dem Weltraum rennen, wie was mit dir passiert ist. Wenn Sie im Verhältnis zur Partitions- und Clustergröße zu viele Dateien hatten, kann die Verwaltung der Dateitabelle problematisch sein und die Leistung beeinträchtigen. Wenn Sie dynamische Volumes aus Redundanzgründen verwenden, sparen Sie Speicherplatz auf den anderen Datenträgern, wenn Sie die redundanten Volumes so klein wie nötig halten.

Heutzutage ist das anders, der Client-Speicher wird von Flash-SSDs oder Flash-beschleunigten Magnetlaufwerken dominiert. Speicher ist im Allgemeinen ausreichend vorhanden, und es ist einfach, einer Workstation mehr Speicher hinzuzufügen, während Sie in den PATA-Tagen möglicherweise nur eine einzige unbenutzte Laufwerksverbindung für zusätzliche Speichergeräte hatten.

Ist das also immer noch eine gute Idee oder hat sie irgendeinen Nutzen? Das hängt davon ab, welche Daten Sie speichern und wie Sie sie verwalten. Meine Workstation C: hat nur 80 GB, aber der Computer selbst verfügt über deutlich mehr als 12 TB Speicher, der auf mehrere Laufwerke verteilt ist. Jede Partition enthält nur einen bestimmten Datentyp, und die Clustergröße entspricht sowohl dem Datentyp als auch der Partitionsgröße, wodurch die Fragmentierung nahe 0 bleibt und die MFT nicht unangemessen groß wird.

Der Nachteil besteht darin, dass nicht verwendeter Speicherplatz vorhanden ist, die Leistungssteigerung dies jedoch mehr als ausgleicht. Wenn ich mehr Speicherplatz möchte, füge ich mehr Laufwerke hinzu. C: Enthält das Betriebssystem und häufig verwendete Anwendungen. P: Enthält weniger häufig verwendete Anwendungen und ist eine 128-GB-SSD mit einer geringeren Haltbarkeit beim Schreiben als C :. T: befindet sich auf einer kleineren SLC-SSD und enthält temporäre Benutzer- und Betriebssystemdateien, einschließlich des Browser-Cache. Video- und Audiodateien sowie Images, Backups und archivierte Daten von virtuellen Maschinen werden magnetisch gespeichert. Diese haben im Allgemeinen eine Clustergröße von 16 KB oder mehr, und Lese-/Schreibvorgänge werden vom sequenziellen Zugriff dominiert. Ich defragmentiere nur einmal im Jahr auf Partitionen mit hohem Schreibvolumen, und es dauert ungefähr 10 Minuten, um das gesamte System zu bearbeiten.

Mein Laptop hat nur eine einzige 128 GB SSD und einen anderen Anwendungsfall, daher kann ich nicht dasselbe tun, aber ich teile mich immer noch in 3 Partitionen auf: C: (80 GB Betriebssysteme und Programme), T: (8 GB Temp.) Und F: ( 24 GB Nutzerdateien), mit denen sich die Fragmentierung gut kontrollieren lässt, ohne Speicherplatz zu verschwenden. Der Laptop wird ersetzt, lange bevor mir der Speicherplatz ausgeht. Dies erleichtert auch das Sichern erheblich, da F: die einzigen wichtigen Daten enthält, die sich regelmäßig ändern.

3
Richie Frame

Nein, nicht mit Windows und seinen wichtigsten Softwarepaketen, die auf Systembindungen bestehen, obwohl sie unter Programme: installiert wurden. (Es ist eine institutionalisierte Notwendigkeit, wie die meisten Betriebssysteme aufgebaut sind.) Ein Datenvolumen ist sinnvoll, aber ein separates Wechseldatenträger für Ihre Daten (oder NAS oder selektive oder inkrementelle Sicherungen auf einem solchen Wechseldatenträger) ist noch sinnvoller.

Eine Partitionierung für Systeme mit mehreren Betriebssystemen ist ebenfalls sinnvoll, aber jede Partition zwingt Sie dazu, ein festes oberes Speicherlimit festzulegen. Im Allgemeinen ist es auch in diesem Fall mit separaten Laufwerken besser.

Heutzutage ergänzen virtuelle Maschinen und Cloud-Laufwerke viele dieser Möglichkeiten.

2

Hier ist ein Grund, aber ich glaube nicht, dass dies ein gültiger Grund für die heutigen (modernen) Computer ist.

Dies geht auf Windows 95/98 und XT zurück. Dies trifft wahrscheinlich nicht auf Vista und höher zu, war jedoch eine Hardware-Einschränkung. Wenn Sie also ein neueres Betriebssystem auf alter Hardware ausführen, muss die Einschränkung weiterhin behoben werden.

Ich glaube, die Beschränkung war 2 GB, aber es könnte zu einem früheren Zeitpunkt eine 1 GB-Beschränkung (oder vielleicht auch andere) gegeben haben.

Das Problem war (in etwa) Folgendes: Die BOOT-Partition musste sich innerhalb der ersten 2 GB (möglicherweise 1 GB früher) des physischen Speicherplatzes auf dem Laufwerk befinden. Es könnte sein, dass 1) der START der BOOT-Partition innerhalb der Grenzen des Limits liegen musste, oder 2) die GESAMTE Boot-Partition innerhalb der Grenzen des Limits liegen musste. Es ist möglich, dass zu verschiedenen Zeiten jeder dieser Fälle zutrifft, aber wenn # 2 zutrifft, war es wahrscheinlich kurzlebig, also nehme ich an, dass es # 1 ist.

Bei # 1 musste der START der BOOT-Partition also innerhalb der ersten 2 GB des physischen Speicherplatzes liegen. Dies würde nicht ausschließen, dass 1 große Partition für das Boot/OS erstellt wird. Das Problem war jedoch Dual-/Multi-Boot. Wenn es jemals möglich zu sein schien, das Laufwerk dual/multi zu booten, musste unterhalb der 2-GB-Marke Speicherplatz verfügbar sein, um andere bootfähige Partitionen auf dem Laufwerk zu erstellen. Da bei der Installation möglicherweise nicht bekannt ist, ob das Laufwerk jemals eine andere Startpartition benötigt, z. B. Linix, oder eine bootfähige Debug-/Fehlerbehebungs-/Wiederherstellungspartition, wurde häufig empfohlen (und oft ohne zu wissen, warum), auf einer "kleinen" Partition zu installieren "Betriebssystem - Startpartition.

2
Kevin Fegan

Ich frage mich, ob Ihre jahrzehntealte IT-Abteilung sich Gedanken über Backup gemacht hat. Da es sich bei C: um eine Boot/OS-Partition handelt, wird normalerweise eine Art Imagesicherung verwendet. Für eine Daten-/Programmpartition kann jedoch eine inkrementelle Datei- und Ordnersicherung verwendet werden. Das Reduzieren des in der C: -Partition verwendeten Speicherplatzes würde die Zeit und den Speicherplatz reduzieren, die zum Sichern eines Systems erforderlich sind.


Ein Kommentar zu meiner persönlichen Nutzung der C: -Partition. Ich habe ein Multi-Boot-System, einschließlich Win 7 und Win 10, und ich habe kein Betriebssystem auf der C: -Partition, nur die Boot-Dateien. Ich verwende die Windows-Systemabbildsicherung sowohl für Win 7 als auch für Win 10, und die Windows-Systemabbildsicherung enthält neben der Win 7- oder der Win 10-Partition immer auch die Partition C: (Boot) Daten und Programme auf der C: -Partition verringern den Zeit- und Platzbedarf für eine Systemabbildsicherung (oder stellen ihn bei Bedarf wieder her).


Ich verlasse diesen Abschnitt in meiner Antwort wegen der Kommentare unten.

Da mein System mehrere Startvorgänge ausführt, vereinfacht der Neustart in einem anderen Betriebssystem die Sicherung von Daten-/Programmpartitionen, da während der Sicherung keine Aktivitäten auf den Partitionen stattfinden. Ich habe ein einfaches Sicherungsprogramm geschrieben, das eine Ordner- und Dateikopie zusammen mit Sicherheits- und Analyseinformationen erstellt, aber es funktioniert nicht für Win 7- oder Win 10-Betriebssystempartitionen. Daher verwende ich die Systemimagesicherung für C ;, Win 7 und Win 10 OS-Partitionen.

2
rcgldr

Es gibt einen bestimmten Grund - die Verwendung von Volume-Snapshots.

Ein Volume-Snapshot ist eine Sicherung der gesamten Partition. Wenn Sie von einer solchen Art von Sicherung wiederherstellen, schreiben Sie die gesamte Partition neu und setzen das System effektiv auf den vorherigen Status zurück.

Ein Systemadministrator erstellt möglicherweise regelmäßig solche Snapshots, um jegliche Art von Softwarefehlern vorzubereiten. Sie können sie sogar auf einer anderen Partition desselben Laufwerks speichern. Aus diesem Grund soll die Systempartition relativ klein sein.

Bei Verwendung dieses Schemas werden Benutzer aufgefordert, ihre Daten auf dem Netzlaufwerk zu speichern. Bei Softwareproblemen kann ein Systemadministrator das System einfach in den Betriebszustand zurückversetzen. Das wäre äußerst zeitsparend im Vergleich zu einer manuellen Untersuchung und Behebung der Problemursachen.

2
enkryptor