Festplattenspeicher zuverlässig?
#1
Immer mehr 'verkappte' Computer tauchen heute auf, deren Aufgabe es ist, multimediale Daten zu speichern und wiederzugeben. Wer viel will, der kommt an festplattengestützten Geräten nicht herum. Doch wie steht es mit der Zuverlässigkeit?

Platten...
► ... fallen aus, weil sie zu oft ge- und dismountet wurden (Gerücht)
► ... können fremdmagnetisiert werden
► ... können durch Erschütterungen kaputt gehen
► ... gehen einfach so kaputt

Wenn man sich da mit viel Liebe Spiellisten einrichtet, sich stundenlang mit dem Setup rumquält, bis das Versprochene zumindest zu einem akzeptablen Teil realisiert ist, wenn man also viel Arbeit und Zeit investiert, dann möchte man das Gerät auch lange so benutzen können.

Angenommen man erstellt eine Kopie seines Platteninhalts auf eine gleichartige Platte und schließt diese Platte weg für den Fall der Fälle, wie groß ist das Risiko, dass die Platte allein durch ihre Lagerung Schaden nimmt?
Zitieren
#2
Zitat:highlander postete
......

Angenommen man erstellt eine Kopie seines Platteninhalts auf eine gleichartige Platte und schließt diese Platte weg für den Fall der Fälle, wie groß ist das Risiko, dass die Platte allein durch ihre Lagerung Schaden nimmt?
Meines erachtens ist die Gefahr als gering einzuordnen.
Die realistische Frage lautet eher wie lange willst Du lagern?
Denn nach zu langer Lagerzeit tritt das Wiederinbetriebnahmeproblem auf und zwar in der Form wo kann ich die Platte nach vielen Jahren noch anschließen und das Datenformat vernüftig nutzen.
Weiterhin die typischen Gefahrenrisiken wie z.B. Feuer
Mein Motto "Zitat" »Opa Deldok«: »Früher war alles schlechter. !!!!

Noa and Mira Awad
NOA Keren Or  

reVox B251 Revision und Modifikationsliste!

Zitieren
#3
Zitat:highlander postete
Platten...
► ... fallen aus, weil sie zu oft ge- und dismountet wurden (Gerücht)
Wie darf man denn das "Mounten" verstehen? Im Sinne von Unix? Dann wage ich zu behaupten, daß das nicht stimmt, denn dieser Vorgang (Zuordnen des Plattebereiches X zum Dateisystembereich Y) spielt sich zu 90% auf der Softwareebene ab und belastet die Hardware sicher nicht in besonderem Maße.
Zitieren
#4
Zitat:highlander postete
► ... gehen einfach so kaputt

Angenommen man erstellt eine Kopie seines Platteninhalts auf eine gleichartige Platte und schließt diese Platte weg für den Fall der Fälle, wie groß ist das Risiko, dass die Platte allein durch ihre Lagerung Schaden nimmt?
Dass sie einfach kaputt gehen, ist das größte Problem.

Begründung: Die Platte selbst kann ich nicht aus dem Laufwerk entfernen und in ein anderes einsetzen.

Ein Tonband (Magnetband, auch Cassette) bedeutet meist nur einen Teilverlust (wenns nicht gerade verbrennt) durch knicken, reißen etc. Auch wenn es herunterfällt, ist es nicht gleich zerstört. Das Abspielgerät spielt hier, wie auch in den nachfolgenden Medien, eine untergeordnete Rolle, da austauschbar.
Eine Schallplatte ist ebenfalls nicht zerstört - vielleicht kratzt sie, der Plattenspieler ist das kleinste Problem, man nimmt einen anderen.
Eine CD kann ich bei defektem Laufwerk in ein anderes legen - im Extremfall vielleicht mit einem Brenner, der in der Lage ist, Fehler zu ignoreren, auslesen.

Eine Festplatte zu zerlegen ist feinste Arbeit, die auch möglich ist, aber nicht von Hobby- bzw. Amateurusern.

Wie bereits richtig gepostet, kann ich hier nur spiegeln und die Spiegelung gut wegschließen.

Gruß Norbert
Zitieren
#5
Hallo,

was mich in dem Zusammenhang interessieren würde: Unter welchem Filesystem laufen die Teile eigentlich?

Die Dateisysteme von MS (FAT, NTFS) haben eine hohe Fragmentierungsneigung, bis zum Kollaps der Festplatte.
Jounal-Systeme, wie sie unter IBM- oder Unix-Betriebssystemen üblich sind, sind da pflegeleichter. Trotzdem: Wie stellt sich das in der Praxis dar, wenn der Datenbestand setig modifiziert wird?

Tschüß, Matthias M
Stapelbüttel von einem ganzen Haufen Quatsch
Zitieren
#6
Ich stehe Festplatten zutiefst mißtrauisch gegenüber. Selbst wenn sie robust gebaut sind, so gehören sie doch zur Kategorie "Verbrauchsmaterial".

Wenig Probleme sehe ich, wenn die Festplatte in einen PC eingebaut ist und einer routinemäßigen Datensicherung unterlliegt. Dann kann die Platte routinemäßig getauscht werden. Wenn sie überraschend kaputt geht, dann ist das Desaster begrenzt.

Diese ganzen Festplatten in den Kleingeräten haben in meinen Augen nur dann einen Sinn, wenn sie als Spiegel einer Harddisk entstehen, die wie oben beschrieben, einem professionellen Datensicherungssystem unterliegt.

Also: Playlist etc. auf dem PC generieren, das ist quasi der CD- und Plattenschrank, und dann auf den Porti runterschaufeln.
Michael(F)
Zitieren
#7
Zitat:Matthias M postete
was mich in dem Zusammenhang interessieren würde: Unter welchem Filesystem laufen die Teile eigentlich?
Wenn so ein Gerät vom PC aus per USB-Schnittstelle mit Daten bestückt wird (wie es bei tragbaren Mp3-Playern üblich ist), gibt es keine praktikable Alternative zu FAT, denn der Rechner (von dem man in den meisten Fällen annehmen muß, daß er unter MS Windows läuft) schreibt die Daten ja üblicherweise direkt auf das Dateisystem des Wiedergabegerätes.

Die stationären, Linux-basierten Geräte ohne direkte PC-Schnittstelle werden dagegen vermutlich ext2 oder ext3 nutzen.
Zitieren
#8
Es gibt aber auch genug Geräte, die ein propietäres System nutzen.
Hier ist dann dem Experimentiertrieb (Stichwort Festplatten aus der Settop-Box auslesen) schnell ein Ende gesetzt.

Auch in diesem Bereich wollen wohl viele Hersteller ihre Pfründe sichern :-)

Gruß,
Klaus
Zitieren
#9
Zitat:MrBean postete
Es gibt aber auch genug Geräte, die ein propietäres System nutzen.
Wie kriegt man denn da die Daten drauf? Mit einer PC-seitigen Client-Software, oder gibt es Treiber für das Dateisystem?
Zitieren
#10
Sicherlich fallen Festplatten auch mal aus, aber der Regelfall ist doch eine einwandfreie Funktion, wenn man diese nicht überhitzt oder außerhalb ihrer Parameter einsetzt. Die häufigste Ursache für Datenverlust sind mW übrigens "unsachgemäße Behandlung" und Nutzerfehler, nicht etwa Hardwaredefekte an Festplatten.

Je nach Wert der Daten sollte man ohnehin Verbrauchsmusik auch auf Verbrauchsfestplatten lagern, deren Verlust man verschmerzen kann, weil ja die Daten gesichert wurden. Je höher der Wert der Digitalien, desto sorgsamer sollte man sich um ein regelmäßiges Backup kümmern. Die Sicherheit steigt je mehr man unabhängig von der Funktion nur eines Gerätes wird, dies kann man zB durch einen Spiegel-RAID erreichen, dem Aufbau einer Festplattenfarm oder durch Brennen auf DVD/Massenspeicher/Streamern bei getrennter Lagerung der Paritätsdaten. Je mehr Paritätsdaten und Paritäts-HDs vorhanden sind, desto sicherer wird die Angelegenheit auch. Auch das verteilte Backup auf mehrere Rechner schützt vor Datenverlust. Sogar das Kopieren und Verteilen der Daten im Freundes- und Familienkreis erfüllt den Zweck eines zusätzlichen Backups, allenthalben wenn man die Urheberrechtsdiskussion mal außen vor läßt bietet sogar das Filesharing eine Art des "Super-backups" mit steigender Anzahl von verteilten zurückholbaren Transfers an Dritte. Dies erreicht man zwar nur, wenn man genügend Intressierte findet, aber es ist bei Raritäten durchaus möglich. Das ganze Spiel kann solange bis auf die Spitze treiben, bis man sich gegen alle Eventualitäten abgesichert hat.

Wenn heutzutage über ausfallende Festplatten geklagt wird, so liegt dies daran, daß die Nutzer meist billige HD's die nicht für den Dauerbetrieb gedacht waren, unsachgemäß ohne Backup haben laufen lassen, auf Rechnern die für eine Langzeitarchivierung nicht geeignet sind.

Ich habe bereits vor einigen Wochen zum Thema was geschrieben:

Einleitung
Praxis

Mal abgesehen davon, wieviel würdet ihr denn pro GB zahlen wollen, wenn ich euch Backup-Möglichkeiten nenne, wie man eine nahe 100% garantiert sichere Lagerungsmöglichkeit für sagen wir mal bis zu 5 Jahre organisiert. So skeptisch wie es hier anklingt, bin ich gerne bereit euch auch konkrete Angebote für ein Backup zu machen, mit Ausnahme von Naturkatastrophen kann ich euch bereits bereits heute einiges anbieten, nur gegen das allgemeine Lebensrisiko, kann ich euch kein Backup anbieten, das müsst ihr schon selbst tragen.

Sobald genügend Intressierte zusammenkommen, daß ich Rücklagen bilden kann um die wenigen Festplatten die dann noch ausfallen an professionelle Datenrettungsdienste zu übergeben, schwebt mir durchaus ein profitables Geschäft vor, ich wäre damit nicht der erste Backupdienst. Bereits nach kurzer Zeit braucht man als solcher Dienst nur noch juristische Streitfälle zu fürchten, aber auch dagegen kann mn sich versichern. Gerade auch weil ich privat und geschäftlich mittlerweile einiges an Erfahrungen gesammelt habe und dies ein Bombengeschäft wird, weil eben Festplatten nicht so ohne weiteres ausfallen und es einfach egal ist, wenn über ein gepflegtes und funktionierendes Backup verfügt.
Zitieren
#11
Zitat:Lego postete
Sicherlich fallen Festplatten auch mal aus, aber der Regelfall ist doch eine einwandfreie Funktion, wenn man diese nicht überhitzt oder außerhalb ihrer Parameter einsetzt. Die häufigste Ursache für Datenverlust sind mW übrigens "unsachgemäße Behandlung" und Nutzerfehler, nicht etwa Hardwaredefekte an Festplatten.
Wenn ich mir hier die IBM-Deskstar Serie anschaue, muss ich Dir leider widersprechen Wink
Sind übrigens nur IBM-gelabelt, in Wahrheit sinds Hitachi-Platten.

Gruß Norbert
Zitieren
#12
Zitat:Crazy postete
Sind übrigens nur IBM-gelabelt, in Wahrheit sinds Hitachi-Platten.
"Echte" IBM-Platten gibt's auch nur noch im hochpreisigen Server-Bereich. Die Sparte für Desktop-Festplatten hat IBM längst verkauft, und zwar an Hitachi. ;-)
Zitieren
#13
Fast richtig.

Zitat:Sind übrigens nur IBM-gelabelt, in Wahrheit sinds Hitachi-Platten.
Es sind heute Hitachi Platten, die auch als Hitachis verkauft werden, in Werken die ehemals IBM gehörten, die Technologie der HDs stammt von IBM, Technologietransfer halt. Umgelabel wird da nix, IBM hat sich komplett aus Bereich ruinösen Billig HD-Geschäft verabschiedet.

Dem reihenweisen Ausfall der billigen Verbrauchsfestplatten für Office-PCs stehen zigfach so viele Laufwerke vieler Hersteller entgegen, die auch noch nach Jahren noch funktionieren, insbesondere SCSI-Platten. Das damalige Problem mit den verklebten Lagern bei IBM ist natürlich eine Gschichte für sich, allerdings kann ich da nicht mitrefen, ich hatte damals nur IBM DTTP am laufen, von denen keine ausfiel, auch nicht im Servereinsatz. Ich persönlich kenne eigentlich nur kaputte Maxtor und bevorzuge seit etwa 2 Jahren Samsung-HDs. Verallgemeinerbare Aussagen kann ich aber über deren Qualität auch nicht machen, weil ich derzeit noch keine HD-Farm mit genügend großen Serien betreibe, sodass man einen Überblick bekommt.

Desweiteren gibt es verschiedene Güteklassen mit unterschiedlichen Cachegrößen und HDs die speziell auf Lebensdauer gezüchtet sind, gar nicht so viel teurer als die HDs in den gängigen Geschäften. Gerade hier sollte man aber nicht zu geizig sein und di C-Sortierung von Alternate und Aldi nehmen.
Zitieren
#14
Zitat:timo postete
Zitat:Crazy postete
Sind übrigens nur IBM-gelabelt, in Wahrheit sinds Hitachi-Platten.
"Echte" IBM-Platten gibt's auch nur noch im hochpreisigen Server-Bereich. Die Sparte für Desktop-Festplatten hat IBM längst verkauft, und zwar an Hitachi. ;-)
Genau
Zitieren
#15
Zitat:Lego postete
Sicherlich fallen Festplatten auch mal aus, aber der Regelfall ist doch eine einwandfreie Funktion, wenn man diese nicht überhitzt oder außerhalb ihrer Parameter einsetzt. Die häufigste Ursache für Datenverlust sind mW übrigens "unsachgemäße Behandlung" und Nutzerfehler, nicht etwa Hardwaredefekte an Festplatten.
Wir haben hier auf dem Dorf einen PC-Händler. Der hat defekte Platten wäschekorbweise bei sich herumliegen und klagt, heute wäre es so schlimm wie nie zuvor. Von Festplatten sollte man erwarten können, dass sie einem durchschnittlichen PC-Einsatz gewachsen sind.

Einige der modernen Festplatten sind bereits nach einer Stunde Betrieb glühend heiß. Was soll denn da noch überhitzen? Die gleichen Dinger stecken in unseren Servern und müssen teilweise wochenlang am Stück laufen. Interessanterweise fallen die aber so gut wie nie aus...

Zitat:Lego postete
Wenn heutzutage über ausfallende Festplatten geklagt wird, so liegt dies daran, daß die Nutzer meist billige HD's die nicht für den Dauerbetrieb gedacht waren, unsachgemäß ohne Backup haben laufen lassen, auf Rechnern die für eine Langzeitarchivierung nicht geeignet sind.
Das klingt fast so, als ob der Backup das Leben meiner Platte verlängert Smile In meiner Eingangsfrage ging es aber nicht um regelmäßigen Backup, sondern um die Sicherung eines Systems, dass sich nicht mehr verändert. Habe ich einmal alle Dateien auf den MP3-Spieler gebracht und die Playlist erstellt, so werde ich daran im Idealfall nichts mehr drehen. Wenn ich bei einem Ausfall der FP dann die Sicherungs-FP aus dem Schrank hole, hat sie dann diese Lagerung überstanden?
Zitieren
#16
Zitat:Lego postete
Fast richtig.

Zitat:Sind übrigens nur IBM-gelabelt, in Wahrheit sinds Hitachi-Platten.
Es sind heute Hitachi Platten, die auch als Hitachis verkauft werden, in Werken die ehemals IBM gehörten, die Technologie der HDs stammt von IBM, Technologietransfer halt. Umgelabel wird da nix, IBM hat sich komplett aus Bereich ruinösen Billig HD-Geschäft verabschiedet.

Dem reihenweisen Ausfall der billigen Verbrauchsfestplatten für Office-PCs stehen zigfach so viele Laufwerke vieler Hersteller entgegen, die auch noch nach Jahren noch funktionieren, insbesondere SCSI-Platten. Das damalige Problem mit den verklebten Lagern bei IBM ist natürlich eine Gschichte für sich, allerdings kann ich da nicht mitrefen, ich hatte damals nur IBM DTTP am laufen, von denen keine ausfiel, auch nicht im Servereinsatz. Ich persönlich kenne eigentlich nur kaputte Maxtor und bevorzuge seit etwa 2 Jahren Samsung-HDs. Verallgemeinerbare Aussagen kann ich aber über deren Qualität auch nicht machen, weil ich derzeit noch keine HD-Farm mit genügend großen Serien betreibe, sodass man einen Überblick bekommt.

Desweiteren gibt es verschiedene Güteklassen mit unterschiedlichen Cachegrößen und HDs die speziell auf Lebensdauer gezüchtet sind, gar nicht so viel teurer als die HDs in den gängigen Geschäften. Gerade hier sollte man aber nicht zu geizig sein und di C-Sortierung von Alternate und Aldi nehmen.
Wollte hier auch keine generelle Aussage treffen, jedoch ist mir diese Serie wirklich ziwider. Eine 60GB wurde mal im Rahmen der Garantie getauscht, auch die zweite hatte das übliche Problem, so dass selbst das BIOS nicht mehr in der Lage war, die Platte zu erkennen, exakt dasselbe passierte mit einer 40er derselben Serie. Alle drei Platten habei ich mit "DFT" (Drive Fitness Test) immer wieder zum Laufen bekommen, jedoch jedesmal mit Totalverlust der darauf enthaltenen Daten. Die 60er war ja "nur" meine mp3-Platte. Man gut, dass die alle nochmal auf DVD-R gesichert waren.
Andererseits habe ich noch eine ältere Deskstar-Platte (25GB) von 1999, die läuft nach wie vor hier in einem Rechner als System-Drive.
In meinem Hauptrechner habe ich jetzt eine 120er und eine 160er Seagate Barracuda - mal sehen, ob die gut sind. Mag mir (noch) kein Urteil erlauben. Fakt ist, dass sie definitiv leiser - eigentlich gar nicht zu hören sind - ganz im Gegensatz zu den Deskstar.

Gruß Norbert
Zitieren
#17
@ Timo:

Ich meinte hier Stand-Alone-Geräte, die per digitalen oder analogen Anschlüssen mit den "Daten" (sprich: der Musik) versorgt werden.

Die Elektronik schreibt dann die Daten in eben diesem propietären Format auf die Festplatte.

Etwas OT, aber ich hatte lange Zeit einen FOSTEX-16-Spur-Festplattenrecorder im Tonstudio im Einsatz. Hier war ein Backup nur mit FOSTEX-Zubehör möglich...

Gruß,
Klaus
Zitieren
#18
Zitat:highlander postete
Die gleichen Dinger stecken in unseren Servern und müssen teilweise wochenlang am Stück laufen. Interessanterweise fallen die aber so gut wie nie aus...
Bist Du sicher, daß das wirklich die gleichen Plattentypen sind? Wenn ein Server vom Hersteller als solcher verkauft wurde, ist er normalerweise mit speziellen SCSI-Serverplatten bestückt.

Weiterhin sind die Bedingungen, unter denen Platten in Servern eingesetzt werden, in mancherlei Beziehung besser als die bei Desktop-PCs. Ungünstiger Einbau, schlechte Belüftung und häufige Spin-Ups beim Systenneustart sind dort normalerweise kein Thema.

Zu Legos Aussage bzgl. Festplattenherstellern: Die Probleme mit Maxtor kann ich bestätigen, ebenso kommen Seagate, Western Digital, Conner Periphals und IBM in meinen Erfahrungen schlecht weg. Ein lupenreines Zeugnis kann ich nur Quantum (vor der Übernahme durch Maxtor) und Fujitsu ausstellen. Samsung scheint mir in Sachen Zuverlässigkeit und Langlebigkeit unter den momentan gängigen Platten die beste Wahl zu sein, wobei ich bei zwei älteren Platten der Marke (4,3 und 20,4 GB) auch schon mal Probleme mit der Elektronik hatte.
Zitieren
#19
Zitat:MrBean postete
Die Elektronik schreibt dann die Daten in eben diesem propietären Format auf die Festplatte.
Hat der Hersteller da wirklich ein komplett eigenes Dateisystem entwickelt? Das würde ja an Irrsinn grenzen. Wenn ich so bedenke, wie lange beispielsweise ReiserFS gebraucht hat, bis es zuverlässig funktioniert hat...
Zitieren
#20
Zitat:hat sie dann diese Lagerung überstanden?
Das ist bei keinem System sicher. Außer vielleichtbeim einritzen in Naturstein, da ist die Datendichte aber etwas gering. Wink
Die gelagerten Festplatten behalten die Daten sicherlich über eine sehr lange Zeit, aber ob die gelagerte Elektronik später noch funktioniert kann Dir keiner sagen. Ein "lebendes" System ist sicher das Beste. Bei den Tonbändern gab es das Problem doch auch schon. Keiner wußte, dass Bänder irgendwann anfangen zu kleben. Wenn ich die damals immer nur gelagert, aber nie gehört hätte, hätte ich sie irgendwann alle wegwerfen können, mit 100% Datenverlust. Ich habe sie aber gehört und konnte so noch etliches retten. Mit digitalen medien muß man etwas anders umgehen, da brauchts ein Backup um die Daten zu retten. Da die Speicher aber im Vergleich zu Tonbändern viel billiger und kleiner sind ist das ja kein Problem. Wenn das ganze dann noch "lebt" merkt man es rechtzeitig, wenn es Probleme gibt.
Ich habe da keine große Sorge, obwohl da wirklich viel Arbeit drinsteckt, da meine Musikdaten größtenteils selber digitalisiert sind. Ich habe identische Datensätze auf 2 stationären Rechnern, auf meinem Notebook und einem MP3-Player. Alle Geräte werden regelmäßig genutzt, so dass ein Datenverlust schnell erkannt wird.
Festplattenausfälle habe ich seit ich keine MFM-Platten mehr habe äußerst selten gehabt und wenn waren es eigentlich immer uralte Platten, auf denen sowieso keine wichtigen Daten mehr waren.

Grüße,
dieter
Zitieren
#21
Zitat:Crazy posteteWollte hier auch keine generelle Aussage treffen, jedoch ist mir diese Serie wirklich ziwider.
So ist es bei mir auch nicht angekommen.
Die meisten Beiträge und Diskussionen zu Festplatten sind aber leider sehr persönlich gefärbt. Seit etwa 2001 haben verringern sich die Garantiezeiten synchron zu den Preisen und der Qualität. Wenn ich mich recht entsinne wurde die Qualitätsabwärtsspirale zur selben zeit gestartet als billige RAID 0 Controller von Promise auf den Consumer-Boards gepackt wurden.

Aus dieser Zeit kommen auch die meisten Beiträge zu den IBM-Festplatten. Die wenigsten Käufer solcher IDE-Raids sind auf die Idee gekommen, daß sich eben IDE-HDs in RAID0 nicht mit kleinen Caches vertragen, zumal wenn man diese Billig-HDs für's Filesharing (emule, Kazaa) in den 24/7 Einsatz nimmt. Dafür waren sie nie ausgelegt.

Logisch auch, daß die Händler und Hersteller seitdem nur noch zurückhaltende Garantie und Kulanz gewährleisten. Ärgern sollte man sich über die Hersteller, die haben nie ein Geheimnis aus den Güteklassen gemacht, ärgern sollte man sich über so manche eigene Kaufentscheidung, das man sich vom Geiz hat übermannen lassen und meist nur geringfügige Differenzbeträge (10-50 DM) sparen wollte. Mein Händler hat zum Beispiel nie ein Geheimnis draus gemacht, was er von den Alternate-Platten hält. Ich habe sogar mal eine im Webserver-Testbetrieb nach nur 4 Tagen durchgejagt. Unser SCSI-Raid aus 4x2GB IBM im Webserver dagegen läuft heute noch nach mittlerweile 5 Jahren.


Ansonsten habe ich mittlerweile für mich selber rausgefunden, daß es eigentlich keinen Unterschied zwischen analoger und digitaler Archivierung gibt, denn auch Bänder/PVC müssen migriert, refresht, ordentlich gelagert und gebackupt werden. Der einzige für mich real jedderzeit ersichtliche Vorteil bei digitalen Daten ist, daß Kopien verlustfrei erstellt und einfacher migriert werden können. Bei analogen Daten wird (durch analoge Generationsverluste) jede weitere Kopie schlechter als der Vorgänger.

Wenn einem Analogi die Schallplatte auf die Terracottafliesen knallt und 3m drüber rutscht, so tut das in der Seele genauso weh, wie wenn mir meine HD im Wechselfestplatten runterknallt. In beiden Fällen ist es besser, Zugriff auf eine Kopie zu haben,
Zitieren
#22
Zitat:Lego postete

Aus dieser Zeit kommen auch die meisten Beiträge zu den IBM-Festplatten. Die wenigsten Käufer solcher IDE-Raids sind auf die Idee gekommen, daß sich eben IDE-HDs in RAID0 nicht mit kleinen Caches vertragen, zumal wenn man diese Billig-HDs für's Filesharing (emule, Kazaa) in den 24/7 Einsatz nimmt. Dafür waren sie nie ausgelegt.
Natürlich nicht - aber ob Du es glaubst oder nicht - Ich habe weder extremes File Sharing betrieben, noch habe ich die Platten entartet (RAID) - sie liefen immer über IDE-0 als Master, später, als ich dann merkte, was mit denen los ist, nur noch als Slave, damits nicht jedesmal ein Super-Gau wird.

Ich führe hierzu nochmal etwas genauer aus:

Es handelte sich bei mir um die Platten mit der Bezeichnung IC35LxxxAVER07-0.
Diese Platten fingen - ohne Vorwarnung - an, kratzende Geräusche zu machen, es klang wie es war: Sie suchten ihre Sektoren und fanden korrupte Daten darauf. Diese korrupten Daten/Sektoren hatten sie selber geschrieben, weil nämlich bei Dauerbetrieb dieser Platten Abrieb auf den Lese-/Schreibköpfen hängenblieb und somit fehlerhaft geschrieben wurde. Im besten Fall konnte man diese Platten mit Sector-Repair (im DFT enthalten) weitgehend wieder herstellen, dann aber ganz schnell Datensicherung betreiben, um anschließend mit dem DFT komplett die Grundinformation der Platte wieder herzustellen. Im schlimmsten Fall las die Platte derart schwere Fehler, dass selbst die am selben IDE angeschlossene Masterplatte nicht mehr erkannt wurde. IBM-Platte abhängen, nur mit Master booten, nachdem man das BIOS mit "Reset Configuration Data" davon überzeugt hat, nun doch die Masterplatte wieder automatisch zu erkennen - das ging dann auch. Anschließend die IBM-wieder dranhängen, neu starten - gleich von der DFT-Diskette. Ein einziges Mal ist mir dabei sogar gleich die neu gekaufte Masterplatte zerschossen worden. Die hab ich dann getauscht in die 120er Seagate - und mit der lief die 60er IBM dann einwandfrei. Das wiederum bestätigt mich in der Annahme, dass diese Plattengeneration nicht nur das Abriebproblem hat, sondern aúch ein Problem in der Elektronik.
Insbesondere in Zusammenarnbeit mit Western Digital Platten gab es diese Schwierigkeiten. Die 60er läuft jetzt in einem anderen Rechner mit der 25er Deskstar zusammen - problemlos!
Diese Probleme wurden mir auch von anderer Stelle berichtet. auch mein Sohn, der ein völlig anderes Board hat (deswegen ist das auszuschließen) hatte exakt dieselben Probleme.
Ich behaupte hier also mal so als Fazit des ganzen:

Hier hat IBM - einer der namhaftesten Hersteller - seinen Namen stark beschädigt. Und warum? Nur um mit Mitkonkurrenten preislich mithalten zu können - was sie gar nicht nötig gehabt hätten. IBM stand immer für Qualität. Wer IBM kauft, schaut nicht auf ein paar Euro. Meine Seagate sind auch nicht die billigsten Platten gewesen.

Gruß Norbert
Zitieren
#23
Privat lasse ich meinen PC durch ich glaube rund 4 oder 5 weitere Lüfter kühlen - obwohl er das 'eigentlich' nicht braucht. Ebenso verzichte ich wieder auf das Gehäuse und habe die Festplatten aus ihrem engen Schränkchen befreit. Selbst dieser alte PC mit seinen schlappen 1300 MHz wird derart heiss innen, dass sich CD-Rom-Laufwerke geradezu verziehen müssen und Festplatten schmelzen.

Die Qualität der Platten dürfte tatsächlich den Preisen angemessen sein. D.h. wer seine Daten liebt, benutzt seine Platte wenig bzw. nur kurz?

Es gab mal eine Zeit, da kam SCSI groß in Mode und selbst ich hatte da einiges im PC. Damals gab es die ersten 2- und 4-fach-Brenner, IDE war zu langsam - hieß es Wink Da die SCSI-Platten überdies noch ein Stückchen schneller waren, lohnte es sich, den eh für das Brennen notwendigen Controller auch mit FPs zu bestücken. Die Platten, eine Seagate und eine IBM sind recht schnell hinüber gewesen - ein teurer SCSI-Spaß.

Und seit 10 Jahren warte ich auf die von Connor angekündigte 3,5 ms Platte. Wann kommt die denn endlich? Big Grin Bei McLaren-Mercedes und Renault z.B. gibt's Motoren, die schon um 20.000 Touren machen Big Grin
Zitieren
#24
An den Ärger mit den IC35Lxx* kann ich mich auch noch erinnern (stand in der c't), wobei ich immer noch 2 x 120 GB von den Dingern im Einsatz hab. Gekauft habe ich damals 8 Stück davon 6 für eine kleine Firma, die mittlerweile ihre Rechner weiterverkauft hat, allerdings waren das keine OEM sondern allesamt AV-Platten mit großen Caches.

Ich habe IBM-Festplatten immer bevorzugt, weil sie bei den von mir betreuten Rechnern immer gut mit den RAID-Controllern und Mainboardchipsätzen harmonierte haben. Man konnte sie in den IDE-Bus hängen und sie wurden immer gefunden, während Festplatten von anderen Herstellern mitunter nur als Master am ersten Bus laufen wollten und so ein Krams, oder mit manchen Brennern und CD-Laufwerken rumzickten. So ging es mir seit 1996 und ich habe bestimmt mitllerweile 100-130 Stück über die Jahre hinweg eingekauft und verbaut. Verreckt sind mir nur die billigen Maxtor-HDs, die aber allesamt als OEM eingekauft.
Zitieren


Gehe zu:


Benutzer, die gerade dieses Thema anschauen: 1 Gast/Gäste