Computerbeveiliging - Hoe je bad guys buiten de deur houdt

Welk Raid level?

21-04-2010, 08:24 door Above, 60 reacties
Vandaag krijg ik twee nieuwe SCSI schijven U320 binnen om aan mijn bestaande Raid configuratie toe te voegen welke nu uit drie schijven bestaan. Totaal worden het dus 5 schijven.
Nu lees ik op forums dat Raid 5 traag en onbetrouwbaar is. Zelf denk ik dus aan Raid 10 + 1 hotspare.
Mijn Adaptec 2120s controller ondersteund Raid 0, 1, 10, 5, 50 en JBOD.

Wat raden jullie aan?
Ik wil snelheid en betrouwbaarheid. Raid 0 en 1 vallen natuurlijk af met 5 schijven.
Er komen Linux en Windows op te draaien in 64bit en ben vooral bezig met grote bestanden uitpakken.
Reacties (60)
21-04-2010, 08:47 door SirDice
Ik zou gewoon RAID5 gebruiken. RAID10 is leuk maar je bent wel de helft van je opslag kwijt aan redundency.

Qua snelheid is RAID0 het best. Maar goed, dan heb je geen enkele redundency en een kapotte schijf zorgt er voor dat het hele volume om zeep gaat.
21-04-2010, 08:54 door cpt_m_
RAID levels zorgen voor snelheidwinst en/of beveiliging tegen gegevensverlies.

Op deze website vind je alle relevante informatie: nl.wikipedia.org/wiki/Redundant_Array_of_Independent_Disks + multidesk.be/woordenboek/woordverklaring/248/RAID.html

In ieder geval is Raid 5 wel betrouwbaar, maar de snelheid neemt wel af.

Ik zou je het volgende willen aanraden: Ik zou altijd gebruik maken van een spare disk, dus in principe heb je 4 schijven tot je beschikking. En met 4 schijven zijn de volgende RAID levels tot je beschikking: RAID 5 & 10, dan zou ik ook zoals SirDice voorschrijft kiezen voor RAID5 ivm de meest beschikbare schijfruimte.

Succes
21-04-2010, 12:09 door Preddie
"Nu lees ik op forums dat Raid 5 traag en onbetrouwbaar is"

Mijn persoonlijke ervaring is daar anders mee, meestal zijn er een aantal factoren betrokken. De snelheid van de schijven en de snelheid van de RAID controller.

Persoonlijk zou ik of voor een RAID 5 gaan of als je voor meer snelheid erbij wilt gaan zou ik kiezen voor RAID 10

succes er mee, en kijken ook is op http://gathering.tweakers.net
21-04-2010, 12:20 door Anoniem
Raid 5 voor data disken en mirrors qua snelheid voor system disken.
21-04-2010, 12:21 door Above
Het schijnt dat je bij Raid 5 maar één schijf mag verliezen want als er een tweede stuk gaat is de date niet meer te herstellen.
Raid 5 is sneller met lezen en Raid 10 is sneller met schijven. Dat is wat ik kan vinden op internet.
Raid 10 heeft ook minder rekenkracht nodig voor de SCSI controller?

Nu heb ik een Raid 5 met drie schijven maar de prestatie zuigt.
21-04-2010, 12:43 door cpt_m_
Nu heb ik een Raid 5 met drie schijven maar de prestatie zuigt.
Wat voor controller heb je, ingebakken op je moederbord of een aparte controller kaart?
Wat voor type harde schijven gebruik je, merk & type aub!
21-04-2010, 13:20 door SirDice
Door Above: Het schijnt dat je bij Raid 5 maar ??n schijf mag verliezen want als er een tweede stuk gaat is de date niet meer te herstellen.
Dat klopt. RAID-Z2 (ZFS) kan 2 schijven verliezen zonder dat je data niet meer beschikbaar is, je hebt er wel minimaal 4 schijven voor nodig.

Nu heb ik een Raid 5 met drie schijven maar de prestatie zuigt.

Pariteit berekenen gebeurd in hardware en dat gebeurd vrij snel. De meeste on-board RAID controllers zijn echter FakeRAID.

http://en.wikipedia.org/wiki/Fakeraid#Firmware.2Fdriver-based_RAID_.28.22FakeRAID.22.29
21-04-2010, 13:54 door Anoniem
Ik zou OS op RAID 1 draaien en data op RAID 5
21-04-2010, 16:08 door ej__
Je gaat met 5 schijven snel richting verzadiging van de scsi bus. Het is een 1 kanaals kaart. Ik zou bij raid 5 blijven...
Je zou ook kunnen overwegen een jbod te maken, en dan de raid in software voor linux. Huidige processors lopen in het algemeen rondjes om de hardware raidcontrollers inmiddels.

Jammer dat de kaart geen raid 6 ondersteunt, dat is mijn favoriet (er mogen dan 2 disken tegelijk kapot gaan).

@SirDice: het betreft hier zo te zien een echte (scsi) raid kaart, geen fakeraid. ZFS is overigens ook een software oplossing. ;-)
21-04-2010, 17:49 door ej__
Ach, wat is traag? Kwam met raid 6 met areca en stuk of 16 ata schijfjes tot ongeveer 200 MByte/s. Vind ik niet echt traag. ;-)
21-04-2010, 20:43 door Above
Door cpt(m):
Nu heb ik een Raid 5 met drie schijven maar de prestatie zuigt.
Wat voor controller heb je, ingebakken op je moederbord of een aparte controller kaart?
Wat voor type harde schijven gebruik je, merk & type aub!

Zoals eerder geschreven heb ik een aparte controller van Adaptec. De 2120s in dit geval.
http://www.adaptec.com/en-US/support/raid/scsi_raid/ASR-2120S/
Deze werkt perfect en snel onder Linux trouwens. Onder Windows 7 gaat het opstarten zeer langzaam. Hij blijft twee minuten hangen of nadenken. Als hij éénmaal doorgestart is loopt alles verder weer normaal.

Ik heb nu gekozen voor Raid 5 omdat ik anders niet alle 5 de schijven kan gebruiken in Raid 10 en met Raid 5 heb ik veel meer opslagcapaciteit. Dank dus voor de tips om Raid 5 te gebruiken.

Ik zou OS op RAID 1 draaien en data op RAID 5

Ik heb ook twee controllers. Een echte van Adaptec met 5 schijven waar de OS op staat met alle geïnstalleerde programma's en een softraid(onboard troep) van Nvidia met twee schijven in Raid 0 voor het uitpakken van .rar bestanden die ik download vanuit de nieuwsgroepen. Eén keer film kijken en weer verwijderen.

De Adaptec 2120s zit trouwens in een normale PCI slot. Deze kwam uit een server maar paste ook in een PCI slot en heb het hele zooitje in mijn normale computerkast gebouwd. Nog mooi gelukt ook :-) Ook de slede van de 5 schijven aan de voorkant ingebouwd.

Maar heb ik nu prestatieverlies omdat hij in een PCI slot zit?
21-04-2010, 20:49 door Anoniem
Hier al vele jaren met raid 0 en die andere optie's zijn gewoon onzin. Zelf een backup maken op zijn tijd of automatisch laten doen. Als een schijf om zeep gaat, komt het door de andere onderdelen op de computer (stroomstoring) of andere problemen en dan ben je net zo goed de pineut, met welke raid conf. je ook hebt. Dus gewoon de snelste optie kiezen en een externe schijf gebruiken voor de backup!
21-04-2010, 22:52 door ej__
Door Above:
Zoals eerder geschreven heb ik een aparte controller van Adaptec. De 2120s in dit geval.
http://www.adaptec.com/en-US/support/raid/scsi_raid/ASR-2120S/
Deze werkt perfect en snel onder Linux trouwens. Onder Windows 7 gaat het opstarten zeer langzaam. Hij blijft twee minuten hangen of nadenken. Als hij ??nmaal doorgestart is loopt alles verder weer normaal.

Ik heb nu gekozen voor Raid 5 omdat ik anders niet alle 5 de schijven kan gebruiken in Raid 10 en met Raid 5 heb ik veel meer opslagcapaciteit. Dank dus voor de tips om Raid 5 te gebruiken.

Ik zou OS op RAID 1 draaien en data op RAID 5

Ik heb ook twee controllers. Een echte van Adaptec met 5 schijven waar de OS op staat met alle ge?nstalleerde programma's en een softraid(onboard troep) van Nvidia met twee schijven in Raid 0 voor het uitpakken van .rar bestanden die ik download vanuit de nieuwsgroepen. E?n keer film kijken en weer verwijderen.

De Adaptec 2120s zit trouwens in een normale PCI slot. Deze kwam uit een server maar paste ook in een PCI slot en heb het hele zooitje in mijn normale computerkast gebouwd. Nog mooi gelukt ook :-) Ook de slede van de 5 schijven aan de voorkant ingebouwd.

Maar heb ik nu prestatieverlies omdat hij in een PCI slot zit?

Gewoon pci slot haalt zo rond de 250 MB/s op de hele pci bus. Je controller kan 320 MB/s verplaatsen. Je verliest dus inderdaad behoorlijk.

EJ
22-04-2010, 11:53 door Anoniem
lekker stripen die handel rete snel en zo onbetrouwbaar als de pest... motto is: als je het kan downloaden kan je het ook niet verliezen :)
22-04-2010, 13:36 door eMilt
Nu heb ik een Raid 5 met drie schijven maar de prestatie zuigt.
Je zou eens kunnen kijken naar je caching settings. Sommige RAID controllers zetten caching uit als er geen battery backup aanwezig is op de controller. Dat wil zeggen dat ze geen gebruik maken van caching en wachten op bevestiging van de drive dat een sector weggeschreven is. Dit om te voorkomen dat er in het geval van stroomuitval data verloren gaat en mogelijk de hele array onbruikbaar wordt.

Als de stroom naar je machine beveiligd is middels een externe UPS dan kan je er voor kiezen om toch caching te gebruiken wat de performance enorm kan verhogen. De meeste controllers bieden verschillende settings afhankelijk van het risico wat je wilt lopen.
22-04-2010, 15:43 door Above
Door eMilt:
Nu heb ik een Raid 5 met drie schijven maar de prestatie zuigt.
Je zou eens kunnen kijken naar je caching settings. Sommige RAID controllers zetten caching uit als er geen battery backup aanwezig is op de controller. Dat wil zeggen dat ze geen gebruik maken van caching en wachten op bevestiging van de drive dat een sector weggeschreven is. Dit om te voorkomen dat er in het geval van stroomuitval data verloren gaat en mogelijk de hele array onbruikbaar wordt.

Als de stroom naar je machine beveiligd is middels een externe UPS dan kan je er voor kiezen om toch caching te gebruiken wat de performance enorm kan verhogen. De meeste controllers bieden verschillende settings afhankelijk van het risico wat je wilt lopen.

Caching staat op de controller aan met batterij back-up.
Inmiddels naar Raid 10 overgestapt met stripe 256KB omdat 1 schijf problemen gaf. Soms sloeg deze harddisk uit met alarmseinen vanuit de controller als gevolg. Nu nog maar 4 schijven dus.
22-04-2010, 17:03 door Anoniem
Hier wat indicatieve prestaties voor software raid5, raid6, raid10 en raid10fs

http://wiki.opensource.eu/wiki/Main_Page#SAN_.2F_NAS
23-04-2010, 06:19 door Anoniem
Voordeel raid 0 = snelheid, nadeel met raid 0 is dat er gewoonweg geen redundancy is.
trust me op de enterprise support afdeling waar ik werk maken we vaak genoeg mee dat men er vanuit gaat dat er raid 1 of 5 gedraaid wordt en men maar al te snel en klakkeloos een disk even uit trekt. In geval van raid 0 met alle gevolgen van dien.
Verder raad ik softwarematig raid pertinent af, reden is: OS down = raid down = systeem op zn raid uhh reet.

En wat betreft caching kan je gewoon uit zetten in geval je er een UPS tussen hebt hangen.
In geval dat je dan draait op een raid 1 compenseer je zo ook weer op de snelheid.
Ik neem aan (ondanks dat assumptions the mother of all fck ups zijn) dat deze UPS er ook tussen hangt.
23-04-2010, 10:09 door Anoniem
Veel argumenten tegen Raid Five kun je lezen op

http://www.baarf.com
Battle Agaist Any Raid Five/Four/Free(3)
You can either join BAARF. Or not.
23-04-2010, 12:46 door Anoniem
Ik wil nog iets belangrijks toevoegen wat ik nog niet in de andere comments heb gehoord.
De juiste additionele vragen die je jezelf moet stellen is hoe de machine en dus het array gebruikt gaat worden.
En dan met name de verhoudingen tussen lees en schrijf operaties.

Als je b.v. een schrijf-intensieve database op de machine gaat draaien is het veel slimmer om Raid-10 te configureren, immers, bij elke "write" naar het array zal er ook een parity berekening gedaan moeten worden, dit noemen we een zogenaamde "write penalty". Raid-10 heeft hier geen (of veel minder) last van. Als het systeem "read" intensive is, en dit is in de meeste gevallen zo dan kan je hiervoor prima Raid-5 (of 50) gebruiken. Let wel, bovenstaande is alleen van toepassing als het om de performance gaat.

Wat betreft snelheid versus betrouwbaarheid, dat is vooral je eigen gevoel en de belangrijkheid van de data. Maar in de meeste gevallen kan je met raid-5 prima af. Je moet alleen tijdig de kapotte disk vervangen.

Een goede middenweg is overigens Raid-50, je houd hier wel het parity "probleem" bij het schrijven van data maar je introduceert hiermee wel een stuk meer redundantie, het zou een gulden middenweg kunnen zijn.

Gegroet!

Rens
23-04-2010, 13:52 door ej__
Door Anoniem: Voordeel raid 0 = snelheid, nadeel met raid 0 is dat er gewoonweg geen redundancy is.
trust me op de enterprise support afdeling waar ik werk maken we vaak genoeg mee dat men er vanuit gaat dat er raid 1 of 5 gedraaid wordt en men maar al te snel en klakkeloos een disk even uit trekt. In geval van raid 0 met alle gevolgen van dien.
Verder raad ik softwarematig raid pertinent af, reden is: OS down = raid down = systeem op zn raid uhh reet.

En wat betreft caching kan je gewoon uit zetten in geval je er een UPS tussen hebt hangen.
In geval dat je dan draait op een raid 1 compenseer je zo ook weer op de snelheid.
Ik neem aan (ondanks dat assumptions the mother of all fck ups zijn) dat deze UPS er ook tussen hangt.

Nee, ik trust je niet. Als 'men' er van uit gaat dat raid 1 of raid 5 wordt gebruikt en het blijkt dat raid 0 wordt gebruikt heb je een issue bij je bedrijf, en dan met name met beheer.

Je argumentatie over software raid is nog slechter: wat denk je dat er gebeurt met je hardware raid als het OS down is? Juist. Je systeem ligt ook op z'n raid om in jouw termen te blijven. Blijkbaar ben je nog niet met de situatie geconfronteerd dat je hardware raid controller kapot is gegaan, en er geen 1 op 1 vervanging meer mogelijk is. Dan kun je niet meer bij je data. Fijn. Bij software raid kun je _altijd_ nog bij je data. Ook na 10 jaar als de disk nog leeft.

En caching kun je beter AAN zetten als je een UPS gebruikt in plaats van UIT. Beter nog is een battery backup op de raid controller. En nog beter is beide.

EJ
23-04-2010, 14:55 door [Account Verwijderd]
RAID 6 lijkt me eerder aangewezen vanaf >4 disks. Met de nieuwste kaarten gebaseerd op de Intel IOP processors is die write penalty bijna volledig weg en je kan 2 failed disks aan. Met RAID 10 kan je in theorie ook de helft failed disks aan maar dat klopt niet helemaal, want als er een mirror setje wegvalt is heel je array om zet. Bij RAID10 moet je dus goed kijken welke disks er mogen uitvallen, bij RAID 6 maakt het geen moer uit.

Gezien de beperkingen van de topicstarter (of beter van zijn kaart :)) denk ik dat RAID10 + hotspare het beste compromis levert.

Nu één gouden regel blijft: RAID != BACKUP ;-)
23-04-2010, 16:54 door SirDice
Door Anoniem: Verder raad ik softwarematig raid pertinent af, reden is: OS down = raid down = systeem op zn raid uhh reet.

Hmm.. Ik raad juist hardware RAID af en raad het gebruik van software RAID aan. Om de hele simpele reden dat als de machine stuk gaat dan hoef je niet opzoek naar een zelfde RAID controller omdat anders de schijven niet te lezen zijn. Schijven die gebruik maken van software RAID kun je op een willekeure andere machine gebruiken (zolang het OS maar hetzelfde is). Om de prestaties hoef je het niet te doen. De huidige generatie machines doet dat op z'n sloffen en staat toch voor 80% van de tijd te idlen.

En als je OS down is heb je weinig meer aan een werkende RAID controller. De data is dan sowieso niet beschikbaar voor je gebruikers.
23-04-2010, 19:03 door Anoniem
Door ej__:
Door Anoniem: Voordeel raid 0 = snelheid, nadeel met raid 0 is dat er gewoonweg geen redundancy is.
trust me op de enterprise support afdeling waar ik werk maken we vaak genoeg mee dat men er vanuit gaat dat er raid 1 of 5 gedraaid wordt en men maar al te snel en klakkeloos een disk even uit trekt. In geval van raid 0 met alle gevolgen van dien.
Verder raad ik softwarematig raid pertinent af, reden is: OS down = raid down = systeem op zn raid uhh reet.

En wat betreft caching kan je gewoon uit zetten in geval je er een UPS tussen hebt hangen.
In geval dat je dan draait op een raid 1 compenseer je zo ook weer op de snelheid.
Ik neem aan (ondanks dat assumptions the mother of all fck ups zijn) dat deze UPS er ook tussen hangt.

Nee, ik trust je niet. Als 'men' er van uit gaat dat raid 1 of raid 5 wordt gebruikt en het blijkt dat raid 0 wordt gebruikt heb je een issue bij je bedrijf, en dan met name met beheer.

Je argumentatie over software raid is nog slechter: wat denk je dat er gebeurt met je hardware raid als het OS down is? Juist. Je systeem ligt ook op z'n raid om in jouw termen te blijven. Blijkbaar ben je nog niet met de situatie geconfronteerd dat je hardware raid controller kapot is gegaan, en er geen 1 op 1 vervanging meer mogelijk is. Dan kun je niet meer bij je data. Fijn. Bij software raid kun je _altijd_ nog bij je data. Ook na 10 jaar als de disk nog leeft.

En caching kun je beter AAN zetten als je een UPS gebruikt in plaats van UIT. Beter nog is een battery backup op de raid controller. En nog beter is beide.

EJ

Wat er gebeurt met je hardware raid wanneer je OS down is.
Daarvoor heb je een raid controller, hierin staat de configuratie van je raidset.
Stel je zelf eerder de vraag wanneer je OS corrupted raakt of de software die je raid config bevat.
Stel je hebt 3 disks draaiend in een raid 5 waarvan 2 falend, meestal betekent dit game over.
In geval dat je software matige raid draait is er dus gewoon NO WAY dat je dit ever nog aan de praat krijgt.
in geval van een dedicated controller heb je als laatste nog de oplossing, ook al is dit niet gegarandeerd disks online te forceren. Je checkt welke disk eerst gefaald is, dan forceer je de laatst gefaalde disk online en van hieruit doe je een rebuild. Wanneer deze gedaan is en uiteraard succesvol dan reset je de andere disk en doe je voor de zekerheid hier een rebuild mee.

Dus sterker nog, jouw argumentatie over softwarematige raid is gewoon crap en totaal niet onderbouwd.
Maar uiteraard respecteer ik ieders kennis en uitgangspunt, draai jij maar lekker op SW matige raid while i prefer HW.

En ik heb beiden, heb de optie om mn caching aan te zetten maar waarom?
Stel ik heb geen UPS er tussen hangen dan zeg ik O.K. aan dat ding.
Maar mn UPS zorgt ervoor dat in geval van stroom uitval mn server netjes kan afsluiten in geval van nodig en zal er geen plotselinge uitval voordoen.
23-04-2010, 19:20 door Anoniem
'Nee, ik trust je niet. Als 'men' er van uit gaat dat raid 1 of raid 5 wordt gebruikt en het blijkt dat raid 0 wordt gebruikt heb je een issue bij je bedrijf, en dan met name met beheer.'

En ik zei niet dat dit bij mijn bedrijf gebeurt, maar wij maken het vaak genoeg mee met beheerders of medewerkers die toegang tot de server hebben.

Voorbeeld van deze is dat een keer een persoon opbelde met een amber blinking disk. Eerder ging het om de raid 5 set met een simpele disk pullout/in werd er een rebuild gestart. De klant zag de betreffende ochtend dus wederom een disk amber blinking, vanuitgaande failing disk, even uit/in en rebuild afwachten. NOT THIS TIME omdat het hier om een disk ging welke onderdeel was van een raid 0 set waar het OS op draaide. Klant trekt disk eruit en hele mik lag eruit. We beginnen te troubleshooten en blijkt dat de controller slechts een firmware update nodig had en tevens ook de betreffende disks aangezien dit een 'known issue' was mbt voorgaande firmware update(s).

Beheer tja ... dat is niet alleen in de eventviewer kijken. zo moet je ook alles up to date houden. In geval van een firmware update:
check eerst of je raidset healthy is, dan update je de controller, wederom check of raidset healthy, daarna disk firmware update en uiteraard wanneer gedaan wederom je raidset checken of deze healthy is.
ALTIJD DIE VOLGORDE !!!
Dus stel jezelf wederom de vraag, welk advies is nu wel of niet onderbouwd is ;)
23-04-2010, 19:26 door Anoniem
Door SirDice:
Door Anoniem: Verder raad ik softwarematig raid pertinent af, reden is: OS down = raid down = systeem op zn raid uhh reet.

Hmm.. Ik raad juist hardware RAID af en raad het gebruik van software RAID aan. Om de hele simpele reden dat als de machine stuk gaat dan hoef je niet opzoek naar een zelfde RAID controller omdat anders de schijven niet te lezen zijn. Schijven die gebruik maken van software RAID kun je op een willekeure andere machine gebruiken (zolang het OS maar hetzelfde is). Om de prestaties hoef je het niet te doen. De huidige generatie machines doet dat op z'n sloffen en staat toch voor 80% van de tijd te idlen.

En als je OS down is heb je weinig meer aan een werkende RAID controller. De data is dan sowieso niet beschikbaar voor je gebruikers.

O.k. nu even een voorbeeld dat men SAS schijven heeft, wil jij mij dan nog zeggen dat je dan nog SW-matige raid adviseerd?
Lijkt mij sterk, want in dit geval staat de info op de disks mbt raid set/configuratie.

(foreign config en disk initialize) Oh well ... we know those ones if ya familiar with cerc, sata, sas en dan nog de perc reeks e/i pfffff
24-04-2010, 02:47 door Anoniem
'Je argumentatie over software raid is nog slechter: wat denk je dat er gebeurt met je hardware raid als het OS down is? Juist. Je systeem ligt ook op z'n raid om in jouw termen te blijven.'

@ Ej:
WHUAHAHAHA jij praat overduidelijk om maar wat geluid te maken.
Anoniem heeft gelijk kerel.
Wat heb je liever?
In geval van softwarematige raid met OS uitval dat alles weg is
Of met hardwarematige raid en OS uitval dat je in ieder geval nog een beroep op je controller kan doen.
Ga maar eerst wat research doen over raidcontrollers voordat je een discussie aan gaat
24-04-2010, 09:17 door ej__
Door Anoniem: 'Je argumentatie over software raid is nog slechter: wat denk je dat er gebeurt met je hardware raid als het OS down is? Juist. Je systeem ligt ook op z'n raid om in jouw termen te blijven.'

@ Ej:
WHUAHAHAHA jij praat overduidelijk om maar wat geluid te maken.
Anoniem heeft gelijk kerel.
Wat heb je liever?
In geval van softwarematige raid met OS uitval dat alles weg is
Of met hardwarematige raid en OS uitval dat je in ieder geval nog een beroep op je controller kan doen.
Ga maar eerst wat research doen over raidcontrollers voordat je een discussie aan gaat

*Proest* Je hebt nog geen ervaring begrijp ik? Als je OS uitvalt stop je de disken in een systeem waar het OS het nog wel doet. Vaak zat gedaan. Wat doe je als je raid controller het begeeft? Ja, dan heb je een issue, want je kunt je disken niet zo maar aan een andere raid controller hangen, als dat een ander type is dan snapt hij sowieso niets van de disken. Iets met raid signature op de disken. Nog afgezien van het feit dat een crashende raid controller over het algemeen een chaos van de inhoud van de disken maakt. Been there, seen that.

Crashende software raid levert in het algemeen geen grote schade op. Als dat wel zo zou zijn is het betreffende OS geen lang leven beschoren. <evil grin> We praten over industrie kwaliteit software hoor, niet over thuisgebruikersrommel waar een crashje meer of minder geen rol van betekenis speelt.

O, en voor de goede orde: heb wat grotere raidsystemen onder beheer, netappjes met een half petabytes enzo. Niets echt groots.

EJ
24-04-2010, 09:23 door ej__
Door Anoniem: 'Nee, ik trust je niet. Als 'men' er van uit gaat dat raid 1 of raid 5 wordt gebruikt en het blijkt dat raid 0 wordt gebruikt heb je een issue bij je bedrijf, en dan met name met beheer.'

En ik zei niet dat dit bij mijn bedrijf gebeurt, maar wij maken het vaak genoeg mee met beheerders of medewerkers die toegang tot de server hebben.

Voorbeeld van deze is dat een keer een persoon opbelde met een amber blinking disk. Eerder ging het om de raid 5 set met een simpele disk pullout/in werd er een rebuild gestart. De klant zag de betreffende ochtend dus wederom een disk amber blinking, vanuitgaande failing disk, even uit/in en rebuild afwachten. NOT THIS TIME omdat het hier om een disk ging welke onderdeel was van een raid 0 set waar het OS op draaide. Klant trekt disk eruit en hele mik lag eruit. We beginnen te troubleshooten en blijkt dat de controller slechts een firmware update nodig had en tevens ook de betreffende disks aangezien dit een 'known issue' was mbt voorgaande firmware update(s).

Beheer tja ... dat is niet alleen in de eventviewer kijken. zo moet je ook alles up to date houden. In geval van een firmware update:
check eerst of je raidset healthy is, dan update je de controller, wederom check of raidset healthy, daarna disk firmware update en uiteraard wanneer gedaan wederom je raidset checken of deze healthy is.
ALTIJD DIE VOLGORDE !!!
Dus stel jezelf wederom de vraag, welk advies is nu wel of niet onderbouwd is ;)

Stel jezelf de vraag waarom ik niet weet wat een 'eventviewer' is. Beheer begint bij architectuur. Klant blijft met zijn vingers van spullen af. Daarna heb je zoiets als documentatie. Overigens ken ik geen grote organisaties waar het noodzakelijk is om raid 0 in te zetten, je probeert (onder invloed van je ontwerp (!) zoveel mogelijk dezelfde structuur in te zetten. De volgende fase is storingsanalyse (die heb je dan wel gedeeltelijk begrepen, althans het stukje dat het niet alleen de logfiles betreft). Maar heb je ooit gehoord van een PAT omgeving? Een beetje bedoeld om het soort geneuzel dat jij beschrijft al vooraf de kop in te drukken?

EJ
24-04-2010, 09:30 door ej__
Door Anoniem:
Wat er gebeurt met je hardware raid wanneer je OS down is.
Daarvoor heb je een raid controller, hierin staat de configuratie van je raidset.
Stel je zelf eerder de vraag wanneer je OS corrupted raakt of de software die je raid config bevat.
Stel je hebt 3 disks draaiend in een raid 5 waarvan 2 falend, meestal betekent dit game over.
In geval dat je software matige raid draait is er dus gewoon NO WAY dat je dit ever nog aan de praat krijgt.
in geval van een dedicated controller heb je als laatste nog de oplossing, ook al is dit niet gegarandeerd disks online te forceren. Je checkt welke disk eerst gefaald is, dan forceer je de laatst gefaalde disk online en van hieruit doe je een rebuild. Wanneer deze gedaan is en uiteraard succesvol dan reset je de andere disk en doe je voor de zekerheid hier een rebuild mee.

Dus sterker nog, jouw argumentatie over softwarematige raid is gewoon crap en totaal niet onderbouwd.
Maar uiteraard respecteer ik ieders kennis en uitgangspunt, draai jij maar lekker op SW matige raid while i prefer HW.

En ik heb beiden, heb de optie om mn caching aan te zetten maar waarom?
Stel ik heb geen UPS er tussen hangen dan zeg ik O.K. aan dat ding.
Maar mn UPS zorgt ervoor dat in geval van stroom uitval mn server netjes kan afsluiten in geval van nodig en zal er geen plotselinge uitval voordoen.

Als in een raid 5 config 2 disks failen dan is er geen redden meer aan, niet voor een hardware raid oplossing en niet voor een software raid oplossing. Daar valt niets aan te forceren, je hebt simpelweg niet meer genoeg data voorhanden. Waar jij op hoopt is dat je de disken weer aan de gang krijgt, en dan een rebuild doen op DEZELFDE disken? Denk je nou echt dat dat een goed idee is? Waarom deden die disken het niet meer? Die hebben een zeer goede reden om er mee te stoppen, ze zijn namelijk KAPOT. Alleen ultiem slechte beheerders zullen doorwerken met die disken.

Ook in een software raid kun je dingen gewoon forceren, net als in een hardware raid hoor. Maar als het array dusdanig kapot is als je beschrijft ga ik terug naar de BACKUP. Die heb jij toch wel he? Raid is namelijk geen vervanging voor backups.

EJ
24-04-2010, 09:35 door ej__
Door deej: RAID 6 lijkt me eerder aangewezen vanaf >4 disks. Met de nieuwste kaarten gebaseerd op de Intel IOP processors is die write penalty bijna volledig weg en je kan 2 failed disks aan. Met RAID 10 kan je in theorie ook de helft failed disks aan maar dat klopt niet helemaal, want als er een mirror setje wegvalt is heel je array om zet. Bij RAID10 moet je dus goed kijken welke disks er mogen uitvallen, bij RAID 6 maakt het geen moer uit.

Gezien de beperkingen van de topicstarter (of beter van zijn kaart :)) denk ik dat RAID10 + hotspare het beste compromis levert.

Nu één gouden regel blijft: RAID != BACKUP ;-)

Precies. I concur op alle 3 de punten. Leve raid 6, leve areca in plaats van adaptec. ;-)
24-04-2010, 09:56 door ej__
Door Anoniem:
Door SirDice:
Door Anoniem: Verder raad ik softwarematig raid pertinent af, reden is: OS down = raid down = systeem op zn raid uhh reet.

Hmm.. Ik raad juist hardware RAID af en raad het gebruik van software RAID aan. Om de hele simpele reden dat als de machine stuk gaat dan hoef je niet opzoek naar een zelfde RAID controller omdat anders de schijven niet te lezen zijn. Schijven die gebruik maken van software RAID kun je op een willekeure andere machine gebruiken (zolang het OS maar hetzelfde is). Om de prestaties hoef je het niet te doen. De huidige generatie machines doet dat op z'n sloffen en staat toch voor 80% van de tijd te idlen.

En als je OS down is heb je weinig meer aan een werkende RAID controller. De data is dan sowieso niet beschikbaar voor je gebruikers.

O.k. nu even een voorbeeld dat men SAS schijven heeft, wil jij mij dan nog zeggen dat je dan nog SW-matige raid adviseerd?
Lijkt mij sterk, want in dit geval staat de info op de disks mbt raid set/configuratie.

(foreign config en disk initialize) Oh well ... we know those ones if ya familiar with cerc, sata, sas en dan nog de perc reeks e/i pfffff
Het fysieke formaat van de schijven maakt niet uit, ook bij andere typen schijven staat een stuk van de informatie (noodgedwongen) op de schijf zelf (bij hardware en bij software raid). Bij software raid zelfs volledig.

Maar even voor de duidelijkheid: het mooiste filesysteem tot nu toe, het filesysteem ZFS van Sun (inmiddels Oracle) is puur software. Alle ingebouwde redundantie komt voort uit software, die eventueel een stuk kan uitbesteden aan hardware. Bij ZFS is geen sprake meer van raid levels, het gaat een aantal stappen verder. Helaas is het niet echt voor de thuisgebruiker. :)

EJ
24-04-2010, 16:28 door Above
Inmiddels(vandaag) heb ik weer 4 tweedehands SCSI u320 15k schijven gekocht voor maar euro 30,- per stuk! Bouwjaar 2006.
Ik had 10k en nu dus 15k. Alles weer in Raid 10.
Beetje verslavend deze hobby :-)
24-04-2010, 17:03 door ej__
Door Above: Inmiddels(vandaag) heb ik weer 4 tweedehands SCSI u320 15k schijven gekocht voor maar euro 30,- per stuk! Bouwjaar 2006.
Ik had 10k en nu dus 15k. Alles weer in Raid 10.
Beetje verslavend deze hobby :-)
Hoe groot zijn ze? En de vorige?

Lekker snel he, die 15k schijven. ;-) Maar maken wel veel herrie is mijn ervaring.

EJ
24-04-2010, 17:47 door Above
Door ej__:
Hoe groot zijn ze? En de vorige?

Lekker snel he, die 15k schijven. ;-) Maar maken wel veel herrie is mijn ervaring.

EJ

Ze zijn 74GB stuk. 2x Maxtor 15k en 2 x Seagate 15k. Ze maken vrijwel geen herrie. Net zoals de vorige 10k. De gamerskast zelf met 5 ventilatoren maakt meer herrie. Die vent had ook nog een stuk of 10x 146GB 10k u320 schijven voor 50 euro stuk en een oude Dell Poweredge 2800 server waar 8 schijven in kunnen. Zelfs nog een maand garantie op de schijven bij deze vent omdat ik bij een ander via Marktplaats binnen een dag de lul was met Raid 5.

Als kast heb ik de http://www.connectreviews.com/images/antec_ninehundred.jpg. Deze koelt echt goed. Aan de voorkant heb je 2 blokken zitten met ventilatoren waar je normaal de Sata schijven kunt inbouwen. Ik heb de onderste eruit gehaald en zo een blok ge?nstalleerd voor 80-pin SCSI u320 schijven. Hier passen dus max 5 schijven in(de behuizing). De controller zelf in een PCI slot gedaan.

Ik wilde juist een scsi controller omdat ik hele slechte ervaringen heb met SoftRaid voor Linux. Meest na een distributie update klopte de verwijzing niet meer naar de bootsector[MBR) en kon je niet normaal opstarten. Met een echte controller nooit meer last.
24-04-2010, 18:14 door ej__
@Above

Mooi! Mag ik vragen waar je ze vandaan hebt, heb interesse in de 146 GB variant! (Heb nog 2 compaq extension cabinets en wat HP dozen waar 6 schijven in kunnen. Ideaal voor filers). Heb trouwens ook bijbehorende stapel raid controllers. :)

Helemaal ideaal dat je 2x 2 merken hebt. In je raid 10 config heb je dat toch wel goed gesplitst?

Distributie update geeft problemen? Geen last mee gehad tot nu toe (ubuntu en debian), iig niets dat niet heel snel te fixen was. Verder bij een provider gewerkt waar we alles met softraid deden. Stuk of 90 dozen in raid 1, en een aantal in raid 5 of raid 6. De grote filers hadden natuurlijk hun eigen raid aan boord.

EJ
24-04-2010, 19:01 door Above
Deze http://verkopers.marktplaats.nl/10364972
Hij kent alleen engels en woont in Den Haag.
24-04-2010, 19:05 door ej__
Dank!
24-04-2010, 19:23 door Anoniem
Wordt een kwestie van bigger and better deze discussie.
en mbt de eventviewer was een matter of speaking.
We dont need to start that laim MS bash aangezien deze niets met raidleveling te maken heeft.
En petabytes nog wel ... wow met SW-matige raidleveling.
Zullen je gebruikers blij zijn wanneer er een rebuild gedaan moet worden.

Incident nr 1:
Gebruiker: 'Ja ik wilde graag een melding maken dat de bestanden op het netwerk zo traag verwerkt worden'

Ej: 'Ja het systeem is wat traag omdat de cpu's en memory overbelast zijn. Onze excuses voor het ongemak, de rebuild is over 3 maanden klaar. Daar wij SW matige raid draaien en in geval van dedicated raid controllers hadden deze het proces over kunnen nemen, maar de architectuur zoals deze nu is leek ons destijds toch de beste oplossing. Wederom nogmaals onze excuses voor het ongemak'

Incident nr 2:
Gebruiker: 'Ik kan verdomme niet inloggen'

Ej: 'ja onze excuses het systeem ligt down. wij zijn genoodzaakt onze server opnieuw te installeren'

Gebruiker: 'Ja maar is er geen backup dan'

Ej: 'jawel maar deze oplossing draait softwarematig op hetzelfde systeem en is daarmee dus ook niet beschikbaar'

Gebruiker: 'Nou mooi geregeld dan!'

No offense, but catch my drift ;)

en met een defecte raid controller, vervang deze met een identieke. Clear config als deze erin staat en van daaruit ga je met je disken aan de slag. Daar komt tie weer 'foreign config'. Maar dat hoef ik je niet uit te leggen aangezien je petabytes beheert ;)

En ik geen ervaring? Nee totaal niet. Ik geef alleen maar als voorbeeld dat ik deels met collega's 1 van werelds bekendste searchengines beheer welke vast en zeker gelegen moet zitten in hetzelfde datacentre waar jij je petabytes beheert. Of staat deze op je zolder te draaien? En daarnaast beheer ik nog een socialnetworking van eigen bodem waar jij vast ook een profiel op hebt, bestaande uit slechts 2200+ servers waaronder een hoop r900's, md3000(i) blablabla Zzzzzzzzzz
25-04-2010, 00:03 door ej__
@anoniem: Whoaaaaa! Wat een humor! Ik lach me slap! Jammer dat je zo slecht bent in lezen. Je moet inderdaad nog een hoop leren. En nee, je zit met zekerheid niet in hetzelfde datacenter. Een hyvesbeheerdertje. Wat leuk. Nog wat te prutsen vandaag? Wat een setup! Wat een design. Wauw. Ben bijna onder de indruk.

Enne, waar lees jij microsoft? Ben ik wel benieuwd naar. Ik heb dat namelijk niet geschreven en niet beschreven. <evil grin>

Jammer dat je niet begrijpt wat architectuur betekent, dat PAT je niets zegt enzovoorts enzovoorts. Enne, SAN's werken meestal met hardware raid. En met snapmirrors kun je prima backups maken, en met slimme routering weet een gebruiker niet dat een SAN down is. En wat high availability is is je ook nog niet duidelijk. Zeggen de termen CIA je al wat? Nee, niet dat amerikaanse spionnen gedoe, maar Confidentiality, Integrity and Availability.

Heb je wel eens geprobeerd om een controller te vervangen die inmiddels een nieuwe revisie heeft gekregen? En dan de disken niet meer kan lezen? Nog nooit tegengekomen bij je search engine? Dan zie je of niet zoveel als je beweert, of je bent pas net begonnen. In je verhaal lees ik eigenlijk dat je niet boven het niveau van een junior beheerder hebt gezeten. En niet in aanraking bent geweest met serieuze omgevingen. Ik spreek je over een jaartje of 10 wel, als je wat meer ervaring hebt. You're way out of your league. Maar dat was al duidelijk, ook bij de andere lezers. Je had niet moeten zeggen dat gebruikers disken wisselden en het toen fout ging, dat geeft aan dat je niet echt in een serieuze omgeving werkt.

EJ
26-04-2010, 10:48 door SirDice
Door Anoniem:
Door SirDice:
Door Anoniem: Verder raad ik softwarematig raid pertinent af, reden is: OS down = raid down = systeem op zn raid uhh reet.

Hmm.. Ik raad juist hardware RAID af en raad het gebruik van software RAID aan. Om de hele simpele reden dat als de machine stuk gaat dan hoef je niet opzoek naar een zelfde RAID controller omdat anders de schijven niet te lezen zijn. Schijven die gebruik maken van software RAID kun je op een willekeure andere machine gebruiken (zolang het OS maar hetzelfde is). Om de prestaties hoef je het niet te doen. De huidige generatie machines doet dat op z'n sloffen en staat toch voor 80% van de tijd te idlen.

En als je OS down is heb je weinig meer aan een werkende RAID controller. De data is dan sowieso niet beschikbaar voor je gebruikers.

O.k. nu even een voorbeeld dat men SAS schijven heeft, wil jij mij dan nog zeggen dat je dan nog SW-matige raid adviseerd?
Lijkt mij sterk, want in dit geval staat de info op de disks mbt raid set/configuratie.

(foreign config en disk initialize) Oh well ... we know those ones if ya familiar with cerc, sata, sas en dan nog de perc reeks e/i pfffff
Each disk attached to an Adaptec RAID or HostRAID controller which has been initialized for use in an array includes a special data structure referred to as metadata. This data structure defines the configuration of the disks, partitions, and arrays created by the controller. The metadata allows you to swap an entire array from one controller to another, or swap the controller itself, without reconfiguring the partitions or arrays.
There are two types of metadata supported by ARC (Adaptec RAID Code) firmware in general, the original Container Partition Format (CPF) metadata and the Adaptec Metadata Format (AMF). Almost every Adaptec SATA and SAS RAID firmware uses AMF only (with a few exceptions).
Bron: http://ask.adaptec.com/scripts/adaptec_tic.cfg/php.exe/enduser/std_adp.php?p_faqid=16881&p_created=1243591753
Bij mijn beste weten is Adaptec de enige die AMF ondersteund. Ergo, je zit dus vast aan Adaptec. Met een software RAID heb je dat probleem dus niet.
26-04-2010, 13:36 door Above
In ieder geval bedankt voor alle inbreng.
Aangezien ik veel snelheid verlies door de 2120s controller in een normale PCI slot te prikken in plaats van een PCI-X slot heb ik een andere moederbord besteld.
http://www.ginger6.com/product_info.php?products_id=31110

Deze heeft wel een PCI-X slot om de volledige kracht u320 eruit te trekken. De rest van de onderdelen kan ik zo overprikken.
26-04-2010, 13:40 door SirDice
Let er op dat PCI-X en PCIe niet het zelfde zijn, je zult niet de eerste zijn die dat verschil niet kent.

Maar goed, ik zie dat dit board een echt PCI-X slot heeft.
26-04-2010, 15:55 door ej__
Door Above: In ieder geval bedankt voor alle inbreng.
Aangezien ik veel snelheid verlies door de 2120s controller in een normale PCI slot te prikken in plaats van een PCI-X slot heb ik een andere moederbord besteld.
http://www.ginger6.com/product_info.php?products_id=31110

Deze heeft wel een PCI-X slot om de volledige kracht u320 eruit te trekken. De rest van de onderdelen kan ik zo overprikken.
Da's een leuk moederbord! PCI-x is ongeveer een factor 4 sneller dan PCI overigens (dubbele bus, dubbele bandbreedte). Ook maar eens kijken om die in te zetten. :)

EJ
26-04-2010, 16:24 door Above
Van de week heb ik hem in huis :-)
26-04-2010, 16:49 door SirDice
Door ej__: Da's een leuk moederbord! PCI-x is ongeveer een factor 4 sneller dan PCI overigens (dubbele bus, dubbele bandbreedte). Ook maar eens kijken om die in te zetten. :)
PCI-X is vervangen door PCIe. Je kunt dus beter daar in investeren ;)
26-04-2010, 17:10 door ej__
Door SirDice:
Door ej__: Da's een leuk moederbord! PCI-x is ongeveer een factor 4 sneller dan PCI overigens (dubbele bus, dubbele bandbreedte). Ook maar eens kijken om die in te zetten. :)
PCI-X is vervangen door PCIe. Je kunt dus beter daar in investeren ;)
Leuk idee! Maar de meeste scsi kaarten zijn nog voor PCI-X, in ieder geval de kaarten die 2e hands worden gevonden. ;) Dat heeft vooral te maken met het feit dat de meeste serverhardware nog steeds PCI-X ondersteunen, en dit nog volop in gebruik is. Enne, je zal maar een PCI-X kaartje hebben, dan heb je een hamer nodig om die passend te krijgen in PCIe, denk dat het daarna niet meer werkt. ;)

EJ
26-04-2010, 18:03 door SirDice
Door ej__:
Door SirDice:
Door ej__: Da's een leuk moederbord! PCI-x is ongeveer een factor 4 sneller dan PCI overigens (dubbele bus, dubbele bandbreedte). Ook maar eens kijken om die in te zetten. :)
PCI-X is vervangen door PCIe. Je kunt dus beter daar in investeren ;)
Leuk idee! Maar de meeste scsi kaarten zijn nog voor PCI-X, in ieder geval de kaarten die 2e hands worden gevonden. ;) Dat heeft vooral te maken met het feit dat de meeste serverhardware nog steeds PCI-X ondersteunen, en dit nog volop in gebruik is. Enne, je zal maar een PCI-X kaartje hebben, dan heb je een hamer nodig om die passend te krijgen in PCIe, denk dat het daarna niet meer werkt. ;)
Ja, ok. Ik ging er vanuit dat je nieuwe hardware bedoelde. In dat geval kun je beter voor PCIe kiezen. Dat heeft een nog hogere doorvoer (max 8GB/s bij 32 lanes).
28-04-2010, 15:16 door RaceAap
Leuke discussie trouwens dit.. maar stop even allemaal met modder gooien, we zijn hier om elkaar te helpen.

Even een extra kooltje op het vuur mbt software vs hardware raid...

Welke vorm van raid je ook kiest het is allen gebaseerd op software.
Een hardware controller bezit een dedicated cpu die de raid in software in die cpu voor zijn rekening neemt en dus de processing ervan uit de cpu en bus houd van je pc/server zelf.
Verschil is dus de dat "hardware" raid eigenlijk een raid offloader is die afhankelijk van kaart/fabrikant echter wel leuke extra features heeft en vaak sneller werkt als RAID vanuit je OS.

Data is met beiden methoden altijd terug te halen, echter zul je met hardware raid wel bij moeten blijven met firmware en indien de gebruikte kaart end of life is je zelf moet zorgen voor een spare kaart op de plank!!! Anders zul je lastige data recover methoden moeten toepassen om je data weer veilig te kunnen stellen.

Verder is de keuze van welk raid level je kiest zoals meerderen al aangaven afhankelijk van heel veel factoren.
28-04-2010, 17:26 door ej__
Door RaceAap: Leuke discussie trouwens dit.. maar stop even allemaal met modder gooien, we zijn hier om elkaar te helpen.

Even een extra kooltje op het vuur mbt software vs hardware raid...

Welke vorm van raid je ook kiest het is allen gebaseerd op software.
Een hardware controller bezit een dedicated cpu die de raid in software in die cpu voor zijn rekening neemt en dus de processing ervan uit de cpu en bus houd van je pc/server zelf.
Verschil is dus de dat "hardware" raid eigenlijk een raid offloader is die afhankelijk van kaart/fabrikant echter wel leuke extra features heeft en vaak sneller werkt als RAID vanuit je OS.

Data is met beiden methoden altijd terug te halen, echter zul je met hardware raid wel bij moeten blijven met firmware en indien de gebruikte kaart end of life is je zelf moet zorgen voor een spare kaart op de plank!!! Anders zul je lastige data recover methoden moeten toepassen om je data weer veilig te kunnen stellen.

Verder is de keuze van welk raid level je kiest zoals meerderen al aangaven afhankelijk van heel veel factoren.


Incorrect. En nog een keer incorrect.
- Veel hardware raid controllers hebben wel degelijk dedicated hardware aan boord om op hoge snelheid te kunnen xor'en, anders haalt de (relatief langzame offload) processor de gewenste snelheden niet.
- Je kunt zonder controller niet de data terughalen. Of je moet er een ongelofelijke hoeveelheid geld tegenaan kunnen gooien. Met raid 5 is het eigenlijk zo goed als uitgesloten. Vooral niet omdat fabrikanten niet de methodieken vrijgeven.

Bijblijven met hardware raid firmware raid is onbegonnen werk wegens a) downtijd en b) risico en c) gebrek aan noodzaak. Als een model controller uitloopt loop je nog steeds tegen hetzelfde probleem aan: je kunt bij een crash niet bij je data. Been there, seen that, not done that. Lang leve backups. Raid is geen backup.

EJ
28-04-2010, 17:59 door Above
Nu we het toch over back-ups hebben.
Ik had nog een oude HP Tape Streamer DLT VS80 op de zaak staan en nu dus thuis.
Deze via een SCSI kabel op dezelfde controller aansluiten aan de achterkant geeft problemen met opstarten.
De harde schijven zitten op dezelfde controller maar via een andere uitgang op de controller(binnenin de kast).

Op moment dat ik de streamer aansluit wilt mij SCSI controller niet opstarten een geeft een kernel panic error. Haal ik de kabel weer los en herstart de pc dan is alles weer in orde. Hij heeft niet dezelfde poort in gebruik van de controller voor de harde schijven want dit zijn 1 t/m 4 en 7 voor de controller zelf. Via een schakelaar op de streamer zelf heb ik hem op 6 gezet maar hetzelfde probleem blijft zich voordoen. De kernel panic error met als code EF.

Nu las ik ergens via Google dat het schijnbaar niet raadzaam is om een back-up unit op dezelfde controller aan te sluiten waarop je schijven zijn aangesloten. Klopt dit?
28-04-2010, 18:16 door ej__
@Above:

Wordt inderdaad sterk afgeraden (zware performance issues). Maar het kan heel goed zijn dat jouw controller of de ene connector of de andere connector ondersteund, en niet beide tegelijk. Tevens loop je tegen termination issues aan. Dat is een van de minder fijne aspecten van scsi.

UW scsi ondersteund volgens mij 15 adressen, dus het kan ook goed zijn dat je een adres dubbel uitgeeft, of loopt tegen compatibiliteitsproblemen.

Wat aardige quotes:
Getting a SCSI chain working is perfectly simple if you remember that there must be exactly three terminations: one on one end of the cable, one on the far end, and the goat, terminated over the SCSI chain with a silver-handled knife whilst burning black candles. -- Anthony DeBoer

SCSI is NOT magic. There are fundamental technical reasons why it is necessary to sacrifice a young goat to your SCSI chain now and then. -- John Woods

Dit is natuurlijk zwaar overdreven, zoals ergens op een weblog staat vermeld voldoet een kip ook.
28-04-2010, 18:31 door Above
Dat wordt dan een SCSI naar USB adapter/kabel :-)
Asus M3N WS moederbord wordt pas volgende week. Voorraad wat ze op de website vermelden is om klanten te trekken. Seize.
28-04-2010, 18:37 door ej__
Door Above: Dat wordt dan een SCSI naar USB adapter/kabel :-)
Asus M3N WS moederbord wordt pas volgende week. Voorraad wat ze op de website vermelden is om klanten te trekken. Seize.

Vergeet je de kip niet?
28-04-2010, 18:45 door Above
Ik pak vanavond(stierendag) wel mijn eigen kippetje :-)
10-05-2010, 22:51 door Above
Moederbord vandaag binnengekregen en is nu helemaal klaar. Alle overige hardware overgezet, opstarten en drivers installeren. Daarna klaar.
Verdomd mooi moederbord.

Hij geeft alleen op de Led-display een FF code
The FF code means that your CPU is not inserted properly. Pull it out, check there's no dust etc, and put it carefully back in.
Alles doet het voor de rest.
In de gebruiksaanwijzijng staat niets over FF. Zal wel standby zijn of zo.
11-05-2010, 03:27 door Anoniem
Ohw en met SATA hoef je geen hotspare , zolang je maar signalerings systeem hebt die je meld dat er een schijf kapot is.
Met SATA kan je dan gewoon hot swapable de defecte schijf vervangen.
Of heb ik die opmerking ergens gemist ?
(ja ik geef toe ik heb niet alle posts gelezen maar wel meer dan de helft)
11-05-2010, 11:41 door RaceAap
Door Anoniem: Ohw en met SATA hoef je geen hotspare , zolang je maar signalerings systeem hebt die je meld dat er een schijf kapot is.
Met SATA kan je dan gewoon hot swapable de defecte schijf vervangen.
Of heb ik die opmerking ergens gemist ?
(ja ik geef toe ik heb niet alle posts gelezen maar wel meer dan de helft)
Beste Anoniempje:

Als je op die manier je RAID inricht ben je langere tijd aan het werken in degraded mode en loop je VEEL risico.
Heb je een hotspare dan is het risico op dataloss een stuk lager omdat er direct Automatisch gerebuild kan worden.
De SATA disken ondersteunen hotswapping meestal wel, echter je controller moet dit ook ondersteunen.
11-05-2010, 13:13 door Anoniem
Heeft de 2120s niet 4 aansluitingen? Dan kun je ook geen Hotspare maken.
11-05-2010, 14:51 door Above
Door Anoniem: Heeft de 2120s niet 4 aansluitingen? Dan kun je ook geen Hotspare maken.

Totaal kunnen: Up to 15 SCSI devices.
Dus Hotspare kan makkelijk.

In mijn geval gaat er van de kaart een kabel naar een rack. De rack zelf is voorzien van een ventilator en 5 x 80pin aansluitingen voor u320. Je hebt ook grotere racks maar deze passen niet in mijn kast.
Reageren

Deze posting is gelocked. Reageren is niet meer mogelijk.