[FUG-BR] Raid 5 no FreeBSD

Marcelo Gondim gondim em bsdinfo.com.br
Sábado Outubro 15 19:57:56 BRT 2011


Em 15/10/2011 16:54, Luiz Gustavo Costa escreveu:
> Buenas Marcelo !!!
>
> Rapaz, vinum... usei muito na familia 4.x do freebsd, era muito bom ! mas
> quando migra-mos para o 5.x ele não foi portado, até foi criado o gvinum,
> mas até algum tempo atras não estava estavel (falo isso mas eu não sei
> como esta o estado dele hoje).
Opa Luiz,

É uma boa oportunidade de começar à trabalhar com o zfs e a máquina tem 
12Gb de ram então é de boa.
Tava vendo que para cada 1Tb de disco é bom ter 1Gb de ram pelo menos 
para o zfs ou algo assim. Bem vou fazer meus testes aqui e valeu pela 
dica do RaidZ.

>
> Eu faria o raid5 (raidZ) no zfs, mas existe uma outra opção chamada graid5
> no ports, sinceramente nunca usei, mas pode-se testar:
>
> [root em desktop] /usr/ports/sysutils/graid5# cat pkg-descr
> FreeBSD GEOM class for RAID5.
>
> This is RAID5 geom class, originally written by Arne Worner
> <arne_woerner em yahoo.com>
>
> WWW: http://lev.serebryakov.spb.ru/download/graid5/
>
> Abraços
>
>
> Em Sat, 15 Oct 2011 14:50:45 -0300, Marcelo Gondim<gondim em bsdinfo.com.br>
> escreveu:
>
>> Olá Pesssoal,
>>
>> Estou aqui com 4 discos SATA II em uma máquina e resolvi fazer um raid 5
>> com eles. Usei o gvinum:
>>
>> drive r0 device /dev/ad12a
>> drive r1 device /dev/ad14a
>> drive r2 device /dev/ad16a
>> drive r3 device /dev/ad18a
>> volume raid5
>>       plex org raid5 512k
>>       sd drive r0
>>       sd drive r1
>>       sd drive r2
>>       sd drive r3
>>
>> Parece que foi tudo 100%. É realmente o gvinum usado para fazer o raid 5
>> ou existe alguma outra forma melhor no FreeBSD?
>> Uma outra coisa que aparece no boot é essa mensagem:
>>
>> Oct 15 10:36:12 zeus kernel: GEOM_VINUM: raid5 plex request failed.
>> gvinum/raid5[READ(offset=1500321938944, length=512)]
>>
>> Mas parece que está tudo funcionando:
>>
>> gvinum ->  printconfig
>> # Vinum configuration of zeus.linuxinfo.com.br, saved at Sat Oct 15
>> 14:48:59 2011
>> drive r0 device /dev/ad12a
>> drive r1 device /dev/ad14a
>> drive r2 device /dev/ad16a
>> drive r3 device /dev/ad18a
>> volume raid5
>> plex name raid5.p0 org raid5 1024s vol raid5
>> sd name raid5.p0.s0 drive r0 len 976772096s driveoffset 265s plex
>> raid5.p0 plexoffset 0s
>> sd name raid5.p0.s1 drive r1 len 976772096s driveoffset 265s plex
>> raid5.p0 plexoffset 1024s
>> sd name raid5.p0.s2 drive r2 len 976772096s driveoffset 265s plex
>> raid5.p0 plexoffset 2048s
>> sd name raid5.p0.s3 drive r3 len 976772096s driveoffset 265s plex
>> raid5.p0 plexoffset 3072s
>>
>> gvinum ->  l
>> 4 drives:
>> D r0                    State: up       /dev/ad12a      A: 0/476939 MB
>> (0%)
>> D r1                    State: up       /dev/ad14a      A: 0/476939 MB
>> (0%)
>> D r2                    State: up       /dev/ad16a      A: 0/476939 MB
>> (0%)
>> D r3                    State: up       /dev/ad18a      A: 0/476939 MB
>> (0%)
>>
>> 1 volume:
>> V raid5                 State: up       Plexes:       1 Size:       1397
>> GB
>>
>> 1 plex:
>> P raid5.p0           R5 State: up       Subdisks:     4 Size:       1397
>> GB
>>
>> 4 subdisks:
>> S raid5.p0.s0           State: up       D: r0           Size:        465
>> GB
>> S raid5.p0.s1           State: up       D: r1           Size:        465
>> GB
>> S raid5.p0.s2           State: up       D: r2           Size:        465
>> GB
>> S raid5.p0.s3           State: up       D: r3           Size:        465
>> GB
>>
>> Essa mensagem de erro no boot é normal?
>>
>> Grande abraço à todos
>>
>> -------------------------
>> Histórico: http://www.fug.com.br/historico/html/freebsd/
>> Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
>



Mais detalhes sobre a lista de discussão freebsd