[FUG-BR] Raid 5 no FreeBSD

Marcelo Gondim gondim em bsdinfo.com.br
Sábado Outubro 15 21:34:47 BRT 2011


Em 15/10/2011 20:23, Paulo Henrique BSD Brasil escreveu:
> Aproposito, cuidado com disco maiores de 2Tb, a placa-mãe tem que
> disponibilizar suporte a GPT assim como o loader do sistema tambem,
> Acabei de me informar sobre apos 6 discos de 3Tb da Seagate adquiridos
> recentemente só poderá ser usados em placas sandy-bridge.
> Para mais informação:
> http://www.rodsbooks.com/gdisk/booting.html

Opa essa é uma excelente informação Paulo. Bom saber para não comprar 
errado.

> At.t.
> Em 15/10/2011 19:57, Marcelo Gondim escreveu:
>> Em 15/10/2011 16:54, Luiz Gustavo Costa escreveu:
>>> Buenas Marcelo !!!
>>>
>>> Rapaz, vinum... usei muito na familia 4.x do freebsd, era muito bom ! mas
>>> quando migra-mos para o 5.x ele não foi portado, até foi criado o gvinum,
>>> mas até algum tempo atras não estava estavel (falo isso mas eu não sei
>>> como esta o estado dele hoje).
>> Opa Luiz,
>>
>> É uma boa oportunidade de começar à trabalhar com o zfs e a máquina tem
>> 12Gb de ram então é de boa.
>> Tava vendo que para cada 1Tb de disco é bom ter 1Gb de ram pelo menos
>> para o zfs ou algo assim. Bem vou fazer meus testes aqui e valeu pela
>> dica do RaidZ.
>>
>>> Eu faria o raid5 (raidZ) no zfs, mas existe uma outra opção chamada graid5
>>> no ports, sinceramente nunca usei, mas pode-se testar:
>>>
>>> [root em desktop] /usr/ports/sysutils/graid5# cat pkg-descr
>>> FreeBSD GEOM class for RAID5.
>>>
>>> This is RAID5 geom class, originally written by Arne Worner
>>> <arne_woerner em yahoo.com>
>>>
>>> WWW: http://lev.serebryakov.spb.ru/download/graid5/
>>>
>>> Abraços
>>>
>>>
>>> Em Sat, 15 Oct 2011 14:50:45 -0300, Marcelo Gondim<gondim em bsdinfo.com.br>
>>> escreveu:
>>>
>>>> Olá Pesssoal,
>>>>
>>>> Estou aqui com 4 discos SATA II em uma máquina e resolvi fazer um raid 5
>>>> com eles. Usei o gvinum:
>>>>
>>>> drive r0 device /dev/ad12a
>>>> drive r1 device /dev/ad14a
>>>> drive r2 device /dev/ad16a
>>>> drive r3 device /dev/ad18a
>>>> volume raid5
>>>>         plex org raid5 512k
>>>>         sd drive r0
>>>>         sd drive r1
>>>>         sd drive r2
>>>>         sd drive r3
>>>>
>>>> Parece que foi tudo 100%. É realmente o gvinum usado para fazer o raid 5
>>>> ou existe alguma outra forma melhor no FreeBSD?
>>>> Uma outra coisa que aparece no boot é essa mensagem:
>>>>
>>>> Oct 15 10:36:12 zeus kernel: GEOM_VINUM: raid5 plex request failed.
>>>> gvinum/raid5[READ(offset=1500321938944, length=512)]
>>>>
>>>> Mas parece que está tudo funcionando:
>>>>
>>>> gvinum ->    printconfig
>>>> # Vinum configuration of zeus.linuxinfo.com.br, saved at Sat Oct 15
>>>> 14:48:59 2011
>>>> drive r0 device /dev/ad12a
>>>> drive r1 device /dev/ad14a
>>>> drive r2 device /dev/ad16a
>>>> drive r3 device /dev/ad18a
>>>> volume raid5
>>>> plex name raid5.p0 org raid5 1024s vol raid5
>>>> sd name raid5.p0.s0 drive r0 len 976772096s driveoffset 265s plex
>>>> raid5.p0 plexoffset 0s
>>>> sd name raid5.p0.s1 drive r1 len 976772096s driveoffset 265s plex
>>>> raid5.p0 plexoffset 1024s
>>>> sd name raid5.p0.s2 drive r2 len 976772096s driveoffset 265s plex
>>>> raid5.p0 plexoffset 2048s
>>>> sd name raid5.p0.s3 drive r3 len 976772096s driveoffset 265s plex
>>>> raid5.p0 plexoffset 3072s
>>>>
>>>> gvinum ->    l
>>>> 4 drives:
>>>> D r0                    State: up       /dev/ad12a      A: 0/476939 MB
>>>> (0%)
>>>> D r1                    State: up       /dev/ad14a      A: 0/476939 MB
>>>> (0%)
>>>> D r2                    State: up       /dev/ad16a      A: 0/476939 MB
>>>> (0%)
>>>> D r3                    State: up       /dev/ad18a      A: 0/476939 MB
>>>> (0%)
>>>>
>>>> 1 volume:
>>>> V raid5                 State: up       Plexes:       1 Size:       1397
>>>> GB
>>>>
>>>> 1 plex:
>>>> P raid5.p0           R5 State: up       Subdisks:     4 Size:       1397
>>>> GB
>>>>
>>>> 4 subdisks:
>>>> S raid5.p0.s0           State: up       D: r0           Size:        465
>>>> GB
>>>> S raid5.p0.s1           State: up       D: r1           Size:        465
>>>> GB
>>>> S raid5.p0.s2           State: up       D: r2           Size:        465
>>>> GB
>>>> S raid5.p0.s3           State: up       D: r3           Size:        465
>>>> GB
>>>>
>>>> Essa mensagem de erro no boot é normal?
>>>>
>>>> Grande abraço à todos
>>>>



Mais detalhes sobre a lista de discussão freebsd