[FUG-BR] Raid 5 no FreeBSD

Josias L.G josiaslg em bsd.com.br
Domingo Outubro 16 01:38:46 BRST 2011


http://wiki.freebsd.org/BHyVe

Em breve algo melhor do que Xen.

Abraços.

Em 15/10/2011, às 23:41, Marcelo Gondim escreveu:

> Em 15/10/2011 23:03, Thiago Damas escreveu:
>>   Que tipo de aplicacao usara estes discos? Ja pensou em fazer um RAID
>> 10 com zfs?
> 
> Opa Thiago,
> 
> No momento para hospedagem de algumas aplicações mas pensei em criar um 
> servidor de VMs. No entanto parece que para isso o que temos de melhor 
> seria o Virtualbox pelo jeito.
> Pena que ainda não temos grandes opções para essa tarefa ou estou enganado?
> Estive procurando por Xen no FreeBSD e pelo visto só trabalha como domU 
> e não como dom0.
> 
>> 
>> Thiago
>> 
>> Em 15 de outubro de 2011 21:32, Marcelo Gondim<gondim em bsdinfo.com.br>  escreveu:
>>> Em 15/10/2011 16:54, Luiz Gustavo Costa escreveu:
>>>> Buenas Marcelo !!!
>>>> 
>>>> Rapaz, vinum... usei muito na familia 4.x do freebsd, era muito bom ! mas
>>>> quando migra-mos para o 5.x ele não foi portado, até foi criado o gvinum,
>>>> mas até algum tempo atras não estava estavel (falo isso mas eu não sei
>>>> como esta o estado dele hoje).
>>>> 
>>>> Eu faria o raid5 (raidZ) no zfs, mas existe uma outra opção chamada graid5
>>>> no ports, sinceramente nunca usei, mas pode-se testar:
>>> Pronto agora em raidz  ;)
>>> 
>>> (root em zeus)[~]# zpool status storage
>>>   pool: storage
>>>  state: ONLINE
>>>  scan: none requested
>>> config:
>>> 
>>>         NAME        STATE     READ WRITE CKSUM
>>>         storage     ONLINE       0     0     0
>>>           raidz1-0  ONLINE       0     0     0
>>>             ad12    ONLINE       0     0     0
>>>             ad14    ONLINE       0     0     0
>>>             ad16    ONLINE       0     0     0
>>>             ad18    ONLINE       0     0     0
>>> 
>>> errors: No known data errors
>>> 
>>> As vezes é tão fácil fazer as coisas no FreeBSD que a gente até duvida
>>> que realmente funcione. ahahahahaah
>>> Muito bom mesmo!!!
>>> 
>>> 
>>>> [root em desktop] /usr/ports/sysutils/graid5# cat pkg-descr
>>>> FreeBSD GEOM class for RAID5.
>>>> 
>>>> This is RAID5 geom class, originally written by Arne Worner
>>>> <arne_woerner em yahoo.com>
>>>> 
>>>> WWW: http://lev.serebryakov.spb.ru/download/graid5/
>>>> 
>>>> Abraços
>>>> 
>>>> 
>>>> Em Sat, 15 Oct 2011 14:50:45 -0300, Marcelo Gondim<gondim em bsdinfo.com.br>
>>>> escreveu:
>>>> 
>>>>> Olá Pesssoal,
>>>>> 
>>>>> Estou aqui com 4 discos SATA II em uma máquina e resolvi fazer um raid 5
>>>>> com eles. Usei o gvinum:
>>>>> 
>>>>> drive r0 device /dev/ad12a
>>>>> drive r1 device /dev/ad14a
>>>>> drive r2 device /dev/ad16a
>>>>> drive r3 device /dev/ad18a
>>>>> volume raid5
>>>>>       plex org raid5 512k
>>>>>       sd drive r0
>>>>>       sd drive r1
>>>>>       sd drive r2
>>>>>       sd drive r3
>>>>> 
>>>>> Parece que foi tudo 100%. É realmente o gvinum usado para fazer o raid 5
>>>>> ou existe alguma outra forma melhor no FreeBSD?
>>>>> Uma outra coisa que aparece no boot é essa mensagem:
>>>>> 
>>>>> Oct 15 10:36:12 zeus kernel: GEOM_VINUM: raid5 plex request failed.
>>>>> gvinum/raid5[READ(offset=1500321938944, length=512)]
>>>>> 
>>>>> Mas parece que está tudo funcionando:
>>>>> 
>>>>> gvinum ->    printconfig
>>>>> # Vinum configuration of zeus.linuxinfo.com.br, saved at Sat Oct 15
>>>>> 14:48:59 2011
>>>>> drive r0 device /dev/ad12a
>>>>> drive r1 device /dev/ad14a
>>>>> drive r2 device /dev/ad16a
>>>>> drive r3 device /dev/ad18a
>>>>> volume raid5
>>>>> plex name raid5.p0 org raid5 1024s vol raid5
>>>>> sd name raid5.p0.s0 drive r0 len 976772096s driveoffset 265s plex
>>>>> raid5.p0 plexoffset 0s
>>>>> sd name raid5.p0.s1 drive r1 len 976772096s driveoffset 265s plex
>>>>> raid5.p0 plexoffset 1024s
>>>>> sd name raid5.p0.s2 drive r2 len 976772096s driveoffset 265s plex
>>>>> raid5.p0 plexoffset 2048s
>>>>> sd name raid5.p0.s3 drive r3 len 976772096s driveoffset 265s plex
>>>>> raid5.p0 plexoffset 3072s
>>>>> 
>>>>> gvinum ->    l
>>>>> 4 drives:
>>>>> D r0                    State: up       /dev/ad12a      A: 0/476939 MB
>>>>> (0%)
>>>>> D r1                    State: up       /dev/ad14a      A: 0/476939 MB
>>>>> (0%)
>>>>> D r2                    State: up       /dev/ad16a      A: 0/476939 MB
>>>>> (0%)
>>>>> D r3                    State: up       /dev/ad18a      A: 0/476939 MB
>>>>> (0%)
>>>>> 
>>>>> 1 volume:
>>>>> V raid5                 State: up       Plexes:       1 Size:       1397
>>>>> GB
>>>>> 
>>>>> 1 plex:
>>>>> P raid5.p0           R5 State: up       Subdisks:     4 Size:       1397
>>>>> GB
>>>>> 
>>>>> 4 subdisks:
>>>>> S raid5.p0.s0           State: up       D: r0           Size:        465
>>>>> GB
>>>>> S raid5.p0.s1           State: up       D: r1           Size:        465
>>>>> GB
>>>>> S raid5.p0.s2           State: up       D: r2           Size:        465
>>>>> GB
>>>>> S raid5.p0.s3           State: up       D: r3           Size:        465
>>>>> GB
>>>>> 
>>>>> Essa mensagem de erro no boot é normal?
>>>>> 
>>>>> Grande abraço à todos
>>>>> 
>>>>> -------------------------
>>>>> Histórico: http://www.fug.com.br/historico/html/freebsd/
>>>>> Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
>>> -------------------------
>>> Histórico: http://www.fug.com.br/historico/html/freebsd/
>>> Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
>>> 
>> -------------------------
>> Histórico: http://www.fug.com.br/historico/html/freebsd/
>> Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
>> 
> 
> -------------------------
> Histórico: http://www.fug.com.br/historico/html/freebsd/
> Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd



Mais detalhes sobre a lista de discussão freebsd