[FUG-BR] tunning para um futuro servidor manicomio-share

Marcelo Gondim gondim em bsdinfo.com.br
Quinta Julho 12 10:36:51 BRT 2012


Em 12/07/2012 10:07, Leonardo Augusto escreveu:
> 2012/7/12 Marcelo Gondim <gondim em bsdinfo.com.br>:
>> ahhaha que jeito bom de começar uma nova thread :D
>>
>> Pessoal vou começar a thread com os dados técnicos para quem não
>> acompanhou um tempo atrás. Detalhe, com a aplicação do memcache o número
>> de conexões ao MySQL caiu de perto de 4000 para 2721. Vamos aos dados do
>> site:
>>
>> Peers: 436.180
>> Users: 94.733
>> Torrents: 99.282
>>
>> O I/O de disco é também intenso e hoje é um servidor com 4 discos SAS
>> 15k rpm 147Gb em raid 0 com controladora LSI MegaRAID SAS 9260-4i.
>>
>> 1ª) pergunta o que teria a melhor performance para essa situação? ZFS ou
>> UFS2+SUJ
>> 2ª) Abaixo o sysctl.conf e loader.conf e o que vocês acham sobre eles:
>>
>> sysctl.conf:
>> ==========
>> kern.ipc.somaxconn=4096
>> kern.ipc.shmmax=2147483648
>> kern.ipc.maxsockets=204800
>> kern.ipc.nmbclusters=262144
>> kern.ps_arg_cache_limit=4096
>> kern.maxfiles=204800
>> kern.maxfilesperproc=200000
>> kern.maxvnodes=200000
>> kern.timecounter.hardware=HPET
>> net.inet.tcp.rfc1323=1
>> net.inet.tcp.delayed_ack=0
>> net.inet.ip.portrange.first=1024
>> net.inet.ip.portrange.last=65535
>> net.inet.ip.rtminexpire=2
>> net.inet.ip.rtmaxcache=1024
>> net.inet.ip.redirect=0
>> net.inet.ip.sourceroute=0
>> net.inet.ip.accept_sourceroute=0
>> net.inet.icmp.maskrepl=0
>> net.inet.icmp.log_redirect=0
>> net.inet.icmp.drop_redirect=1
>> net.inet.tcp.drop_synfin=1
>> net.inet.udp.blackhole=1
>> net.inet.tcp.blackhole=2
>> net.inet6.icmp6.nodeinfo=0
>> net.inet6.ip6.use_tempaddr=1
>> net.inet6.ip6.prefer_tempaddr=1
>> net.inet6.icmp6.rediraccept=0
>> net.inet.ip.ttl=128
>> net.inet.tcp.msl=5000
>> net.inet.tcp.maxtcptw=200000
>> net.inet.tcp.fast_finwait2_recycle=1
>> net.inet.ip.intr_queue_maxlen=4096
>> net.inet.ip.dummynet.io_fast=1
>> vfs.ufs.dirhash_maxmem=67108864
>> vfs.read_max=64
>> net.inet.tcp.ecn.enable=1
>> net.inet.ip.fw.dyn_buckets=65536
>> net.inet.ip.fw.dyn_max=65536
>> net.inet.ip.fw.dyn_ack_lifetime=120
>> net.inet.ip.fw.dyn_syn_lifetime=10
>> net.inet.ip.fw.dyn_fin_lifetime=2
>> net.inet.ip.fw.dyn_short_lifetime=10
>>
>> loader.conf:
>> ==========
>> aio_load="YES"
>> net.inet.tcp.syncache.hashsize=32768
>> net.inet.tcp.syncache.bucketlimit=32
>> net.inet.tcp.syncache.cachelimit=1048576
>> net.inet.tcp.hostcache.hashsize=65536
>> net.inet.tcp.hostcache.cachelimit=1966080
>> net.inet.tcp.tcbhashsize=4096
>> vm.pmap.pg_ps_enabled=1
>>
>> Sabemos que essa parte de tunning é uma característica muitas das vezes
>> até do tipo do servidor e da carga que esse recebe mas é sempre bom
>> comentar sobre o que temos e ouvir a experiência daqueles que já
>> passaram por diversos problemas.  :)
>>
>> Gondim
> Marcelo,
>
> A primeira coisa que eu faria seria abolir esse RAID 0, se um hd
> pifar, para e perde tudo,
> raid 0 só em lugares onde tem apenas read e tem cluster... senao o
> sistema para mesmo
> em caso de falha fisica de algum hd.
>
> Te aconselho a adotar o RAID 10 ou o RAID 5, eles tem uma boa media em
> read/write(o 10 tem melhor read)
> e o principal, se amanha pifar um hd, vc nao para o servidor nem perde nada.
> raid 0 sera uma catastrofe.

E se no lugar do raid 10 fizesse um raidz2 com ZFS? Será que a 
performance no ZFS seria melhor ou pior que fazendo o raid 10 e usando o 
UFS2+SUJ?




Mais detalhes sobre a lista de discussão freebsd