2010/11/22 santenkelapa muda <santen...@gmail.com>:
> --
> Untuk memposting, silakan reply email ini atau kirim email baru ke alamat:
> mysql-i...@googlegroups.com
> Untuk berhenti keanggotaan, silakan kirim email kosong ke alamat:
> mysql-indones...@googlegroups.com
>
> Untuk melihat arsip milis, member, atau hal-hal lainnya silakan kunjungi
> alamat: http://groups.google.com/group/mysql-indonesia?hl=id
jika package mysql pada bundle xampp tidak support storage innodb,
jadi install mysql lainnya yg support storage innodb, dan tidak
menggunakan mysql pada xampp yang lama.
untuk storage innodb konfigurasi my.ini, pada bagian
innodb_buffer_pool_size dan innodb_log_file_size agar dimaksimalkan
sesuai dengan ram yang anda punyai, segingga performansinya optimal
(langkaj ini akan sangat membantu mempercepat database anda).
Sebelum tuning, harus punya tujuan dan tahu bottlenecknya.
Coba baca2 ini dulu :
http://endy.artivisi.com/blog/java/tuning-performance/
--
Endy Muhardin
http://endy.artivisi.com
Y! : endymuhardin
-- life learn contribute --
saya ingin meningkatkan performa ngedump di mysql , soalnya saya test
ngedump 1 juta record prosesnya berjalan 287 second, seharusnya bisa
lebih cepat kan ya ..?
> --
> Untuk memposting, silakan reply email ini atau kirim email baru ke alamat:
> mysql-i...@googlegroups.com
> Untuk berhenti keanggotaan, silakan kirim email kosong ke alamat:
> mysql-indones...@googlegroups.com
>
> Untuk melihat arsip milis, member, atau hal-hal lainnya silakan kunjungi
> alamat: http://groups.google.com/group/mysql-indonesia?hl=id
2010/11/23 santenkelapa muda <santen...@gmail.com>:
Sudah baca artikel saya?
Kalo belum baca dulu.
1. Pengennya berapa detik?
2. Bottlenecknya di mana, sudah diprofile belum?
@pak endy , terimakasih pak atas artikelnya sangat menggugah selera :D
oya pak untuk solusi sementara ini saya melakukan testing dengan cara
saya melakukan dump ke 10 table berbeda yg mana table-table ini nanti
akan saya union dan cara ini bisa mengurangi waktu 1/3 nya
On 11/23/10, endy.m...@gmail.com <endy.m...@gmail.com> wrote:
@pak endy , terimakasih pak atas artikelnya sangat menggugah selera :D
oya pak untuk solusi sementara ini saya melakukan testing dengan cara
saya melakukan dump ke 10 table berbeda yg mana table-table ini nanti
akan saya union dan cara ini bisa mengurangi waktu 1/3 nya
apa cara saya ini sudah benar ..?? atau ada cara yg lebih menarik ..??
mohon solusinya
60 juta record? sangat menantang.
> @pak endy , terimakasih pak atas artikelnya sangat menggugah selera :D
> oya pak untuk solusi sementara ini saya melakukan testing dengan cara
> saya melakukan dump ke 10 table berbeda yg mana table-table ini nanti
> akan saya union dan cara ini bisa mengurangi waktu 1/3 nya
menurut saya tidak akan banyak berpengaruh, karena beberapa hal:
. pada dasarnya, bottleneck pada database kita adalah pada harddisk.
mengingat hardisk beroperasi secara sequensial, walaupun anda
melakukan proses dump 10 table secara parallel, pada level IO disk,
operasi tetep akan sequensial, tidak bisa parallel.
menurut saya, beberapa yang perlu dicoba:
1. gunakan disk yang berbeda untuk source dan destination waktu
melakukan dump menggunakan mysqldump. misalnya data mysql berada di
drive D, di hardisk A, dan hasil dump disimpan di drive E, pada
hardisk B. dua disk berarti dua proses mysqldump, 3 disk berarti 3
proses mysqldump, dst.
2. tabel harus dipartisi menjadi beberapa bagian, dan tiap bagian
diarahkan ke satu drive. gunakan mysql partition (saya sudah pernah
mencobanya :))
3. anda bisa menggunakan tokudb. tokudb adalah database mysql khusus
untuk data diatas 50 jt record. selagi data anda < 50 Giga, maka
tokudb bisa dipakai gratis. tokudb melakukan kompresi data sebelum di
write ke disk, sehingga jumlah IO akan lebih kecil.
proses read/write IO dan proses CPU bisa berjalan parallel, jadi
proses compression dapat berjalan parallel dg IO read/write
4. menggunakan database analytic mysql, seperti Infobright atau
infinidb. saya pernah load data kira-kira 30 giga atau 30 juta record
ke mysq infobright, cuma 20 menit.
oiya, jangan lupa menggunakan opsi --SINGLE-TRANSACTION jika melakukan
parallel dumping, dan pakailah storage innoDB.