Şimdi Ara

Yüksek veriler için alt yapı?

Daha Fazla
Bu Konudaki Kullanıcılar: Daha Az
3 Misafir (1 Mobil) - 2 Masaüstü1 Mobil
5 sn
9
Cevap
0
Favori
388
Tıklama
Daha Fazla
İstatistik
  • Konu İstatistikleri Yükleniyor
0 oy
Öne Çıkar
Sayfa: 1
Giriş
Mesaj
  • Arkadaşlar yaklaşık olarak 200.000 - 300.000 bin veriden bahsediyorum.
    Phpmyadmin haliyle yavaş çalışıyor böyle durumlarda hele ki çift sql de patlıyor.
    Bunun için php ve phpmyadmin destekleyen kolay kullanımlı bir alt yapı varmı bildiğiniz? (ücretli-ücretsiz farketmez)
    ben mongo yu biliyorum tek akıl akıldan üstündür diyerek sorayım dedim sizlere
    Teşekkürler



    < Bu mesaj bu kişi tarafından değiştirildi Crosslan -- 22 Haziran 2020; 11:53:36 >







  • Verileri Hadoop File Sytem /HDFS ile saklayan ve SQL ile sorgulama yapılabilen sistemler var, şu anda adını unuttum* Bir de MySQL 8 ile büyük verileri saklayabilecek ek özellikler geldi; onlarla petabyte'larca veriyi SQL ile yönetebiliyorsun.

    *Şimdi baktım: Apache Drill ve Apache Phoenix



    < Bu mesaj bu kişi tarafından değiştirildi Tuğkan-0153 -- 22 Haziran 2020; 21:13:38 >
    < Bu ileti mini sürüm kullanılarak atıldı >
  • Önce indexlere sonra makinaya bakın bundan 5 sene önce milyonluk kayıtlar 1 gb hafızalı tek cpu vps lerde 20 sn de sonuç veriyordu.

    PHP MyAdmin bir ui, yeni versiyonları çok kötü değil.

    Ancak Godaddy vb gibi aşırı yüklü yerlerden hosting alıyorsanız yavaş çalışır.

    Tabi veriye göre yazdığınız yazılımın cache vs durumlarınıda ayarlamanız lazım.

    Ama sen diyorsanki abi bil milyon kayıt bin kayıt gibi çalışsın. Ozaman NVME üzerinde çalışan çok cpu lu çok ramlı ona göre ayarlanmış sunuculara bakın derim.

    Aydın havası: MySql ve indexle ilgili bilgini arttır.
  • 300.000 satır sayısı hiçbir veritabanını zorlamaz. Muhtemelen sorgularında bir problem var.
  • Hepiniz sağolun şuan hızlı zaten ben sadece daha da verimli hale getirmek için yapılabilecek birşeyler var mı ve bilmediğim bir yöntem varmı diye merak ettim tüm fikirlere açığım



    < Bu mesaj bu kişi tarafından değiştirildi Crosslan -- 24 Haziran 2020; 12:5:17 >
  • 200-300 bin veri cok kucuk bir veri.
    1- Sorgularinizi optimize edin
    2- kodlarinizi gozden gecirin
    3- ilk iki yaptiniz ama yetmedi ise digitalocean gibi kolay bir kaynaktan basit bir VM alin oraya kurun.(belki hosting firmasinin cihazi eski veya arizalidir) Normalde yuksek diyecegimiz verileri saniyete 1 milyon tweet gibi nasil yapariz sorusunun cevabini forumda bulamaziniz.

    Degil Mysql,sql server gibi cozumleri Sqlite da dahi tutarsiniz sorunsuz da sorgularsiniz.



    < Bu mesaj bu kişi tarafından değiştirildi mahoni_38 -- 23 Haziran 2020; 13:56:53 >
  • 300bin kayıtda sıkıntı yaşıyorsan, optimizasyon problemin var.

    Bu veriler tek tablodaysa index önemli.

    Performansı zorlayan sorguyu da paylasabilirsin. Sorguda bir anormallik olabilir.

    < Bu ileti DH mobil uygulamasından atıldı >
  • 
Sayfa: 1
- x
Bildirim
mesajınız kopyalandı (ctrl+v) yapıştırmak istediğiniz yere yapıştırabilirsiniz.