Şimdi Ara

Remote URL hakkında

Daha Fazla
Bu Konudaki Kullanıcılar: Daha Az
2 Misafir - 2 Masaüstü
5 sn
12
Cevap
0
Favori
386
Tıklama
Daha Fazla
İstatistik
  • Konu İstatistikleri Yükleniyor
0 oy
Öne Çıkar
Sayfa: 1
Giriş
Mesaj
  • Arkadaşlar merhaba,

    Bir FTP var bu FTP'de 8 TB arşiv var ve benim sunucuma aktarmak istiyorum. Hepsinin linkleri hazır rapidleech kullanıyorum ancak stabil değil. 8 GB'lık bir zip dosyasını aktarırken problem veriyor. Bazen de donuyor. Özellikle 403 Forbidden hatası alıyorum.

    Sizden ricam bildiğiniz toplu aktarım yapabileceğim bir script var mı ? Bilenler lütfen paylaşsın adını bana..

    2500 adet link var. 500 MB ile 10 GB arasında bu arşivler.. toplamda 2500 adet arşiv var. Sırayla tek tek aktarsın istiyorum..


    Cevaplarınızı bekliyorum..



  • sunucu ne, linux mı windows mu?
  • LINUX
  • e tamam madem linux kasmaya gerek var mı rapidleech falan :) bash script yazıp wget ile rahatça çekersin
  • bu arada patlaması durumunu da filesize ile kontrol edersin, eğer eksik indirmişse wget -c ile tekrar devam edersin kaldığı yerden
  • Dracos sık sık senle yazışıyoruz. Sağolasın çok ilgili ve cevap yazan birisin ama birşey sorabilir miyim ?

    Script örneğin var mı ?

    Rapidleech çekmiyor 12 GB dosyası 10.000 tane link var. Sırayla çeksin istiyorum. serverde alan çok ama wget olayına bir örnek bulsam yapacam.
  • var da şu an erişebilecek bir yerde değilim, nette tonla var zaten, wget download guide diye bakarsan çıkar birşeyler ya da terminalde man wget yaz ordan çözersin zaten

    wget ile txt liste verdiğin zaman sırayla verdiğin url deki dosyalar iner zaten, wget -i liste.txt gibi kullanabilirsin onu yani
  • Dracos tekrar çok teşekkür ederim. Sen mükemmelsin. İnan 3 gündür arıyorum internette o kadar çok bunu araştıran ve bulamayan var ki inşallah bu konuyu bulup çözerler.. :)

    Şimdi bir arkadaş yardımcı oldu. Shell Access terminal'den ftp ip adresine bağlandı tüm ftp'yi klonluyor benim sunucuya :) bu mükemmel birşey :)
  • quote:

    Orijinalden alıntı: Dracos

    var da şu an erişebilecek bir yerde değilim, nette tonla var zaten, wget download guide diye bakarsan çıkar birşeyler ya da terminalde man wget yaz ordan çözersin zaten

    wget ile txt liste verdiğin zaman sırayla verdiğin url deki dosyalar iner zaten, wget -i liste.txt gibi kullanabilirsin onu yani

    wget -i HDD1.txt

    yapıyorum, aşağıdaki klasörleri çekmesi gerekirken index.html olarak çekiyor. Nerede hata yapıyorum ?


    TXT içeriği
    ftp://xxx.xxx.xxx.xx/HDD1/apache
    ftp://xxx.xxx.xxx.xx/HDD1/apache2
    ftp://xxx.xxx.xxx.xx/HDD1/apache3
    ftp://xxx.xxx.xxx.xx/HDD1/apache4
    ftp://xxx.xxx.xxx.xx/HDD1/apache5

    Şöyle de denedimç
    TXT içeriği
    ftp://xxx.xxx.xxx.xx/HDD1/apache/
    ftp://xxx.xxx.xxx.xx/HDD1/apache2/
    ftp://xxx.xxx.xxx.xx/HDD1/apache3/
    ftp://xxx.xxx.xxx.xx/HDD1/apache4/
    ftp://xxx.xxx.xxx.xx/HDD1/apache5/




  • Sayın Dracos bir de aynı rapidleech'de olduğu gibi wget ile de 5 GB'lık bir dosyayı aktarırken bir süre sonra kill proccessor oluyor? Buna çözüm yok mu ya ? 2.5 gb inince tak kesiliyor.
  • öbür taraf timeout veriyordur o zaman, wget durmaz çünkü öyle durup dururken bağlantı kopmadan ya da disk alanı dolmadan, diğer taraftaki conf dosyalarını kurcalaman gerekli biraz o şekilde düzeltirsin, hani sıkıntı wget olsa curlftpfs ile local mount edip direk cp -r ile dizin kopyala diyeceğim ama kendim de kullanıyorum yani birşey indirirken wget sürekli, sıkıntı olmaz o şekilde

    bu arada bu şekilde linklerle recursive inmez zaten direk index gelir sadece, bu formatta ise ayrıca dosyaların liste yapmana gerek yok elle çekmek daha rahat olabilir timeout olayını düzelttikten sonra, tüm dosyaları almak için şöyle yazman gerekir

    $ wget -rftp://xxx.xxx.xxx.xx/HDD1/apache/*

    almak istemediğin dosya varsa --reject ile o tür dosyaları belirteceksin vs. biraz parametreleri var yani onun, ama bu şekilde direk site vs. çekiyorsan sıkıntı olur, ne tür bir klasör yapın var bilmiyorum da örneğin site çekiyorsan framework varsa wget in default derinlik ayarını 5 ten 9-10 a çıkarman gerekir, yoksa 5 klasörden sonrasında daha derine inmez root belirttiğin dizin üzerinden giderken, onlara da dikkat et

    tabii bunlar diğer sunucuda da yetkili olduğuna dair varsayımlarım, eğer değilsen bash script yazıp dediğim gibi önce wget ile çekip filesize olması gerektiği gibi mi kontrol ederek, eksikse wget -c ile tekrar aynı dosyayı devam ettirmek üzerine olacak izleyeceğin yol, for döngüsü ile bakabilirsin ona liste.txt gibi bir dosyadan alarak, biraz kastırabilir linux ile aran iyi değilse yani grep cat falan kullanman lazım çekmek için o verileri karşıdan liste olarak :)




  • quote:

    Orijinalden alıntı: Dracos

    öbür taraf timeout veriyordur o zaman, wget durmaz çünkü öyle durup dururken bağlantı kopmadan ya da disk alanı dolmadan, diğer taraftaki conf dosyalarını kurcalaman gerekli biraz o şekilde düzeltirsin, hani sıkıntı wget olsa curlftpfs ile local mount edip direk cp -r ile dizin kopyala diyeceğim ama kendim de kullanıyorum yani birşey indirirken wget sürekli, sıkıntı olmaz o şekilde

    bu arada bu şekilde linklerle recursive inmez zaten direk index gelir sadece, bu formatta ise ayrıca dosyaların liste yapmana gerek yok elle çekmek daha rahat olabilir timeout olayını düzelttikten sonra, tüm dosyaları almak için şöyle yazman gerekir

    $ wget -rftp://xxx.xxx.xxx.xx/HDD1/apache/*

    almak istemediğin dosya varsa --reject ile o tür dosyaları belirteceksin vs. biraz parametreleri var yani onun, ama bu şekilde direk site vs. çekiyorsan sıkıntı olur, ne tür bir klasör yapın var bilmiyorum da örneğin site çekiyorsan framework varsa wget in default derinlik ayarını 5 ten 9-10 a çıkarman gerekir, yoksa 5 klasörden sonrasında daha derine inmez root belirttiğin dizin üzerinden giderken, onlara da dikkat et

    tabii bunlar diğer sunucuda da yetkili olduğuna dair varsayımlarım, eğer değilsen bash script yazıp dediğim gibi önce wget ile çekip filesize olması gerektiği gibi mi kontrol ederek, eksikse wget -c ile tekrar aynı dosyayı devam ettirmek üzerine olacak izleyeceğin yol, for döngüsü ile bakabilirsin ona liste.txt gibi bir dosyadan alarak, biraz kastırabilir linux ile aran iyi değilse yani grep cat falan kullanman lazım çekmek için o verileri karşıdan liste olarak :)



    Sayın Dracos sana nasıl teşekkür etsem az. Neredeyse bilgi doldurdun beynimi teşekkür ederim sana.
    Ben de dediğin gibi olduğunu düşündüm ve Excel'de biraz kurcalama yaparak şu şekilde alt alta komutları yazdım.


    wget -rftp://xxx.xxx.xxx.xxx/HDD1/worms.reloaded/worms.reloaded.mdf -P public_html/depo/Oyun/
    wget -rftp://xxx.xxx.xxx.xxx/HDD1/worms.reloaded/worms.reloaded.iso -P public_html/depo/Oyun/
    wget -rftp://xxx.xxx.xxx.xxx/HDD1/worms.reloaded/crack_w.rar -P public_html/depo/Oyun/
    wget -rftp://xxx.xxx.xxx.xxx/HDD1/worms.reloaded/crack.rar -P public_html/depo/Oyun/


    daha sonra kodları aynı anda komut olarak verdim ve sorunum çözüldü. Şimdi tek tek dosyaları aktarıyor. Tabi excel'de boyut sıralaması yaptım ve 2 GB'tan büyük dosyaları bu listeden çıkarttım. Şimdi benim sunucumda depo/Oyun/xxx.xxx.xxx.xxx/HDD1/ dizininin altına tek tek dizin yapısını da çekerek atıyor çok memnun etti beni. :)

    Bu bağlamda işim sonuca doğru ererken sana birşey sormak istiyorum. Elimde tüm dizin ve yol bilgileri var, aynı zamanda size bilgileri de var. Bendeki dosyalar ile karşı taraftaki dosyaların boyutlarını kıyaslama ve bendeki dosyaların boyutları daha küçükse bunu anlayabileceğim bir kod var mı?

    Tüm bunlar kapsamında senin başını ağrıtmamam için bana bir kitap, bir kaynak vs. önerebilir misin ? Çok hoşuma gitti bu işler :)



    < Bu mesaj bu kişi tarafından değiştirildi UgurSirin -- 27 Eylül 2014; 11:53:54 >




  • 
Sayfa: 1
- x
Bildirim
mesajınız kopyalandı (ctrl+v) yapıştırmak istediğiniz yere yapıştırabilirsiniz.