Beiträge von p-head

    Zitat von bangerl;278482

    hab das selbe problem, weiß jemand, wie man das behebt, weil ich ne Staffel brauch, aber nicht jeden link einzeln rein tun will...
    Und, ich hab alle automatischen Updates installiert, gibt es noch manuell welche ? ? ?



    Für die Unixer unter euch: Seite Speichern und dann


    cat Seite.html | awk -F '<a href="|" target="_blank"' 'BEGIN{RS="<a href=";} END{RT="hier"} {print $0}' | grep '.html"' | cut -d ' ' -f 1 | sed 's/"//g


    Ist unschön, geht bestimmt auch einfacher. Aber es dauert nur 0,01 Sekunden :)

    Wo ich das hier gerade lese: Du brauchst auf keinen Fall Gnome oder KDE nur wegen des JDownloaders. Xserver + openbox reicht dafür locker. Denn sowohl Gnome als auch KDE bringen hunderte von Programmen und Diensten mit, die du ja alle nicht brauchst und die nur Resourcen fressen. Und den maximalen cpuverbrauch kannst du z.B. mit


    cpulimit -e java -l 30


    einstellen. Dann darf Java maximal 30% der CPU-Power fressen.

    Morgen zusammen,


    ich habe mir ein kleines Programm geschrieben, was mir Arbeit erspart - ich füttere es mit einem Link von serienjunkies.org (keine ganze Kategorie), dann fragt es das Captcha ab und es sucht sich die rapidshare-links heraus - was z.b. bei einer DVD-iso ja meist um die 80 Stück sind.


    Nun arbeitet das Prog mit threads, um die ~80 Links schnell extrahieren zu können - es sendet 5 gleichzeitige http-requests, wartet 200ms und schickt dann wieder 5 requests usw.. Dann geht das ganze recht fix (tausendmal schneller als mit JDownloader).


    Macht das was aus? Ihr bietet so einen geilen Service, da will ich euch nicht irgendwie schaden. Und das Limit gibt's ja so oder so.