Angepinnt Auf der Suche nach der perfekten Linkverschlüsselung

    • Soweit ich weiß, halten sich "die meisten" bzw. die allgemein bekannten daran! ;)

      Ok, hier gibt die zusätzliche Lesesperre für Gäste auch noch etwas mehr Sicherheit.

      Aber das ist ja nicht auf allen Seiten so, wo man Links einstellen kann!
      Gruß Ap0phis

      Die geheimnisvolle Insel (Xvid und HQ, x264) *NEU*
      Star Trek - TNG - DS9 - VOY (HQ, DL, AC3, Xvid/x264)
      Auf der main:
      H2O - Plötzlich Meerjungfrau ° Cybill ° Diagnose: Mord ° Mission: Impossible 2 ° Cagney & Lacey

      Get your FileFactory or Netload Premium-Account ° ZDF-Hitparade (#77-81)
    • So ganz verstehe ich die aufregung hier nicht!
      Bei mir sind in der ganzen Zeit in der ich hier Uploads tätige erst 2 Files abused worden, und dabei benutze ich Crypt-it ohne Passwortschutz!
      Crypt-it nehme ich schon deshalb sehr gerne weil man die Ordner sehr einfach Editieren kann und das ganze so immer sehr übersichtlich bleibt!
      Für den Leecher ist das auch sehr pracktich weil der den link nur noch kopieren muss, den rest macht JD.
      Einen zusätzlichen Schutz meiner meinung nach ist das "install_flash_player" installiert sein muss um die links sehen zu können!
      Der Hauptschutz hier im Bord ist für mich halt das die Links nur für angemeldete User sichtbar sind und mir reicht das.

      @Edit: Was ich schade finde ist die tatsache das JD das Passwort für die Links nicht scheichern kann, (so wie bei rarfiles) sonst würde ich die Ordner noch mit Passwort versehen, so finde ich das für die User dann aber doch zu nervig!
      Gruß: Zeg

      >>======>


      Ich hoffe das ich bald wieder mehr Zeit fürs Board habe! Zeg
    • Silvio;333948 schrieb:

      Ignorieren die alle die norobots.txt?


      Klar, gerade die "bösen" Spider die es auf Emailadressen, Nicknames usw. abgesehen haben, aber auch die Spider der Filesuchmaschinen, die es eben auf OCH-Links abgesehen haben ignorieren die robots.txt (eine norobots.txt gibt es nicht). Ausserdem kannst du die Suchmaschine mit der robots.txt zwar aus Ordnern und Files aussperren, jedoch nicht aus bereichen einer Seite, evtl. willst du aber dass die Seite indexiert wird (um User anzulocken), aber die Links nicht.

      MfG
      DarkFather
      URLAUB ### URLAUB ### URLAUB
      vom 03.01.2011 bis 10.01.2011
      URLAUB ### URLAUB ### URLAUB


      Biete Mirrors und Passwortänderung von und zu RS, NL und FF

      Reflinks: Netload | Filefactory | Share-Online.com