Qualitätsabstufung: Bluray-Blurayrip-WebDL-HDTV

  • Hallo Leute,


    Ich hoffe ihr werdet meine technische Unbeschlagenheit verzeihen, aber ich beschäftige mich jetzt schon seit einiger Zeit mit dem Thema und finde keine wirklich aussagekräftige Erklärung dazu: Soweit ich das jetzt verstanden habe ist die Qualitätsabstufung wie im Thread Titel: Bluray besser als Rip (logo 40 gb vs. 10 gb), Bluray-rip besser als WebDL, WebDL besser als HDTV. Aber gerade ab den Bluray-Rips und den WebDl wirds ein wenig undurchsichig: Bluray-Rips, die oft 1,5 GB Pro Episode haben sehen (in der Regel) wesentlich besser aus als 5 GB pro Episode HDTV oder WEBDL rips. Bei den WebDl ist es auch oft so dass sie doppelt so groß sein können wie HDTV und dennoch massive Artefakte (Blockbildung auf großen hellen oder dunklen Flächen aufweisen können). Kann mir jemand erklären weshalb ein 1,5 GB Bluray rip soviel besser aussehen kann? Ist Bluray immer besser als HDTV? Und wenn ja warum ist das so?


    Ich hoffe ihr klärt mich auf. Ich schreibe hier wirklich aus Interesse rein und möchte möglichst keine sarkastischen Erklärungen, wie gesagt ich bin technisch nicht sooo beschlagen,


    mfg CMXXX

  • ein Blu-ray encode ist zum teil deswegen besser als WEB-DL, weil die Blu-ray mit x264 mit (relativ) guten settings encoded wurden, wärend WEB-DL vom Apple eigenen H.264 encoder encoded wurden, der schlechter ist... deswegen ist BD besser...


    und HDTV wird in der regel nochmal vom sender encoded, damit die bitrate runter geht... ein encode davon ist dann natürlich schlechter als von BD...

  • in der regel ist alles das den WEB-DL, WebHD oder iTunesHD tag hat von iTunes..... WEBRip wird dann für alles alles benutzt... ist jedoch nicht immer so.... man kann aber davon ausgehen das 99% der sachen die WEB-DL im namen haben von iTunes ist, damit also von Apple... hier meine ich aber nur die 720p und 1080p versionen, die SD sachen werden in der regel von den HD versionen mit x264 encoded....

  • ums einfach zu sagen,


    BD=untouched
    rip=einmal neu encoded
    webdl=zwei mal neu encoded (apple, group)
    hdtv=um bandbreite zu sparen absichtlich verschlechtert


    naja... nicht ganz.... "Rip" wird ja nur noch bei SD verwendet, dort wird das hoffentlich auch verschwinden....
    BD oder BluRay steht auch bei encodes, ist also in der regel nicht untouched...


    und WEB-DL wird eben nur bei SD nochmal encoded (außer wenn die SD direkt von iTunes kommt), die 720p und 1080p sind nur von Apple encoded, nicht von der Group....

  • ich denke die Groups werfen die von itunes "geklauten" Episoden einfach in ein Programm geworfen zum Beispiel mkvmerge GUI und dann neu gemuxt wird, was aber doch nicht die Qualität ändert, wird ja nicht neu encoded

  • Vielen Dank für eue Antworten.


    Ich bin nur verwundert weil ich oft, zum Vergleich 5 GB Versionen, also unkompromiertes HDTV, mit der komprimierten 1,4 GB 720p Version vergleiche und keinen Unterschied feststellen kann. Andererseits sieht mein HDTV via Kabel Box in 720p subjekt für mich noch immer besser aus als die 5 GB Versionen? Bilde ich mir das ein? Oder woran liegt das?


    mfg

  • Den Sendern ist qualität so ziemlich egal.... die encoden das einfach so schnell wie es geht und fertig... iTunes versucht ihren speicherplatz zu sparen, dabei aber was gutes abliefern.... deswegen sind 720p iTunes fast immer besser als 1080i HDTV... selbe betrifft 720p oder 1080p BluRay...

  • das kommt natürlich drauf an... ORF ist ja auch HDTV, da kommt es eben darauf an von welchem sender das andere HDTV encode kam und mit welchen settings es encoded wurde... kann gut sein das es da bei ORF besser ist...

  • Ok danke. Also liegt die Variable Qualität an den Anbietern und nicht an den Rippern normalerweise? Mir ist aufgefallen, dass vor allem Show Sendunge (zb. Dexter) mies aussehen (Artefakte, Körner im Bild), wohingegen HBO Content (Game of Thrones, True Blood) wesentlich besser aussieht. Ist euch das auch schon aufgefallen?


    mfg

  • letzter Post
    Da kommt dann eben noch der Faktor hinzu, dass die Serien schon in unterschiedlicher Qualität abgeliefert/geschossen werden.
    Das hat nur bedingt mit SHO (zug. CBS) oder HBO zu tun, da hier nur idR die Budgets anders ausgelegt sind, doch bedeutet viel Budget nicht gleich super Videoqualität.
    Zeit spielt auch eine Rolle, Dexter stammt aus dem Jahr 2006, idR kannst du davon ausgehen, dass sich sowohl Kameratechnik als auch Kameraassistenten, welche z.B. bei Breaking Bad einen super Look verpassen, über die Staffeln hinweg nicht ändern.


    Nicht zu vergessen der eigene Bildschirm/Beamer. Wenn dieser einfach nur schlecht ist, und vielleicht auch noch falsch kalibriert, dann kann ich nicht erwarten eine super Videoqualität zu erhalten. Dann lassen sich schließlich in dunklen Szenen sofort alle Artefakte blicken. In hellen Bereichen kann man dank Überblendung dann gar nicht mehr die Details erkennen.


    Als Beispiel möchte ich auch kurz House of Cards nennen, welches schreckliche Qualität im "HD"TV hatte - von verwaschenen Gesichtern bis zu Schattenartfaktblöcken in allen dunklen Bereichen. Die Bluray hingegen zaubert ein -vergleichsweise- schönes Bild auf den Bildschirm.


    Gibt viele Faktoren - ich persönlich finde, dass alle hochwertigen Serien ab 2006+ in einer angenehmen Qualität aufzufinden sind. Videoqualität von Serien zu Vergleichen ist wie Äpfel und Birnen zu vergleichen. Wenn ich mir Dexter anschaue denke ich sicher nicht an den tollen Schwarzwert von Game of Thrones in dunklen Szenen, sondern an Blut, Blut und noch mehr Blut. :thumbup:

  • Zitat

    Ok danke. Also liegt die Variable Qualität an den Anbietern und nicht an den Rippern normalerweise? Mir ist aufgefallen, dass vor allem Show Sendunge (zb. Dexter) mies aussehen (Artefakte, Körner im Bild), wohingegen HBO Content (Game of Thrones, True Blood) wesentlich besser aussieht. Ist euch das auch schon aufgefallen?

    Naja solltest Du nen einigermaßen leistungsfähigen HTPC verwenden, könntest Du mal versuchen mit den "madVR" Filtern das Bild aufzubessern, hat mir Q letztens empfohlen und geholfen einzustellen, für mein HTPC... lief zwar ruckelig weil das Ding ne lahme Ente ist aber auf meinen Hauptrechner läuft es perfekt, ich finde die Bildqualität um ein vielfaches besser sowohl bei SD und HD... 8)

  • HTPC = Home Theatre PC.... also ein computer den du zum abspielen von Filmen/Serien benutzt...
    madVR kannste als renderer bei mpc-hc, mpc-be, zoom player etc. benutzen... für die besten einstellungen brauchst du aber ne relativ gute graka.... nichts übertriebenes, aber ca ne GTX 560 sollte da schon drin sein...


    zum Kalibrieren mit den augen gibt es verschiedene.... Spears and Munsil ist gut.... digital video essentials auch... glaub es oder nicht, Disney's WOW: World of Wonder ist auch gut, besonders für leute die neu in dem gebiet sind, dort gibt es simple erklärungen zu den ganzen einstellungen, was was bewirkt etc...
    wenn du nichts zahlen willst gibt es AVS HD 709 das ist auch ok...


    zum Kalibrieren mit nem colorimeter brauchst du natürlich den colorimeter und die haben in der regel ne eigene software....


    mit madVR kann man auch noch zusammen mit nem colorimeter und ArgyllCMS ne 3DLUT erstellen und somit den TV kalibrieren...