Fernsehen und Bitraten

  • Hallo Leute,


    mittlerweile bin ich ja knapp davor eine Series: "A/V-Technik für Dummies" zu verfassen; aber ich habe leider schon wieder so einen quälende Neugier im Hinterkopf: Ich poste mal die "Primär,- & Sekundärliteratur" die mich zu den Fragen geführt hat: zum einen mal: http://rarbg.to/torrent/nwuythi (ein Walking Dead Release mit 10 GB und einer Bitrate von 21 Mbps) was mich zu zweiterem geführt hat http://www.marcush.de/hd-bildqualitaet/; wenn man die enthalteten Informationen in Verbindung setzt stellen sich (zumindest mir) einige Fragen: 1) Wieso sendet AMC mit 21 Mbps wenn die europäischen sinder alle mit max. 16 (und dass ich soweit ich das überblickt mit der BBC habe ein ziemlicher Ausreißer nach oben) Mbp; 2) Die Dateigröße ist ja beinahe so groß wie 4K Rips (Breaking Bad, Daredevil...) ist das nicht eigentlich overkill für dieses Bildmaterial? 3) generell zu Sat-TV: wie können solche extrem hohen Bitraten übertragen werden; wäre es nicht dan klüger den gesamte Internettraffic über Sat zu leiten (wenn jedem Haushalt mindestens 21 Mbps simulatan zur Verfügung gestellt werden? 4)Sind solche Rips sinnvoll? Bis jetzt war das extremste was ich gesehen haben 5 GB für HBO; und das waren dann noch immer die selben Artefakte wie im unkomprimierten Material zu sehen (soll heißen: wieviel ist die de facto "lossless" Schwelle für Video); Ich hoffe die Experten lassen sich nochmal auf einem Niveau herab (möge mein Niveau erhöhen ;-) )
    LG

  • 1. AMC sendet nicht mit 21mbps.... DIMENSION hat das sehr wahrscheinlich von einer ihrer backhaul sources encoded, das ist dann nicht der normale feed von AMC, sondern ein besserer den die provider bekommen... normaler feed sendet vlt mit 7-15mbps je nach dem welcher cable anbieter man hat...
    Wieso hier oft die bitrate kleiner ist liegt einfach daran dass als AVC kam, gesagt wurde dass es eben theoretisch die hälfte der bitrate für die selbe qualität braucht... die anbieter haben eben nicht das "theoretisch" gehört, wenn sie mit aktuellem x264 mit guten settings encoden würden, würde das zutreffen, aber die encoden mit crap settings und einem schlechten commercial codec der minimal besser als MPEG-2 ist, aber trotzdem mit nur der hälfte der bitrate... natürlich ist das nur heute so, als sie AVC im TV eingeführt haben war x264 auch noch ziemlich schlecht...
    das selbe passiert ja heute auch wieder... es wird gesagt dass HEVC theoretisch nur die hälfte der bitrate von AVC braucht für die selbe qualität.... Wenn dann ein artikel darüber geschireben wird, wird das "theoretisch" rausgelassen und alle denken dann dass die HEVC codecs schon heute die hälfte der bitrate brauchen, das wird jedoch noch einige jahre dauern.... der beste aktuelle HEVC encoder (x265) ist immer noch schlechter als der beste AVC encoder (x264)...


    2. Nein absolut kein overkill.. gutes 1080p braucht je nach grain 30-60mbps... meist ist das auf BDs schon zu wenig bitrate und da sie fast nie mit x264 encoden lassen sich diese tranparent noch kleiner encoden, weil deren encoder mehr bits verschwenden...


    3. Nein wäre es nicht... erst mal hat sat eine hohe latenz, was für alle online gamer schlecht ist, oder sachen wir internettelefonie etc..
    dann ist es auch um einiges teurer, meiste anbieter haben volumen tarife oder fair-use sachen, wenn man also nicht nur facebook braucht, sondern auch serien downloaden will ist das meist keine option, außer man ladet nicht viel und nur SD zeug....


    4. Was du mit "lossless schwelle" meinst heißt beim encoding "transparenz".... ab welcher bitrate ist ein encode trasparent zur quelle, wo man nicht erkennen kann was besser oder schlechter ist...
    das ist je nach source anders, kann man pauschal nicht sagen... bei viel grain wie bei The Walking Dead braucht man evtl die doppelte bitrate als bei Fear the Walking Dead, einfach weil das eine auf 16mm, also mit viel grain aufgenommen wird und das andere digital, also ohne grain...


    um mal so ca angaben zu geben, HDTV feeds sind meist so bei CRF 17-18 x264 mit entsprechenden settings schon transparent... BDs je nach serie bei CRF 15-17... aber wie gesagt, pauschal kann man das nicht sagen, da muss man test encodes machen und schauen wie es aussieht (man muss ja nicht nur CRF tweaken beim encoden, sondern auch andere settings)


    btw beim 2ten link steht einiges an crap drin das nicht stimmt...

  • generell zu Sat-TV: wie können solche extrem hohen Bitraten übertragen werden; wäre es nicht dan klüger den gesamte Internettraffic über Sat zu leiten (wenn jedem Haushalt mindestens 21 Mbps simulatan zur Verfügung gestellt werden?


    Wie viele Satelliten gibt es denn so und wie viele Internetuser? Und wie sieht's mit den "Frequenzen" aus (siehe Mobilfunk)?

  • Ok super dank dir; auf QTS ist halt immer Verlass ;-)


    Sorry für den crap-link...aber ich bin eben noch eher noob auf dem Sektor; weil du gerade noch CRF angesprochen hast: http://slhck.info/articles/crf nach dieser Erkärung sagt ja CRF nicht direkt was über die Bitraten aus, oder? Ich dachte immer das was in den .nfo nach CRF steht ist die Bitrate; sind dann in vielen TVS releases dann gar keine Bitraten angegeben?

  • nein CRF sagt nicht direkt was über die bitrate aus.... bitrate allgemein sagt nicht viel über die qualität aus... CRF sagt mehr über die qualität aus... CRF versucht bei änhlicher source und ähnlichen settings eine ähnliche qualität zu encoden... und wenn eine episode weniger bitrate für diese qualität braucht dann spart es die bitrate und wenn eine episode mehr bitrate braucht dann gibt es sie...