Framerates

  • Hallo Leute,


    Ich habe bin ja hier in letzter Zeit wieder etwas präsenter, da ich die Experten hier sehr schätze und mir die Erklärungen regelmäßig weiterhelfen...ich habe noch ein Thema in das ich mich schon seit geraumer Zeit einlese/versuche mich einzulesen: Framerates. Ich finde das ganze wirklich extrem unübersichtlich und würde gerne mal einiges von den wirklichen Experten klären lassen.


    Ich versuche das ganze mal soweit ich es verstanden habe aufzuschlüsseln: Historisch bedingt, durch die Unterschiede in den Stromleitungen (falls ihr es noch nicht gemerkt habt: Ich bin kein Elektrotechniker ;-) ) haben sich in den Pal und Ntsc Region unterschiedliche Hz durchgesetzt: Pal 50, Ntsc 60; bis ende des letzten Jahrtausends (oder ist es gleich die HDTV Ära, die diese Umstellung brachte?) wurden alle Inhalte interlaced (also in Halbbildern) übertragen und dann vor Ort in den TV Geräten deinterlaced (und damit wurden wieder 50 bzw. 60 Bilder angezeigt). Ich hoffe soweit bin ich noch halbwegs richtig. Vor allem mit HDTV und Internet-Video wurdes es ja nochmal komplizierter: Viele TV Stationen entschieden sich ja für 1080p25 (bzw.30fps) anstatt 720p50/60 (Ard, Zdf und Orf glaube ich senden alle in 720p50); Meine Frage die sich jetzt stellt: wenn früher auch alles interlaced ausgestrahlt wurde: Wieso ist die Bewegung bei 1080p25 so viel "ruckeliger" als bei 720p50? Ich habe es vor allem bei Sportübertragungen germert: selbst wenn ich in VLC einen Deinterlacing Modus auswähle ist das Ergebnis NIE so wie wirklich guter 50 Fps/60 Fps Content; wieso verwendet überhaupt jemand 1080p25/30? Wenn doch die Vorteile von 50/60 Vollbildern so deutlich sind? Und warum gibt es überhaupt noch diese Pal/NTSC Scheisse wo doch jeder halbwegs vernünftige Fernseher locker mit 60 bzw. 50 fps zurecht kommt? Ich habe eine Extrembeispiel dazu gefunden: Es Sportevent wird von der Fifa (wenn ich mich richtig erinnern wars Fussball) in 1080p25 verlangt; nur dass die meisten Fernsehstationen auf 50 FPS setzen; d.h. der Masterfeed mit 25 FPS muss schon mal hochgerechnet werden (was die Bewegungen schon mal schlechter ausssehen lässt); dann wir das ganze noch in NTSC Regionen angesehen und wird auf 60 FPS hochgerechnet (weil ESPN z.b. nur 60 FPS überträgt soweit ich weiß); und als Krönung gibts dann noch einen Web-Bezahlservice der alles in 30 FPS auf jedes Tablet/Smartphone bringt (wer auch immer freiwillig auf sowas Fussball schaut); und spätestens bei dieser dritten Konversion ist das Ergebnis nur noch kompletter Müll...Warum passiert sowas? Ist das denn nicht komplett verblödet???? Oder bin ich nur verwirrt;


    Ich wäre euch unglaublich dankbar wenn ihr meine Fehler ausdecken/bzw. Richtigstellungen postet könntet; ich möchte das endlich mal verstehen...und ich denke ich bin nicht der einzige dem es so geht! In diesem Sinne danke...bin erst mal raus :thumbup:

  • ok, erst mal verwechsel nie 720p50 bei dem einfach duplicate frames gesendet werden wie es bei 99% vom content ist mit Sportausstrahlungen die wirklich in 720p50 ausgestrahlt werden.... natürlich sieht das bei 50fps flüssiger aus wenn es die doppelte anzahl an frames hat... deswegen sieht das auch flüssiger aus....
    wenn jedoch nur duplicate frames gesendet werden, dann sie es genauso flüssig wie 1080p25 bzw 1080i50 PsF... das ist der fall bei so ziemlich allem außer sport (und manchmal nachrichten, was ich nciht wirklich dazu zähle)


    wieso wird immer noch so gesendet? bedank dich bei allen die backwards compatibility haben wollen und deswegen sich die standards seit 50 jahren nicht weiter entwickeln können...
    Hat jetzt so lang gedauert bis sie endlich interlacing in HEVC gedropped haben, wenn dann die neuen TV standards mit HEVC kommen wird es kein interlacing oder telecining mehr im TV geben...


    Wieso wird nicht alles in 50/60fps gefilmt?
    das das den leuten die das filmen...
    aber erst muss man kameras haben die 50fps filmen... ÖR sender haben zum teil uralt teile, deswegen sind die froh dass die auf 720p senden, haufen kameras von denen können gar nicht mehr als 720p25... und private senden in 1080p, also müssen die kameras 1080p50 können... dann heißt es auch dass man ungefähr die doppelte bitrate hat, was heißt dass man den doppelten speicher braucht... und bei doppelter anzahl an frames, heißt es dann man beim schneiden auch die doppelte anzahl an zeit braucht zum rendern, was wieder teurer ist... das selbe beim graden... und falls man VFX oder CGI braucht, muss auch das doppelte gerendert werden... dann muss man beim filmen selber besser beleuchten, was manchmal nicht so leicht ist, da man (wenn man die selbe schärfe haben will) den shutterspeed verdoppeln muss, was heißt es kommt nur die hälfte an licht auf den sensor...
    bei so harzt4 TV ist die qualität ja erstmal nicht so wichtig, da kann es gut sein dass das direkt in 709 AVC aufgenommen wird, aber größere sachen werden dann schon in der regel in RAW aufgenommen, was dann nochmal um einiges größer ist... das muss dann nochmal einzeln gesichert werden und der fertige master (meist prores) braucht auch nochmal ein backup...
    um mal ein real life beispiel zu geben, der prores master von der ersten ep von der serie Sequestered hat eine videobitrate von 169mbps... eine typische serien BD hat 16-20mbps, der master ist also 10 mal so groß... die serie hat 20min episoden, diese episode ist z.B. 29GB... eine reguläre 40min serie wäre also bei ca 60gb dabei...
    dann bist du ein sender der 200 episoden im jahr produziert, also musst du nur für die master 12TB sichern... das plus 3 backups sind 48TB im jahr.. nicht viel.... aber das RAW footage ist nicht nur 169mbps sondern z.B. 1340mbps (je nach raw codec) und da hast du dann pro stunde footage 600gb zu speichern... je nach serie/film/etc drehst du für jede minute film eine stunde footage, kann auch um einiges mehr sein... z.b. wird für eine episode von The Vampire Diaries ca. 8 tage gedreht...meist sind das mind. 10 stunden tage.... heißt jeden 10 stunden tag, machen sie durchschnittlich 5 minuten brauchbares footage... das sind dann 1 minute jede 2 stunden, sind wir mal greoßzügig und sagen von den 10 stunden, werden nur 5 stunden gedreht, der rest ist nur prep, aufbau etc, also dann für jede min 1 stunde footage... dann hast du plötzlich für die 40min nicht nur 60gb für den master zu speichern, sondern auch 24TB footage pro episode....
    wenn du dann als sender 200 episoden im jahr produzierst, musst du plötzlich 4800TB im jahr speichern... und das ist jetzt nur 2K und nicht 4K...
    wenn du jetzt in der doppelten framerate drehst, brauchst du das doppelte... was übelst teuer ist....


    im großen und ganzen... wieso drehen sich nicht in höheren framerates? weils teuer ist...


    natürlich gibts dann noch die leute die meinen 24/25fps sei ein stilmittel und 50/60fps sieht nicht "filmisch" aus, was total idiotisch ist... das ist einfach gewohnheits sache... in vielen jahren wird bestimmt alles in höherer famerate gedreht und die leute die damit aufgewaschen sind, werden sich gar nicht vorstellen können wieso leute die filme in 24/25 fps sehen wollten....


    jetzt wird die technik immer besser, kameras die höhere framerates unterstützen billiger werden, werden bestimmt bald immer mehr sachen auf 50fps gedreht werden... aber von indies und nicht von der industrie... da kannst du noch ne weile warten...


    btw. rein vom optischen her, also wie das auge funktioniert, bewirkt eine höhere framerate eine größeren qualitätsunterschied als z.b. von 1080p auf 2160p.... räumliche auflösung ist nun mal nicht alles...

    My food is problematic.

  • bis ende des letzten Jahrtausends (oder ist es gleich die HDTV Ära, die diese Umstellung brachte?) wurden alle Inhalte interlaced (also in Halbbildern) übertragen und dann vor Ort in den TV Geräten deinterlaced (und damit wurden wieder 50 bzw. 60 Bilder angezeigt).


    Jain. Standard-Röhrenfernsehgeräte haben NIE das Bild deinterlaced. Mussten sie auch gar nicht - denn die Bilddarstellung erfolgte halbbildweise. Sprich: es wurden abwechselnd (mit 50 bzw. 60Hz Frequenz) die ungeraden und geraden Bildzeilen angezeigt = Zeilensprungverfahren. Das war also früher ideal für Aufnahmen, die halbbildweise erfolgt sind und interlaced abgespeichert wurden.



    wieso verwendet überhaupt jemand 1080p25/30? Wenn doch die Vorteile von 50/60 Vollbildern so deutlich sind?


    Neben den von 'Q-the-STORM' angesprochenen Mehrkosten für die Speicherkapazität darf man auch nicht die Mehrkosten bei der Übertragungsbandbreite vergessen. Eine Transponderfrequenz zu mieten kostet einen Programmanbieter schließlich nicht wenig Geld... und die Bandbreite ist dabei begrenzt. Trotzdem quetschen da einige Programmanbieter unzählige Sender drauf - teilweise an der Grenze des bildqualitätsmäßig Erträglichen. Die doppelte Framerate verlangt zwar nicht nach der doppelten, aber eben doch nach einer höheren Bitrate für annähernd gleiche Qualität. Bitrate, die einfach nicht vorhanden ist.
    Abhilfe können da nur neue Übertragungstechniken und Kompressionsverfahren bringen - die sich aber erst einmal etablieren müssen. Und das dauert. Denn mit derartig massiven Änderungen geht auch ein Neukauf der Empfangshardware einher.



    Hat jetzt so lang gedauert bis sie endlich interlacing in HEVC gedropped haben, wenn dann die neuen TV standards mit HEVC kommen wird es kein interlacing oder telecining mehr im TV geben...


    Wieso wird das immer behauptet :confused: ? Es stimmt zwar, dass es bei HEVC (anders als bei H.264) keine Interlace-spezifischen Encoding-Modi (wie MBAFF und PAFF) mehr geben wird - trotzdem wird auch mit HEVC interlaced Video möglich sein. In den Film- und TV-Archiven lagert einfach viel zu viel interlaced Videomaterial, als dass die Industrie eine mit einem Schlag durchgeführte, radikale "Ausrottung" von Interlacing zulassen würde ;) .

  • Q-the-STORM: Danke für die Klarstellung; gibt es denn einen Möglichkeit zu erfahren ob echtes 720p50 oder eben diese Duplicate frames Kacke gesendet wird? Ich habe zumindest das Gefühl, dass bei Fussballspielen das Bild sehr flüssig ist (und bei Releases im Internt kann man wohl davon ausgehen wenn die .nfo 59.940 fps angibt, dass es wirklich 60 Fps sind); Der Orf gibt in seiner FAQ 720p50 an (http://kundendienst.orf.at/technik/hdtv/faqs.html). Das heisst die verwenden dann wohl schon echt 50 FPS?


    Das mit den Produktionskosten und der Bandbreite verstehe ich natürlich; aber die Privaten senden ja auch nur in 720p50 bzw 1080i50, oder? 1080p50 ist ja von den TV Standards her gar nicht möglich, oder?


    TomKeller: danke für die Klarstellung zu Deinterlacing


    LG

  • Q-the-STORM: Danke für die Klarstellung; gibt es denn einen Möglichkeit zu erfahren ob echtes 720p50 oder eben diese Duplicate frames Kacke gesendet wird? [...] Das heisst die verwenden dann wohl schon echt 50 FPS?


    Das mit den Produktionskosten und der Bandbreite verstehe ich natürlich; aber die Privaten senden ja auch nur in 720p50 bzw 1080i50, oder? 1080p50 ist ja von den TV Standards her gar nicht möglich, oder?


    ob duplicate frames gesendet werden oder echtes 720p50 kannste entweder mit den eigenen augen erkennen, dass ist dann eben flüssiger, ansonsten nur wenn du das aufnimmst und das dann frame by frame anschaust...
    die senden manchmal echtes 720p50 aber so wie die anderen eben auch nicht immer..
    die privaten senden 1080i50, 1080p50 ist nicht in den standards drin...

    My food is problematic.

  • Hallo nochmal...ich hätte noch eine Frage aus der Praxis zu Framerates:


    Wenn ich jetzt eine Sendung die mit 29.970 (also ein Stream der mit 720p30 gerippt wurde; Wobei ja 60 Fps ja auch 59.940 und PAL sicher auch keine genauen 25,0 und 50,0 FPS haben wird nehm ich mal an?) ausgestrahlt wurde an meinem PC wiedergebe: Welche Framerate soll ich da einstellen? Ich kann 25, 29,30, 50, 59, 60 FPS auswählen; Bei 60 ruckelt das Bild immer wieder mal...aber zwischen 29 und 30 kann ich so gut wie keinen Unterschied erkennen: Was schlagt ihr, als Experten, vor?


    LG

  • das kann dir niemand sagen, dass kommt drauf an wie du das bei was gecapped hast...
    es können sowohl genaue 30 bzw 60fps als auch 29.97 bzw 59.94fps sein.... und wenns 25fps bzw 50fps sind, sind es normal immer genaue 25 bzw 50fps...
    kann man pauschal nicht sagen, bei irgendwas was du im internet geripped hast...

    My food is problematic.

  • Ok...also das sind die präzisen Angaben der Ripper; meine Frage lautet halt: 30 oder 29 FPS; soweit ich weiß werden in Amerika immer nur dies Versionen (29.970 bzw. 59.940) ausgestrahl;
    LG

  • Wobei ja 60 Fps ja auch 59.940 und PAL sicher auch keine genauen 25,0 und 50,0 FPS haben wird nehm ich mal an?


    Du nimmst falsch ;) . Bei NTSC-Video spricht man deshalb von 60 bzw. 30fps (obwohl in der Praxis typischerweise 59,94 bzw. 29,97fps vorliegen), weil NTSC-TV-Übertragungen zu früheren S/W-TV-Zeiten tatsächlich mit 60 Halbbildern erfolgten (machte ja Sinn wegen der Wechselstrom-Frequenz, die zu Beginn des TV-Zeitalters als Grundlage für die Aufzeichnungsfrequenz der TV-Kameras genommen wurde). Auf Wikipedia ist die Erklärung verbuddelt, warum mit Einläutung des Farbfernseh-Zeitalters die Bildwiederholrate von NTSC-TV-Geräten auf 59,94Hz herunter korrigiert wurde:


    Quote from Wikipedia

    Die NTSC-Bildwiederholrate lief anfangs, in Anlehnung an das in den USA übliche Wechselstromnetz, mit genau 60 Hz. Es war günstiger, die Bildwiederholrate an die Frequenz der Energiequelle anzupassen, da sonst in der Nähe starker Stromquellen oder im Licht von Leuchtstoffröhren laufende Balken auf dem Bildschirm sichtbar gewesen wären. Die Angleichung der Wiederholrate an die Stromversorgung war außerdem für die frühen Liveübertragungen hilfreich: Es war dadurch sehr einfach, die Kamera dazu zu bringen, ein Bild zu speichern, indem man die Wechselspannung als Blendenauslöser verwendete. Im Farbsystem wurde die Wiederholrate dann leicht nach unten auf 59,94 Hz (genauer: 60.000 Halbbilder je 1001 s) abgesenkt, da sich so gewisse Interferenzen zwischen Farbträger und Tonträger verringern lassen (Bildfrequenz = 59,94005994… Hz, Zeilenfrequenz = 262,5 × Bildfrequenz = 15.734,265734… Hz, Farbträgerfrequenz = 227,5 × Zeilenfrequenz = 3.579.545,454… Hz, Tonträgerfrequenz = 286 × Zeilenfrequenz = 4.500.000,000 Hz: Farbträger und Tonträger unterscheiden sich um ein halbzahliges Vielfaches der Zeilenfrequenz)


    Und deshalb erfolgen NTSC-Ausstrahlungen (immernoch) mit 59,94 bzw. 29,97fps - auch wenn diesbezüglich ab und zu von 60 bzw. 30fps gesprochen wird. Das ist also keine zufällig Schwankung der Framerate, sondern eine präzise herbei geführte Korrektur aus der Urzeit der TV-Geschichte, die Bildstörungen verhindern sollte. Bei PAL war so etwas hingegen nicht nötig - weshalb wir es hier seit jeher mit 50 bzw. 25fps zu tun haben.

  • na wenn die quelle wirklich 29.97fps ist sollst du sie auch so encoden...
    aber wenn es ein US cap ist, kann es gut sein dass es telecined ist, dann musst du es detelecinen.. dann kommt 23.976fps raus...

    My food is problematic.

  • Zum Überprüfen, ob das Material telecined ist: die Avisynth-Filter TFM() oder(!) Telecide() darauf anwenden und dann (idealerweise bei einem Kameraschwenk o.ä.) schauen, ob alle 5 Frames eins doppelt vorhanden ist. Oder alternativ: das Material per internem AviSynth-Filter SeparateFields() in seine Halbbilder zerlegen und dann schauen, ob sich 3 identische Halbbilder mit 2 identischen abwechseln.

  • Hallo nochmal,


    ich habe noch was aus der Rubrik "Bullshit or not" auf Lager: http://rarbg.to/torrent/9s51bze
    Nach allem was ich ergooglen konnte gibt es ja gar keine 48FPS Bluray (und die genannte Source ist ja auch nicht 48 FPS ????); wollen die die Leute verarschen? Rippen die eine 24 FPS version und encodieren Sie in 48 FPS? :cursing: Ich wollte das nur nochmal von Leute fact-checken lassen die was davon verstehen?


    LG

  • Liebe Leute,


    ich möchte ja hier nicht pushen (obwohl ja jetzt schon einiges an Zeit vergangen ist); Aber hat denn keiner der Experten eine qualifizierte Meinung zu meiner Frage abzugeben?


    LG

  • Da wurde wohl entweder jedes Frame verdoppelt, oder halt ein Interpolationsalgorithmus verwendet, um die Framerate hoch zu rechnen. Ich tippe mal auf letzteres. Je nach Algorithmus hat man dann aber entweder mit jedem zweiten Frame ein "blended" Frame (also: eine durch Überlagerung entstandene Mischung aus zwei Ursprungsframes), oder teilweise leichte bis starke Bildfehler bei viel Bewegung (bei auf Bewegungsvektoren basierten Algorithmen wie z.B. MVFlowFPS).

  • Theoretisch: ja. Man könnte zwar über die Halbbilder einer 1080i @ 25fps (bzw. 720p @ 50fps) BluRay einen Film mit 50hfps (bzw. 50fps) in den Handel bringen - aber sowas ist extrem unwahrscheinlich (weil: PAL... und: PAL = böse). Und 48fps (bzw. 48hfps = 24i) sind - wie du schon selbst festgestellt hast - bekanntermaßen im aktuellen BD-Standard nicht erlaubt.


    Praktisch lässt sich aber ein ECHTES 48fps Release trotzdem nicht prinzipiell ausschließen. Schließlich könnte eine 48fps Version als "Digital Copy" der BluRay beiliegen, oder online als kommerzieller Web-Stream vertrieben werden. Nicht, dass sowas schon jemals passiert wäre ;) - denkbar ist es aber trotzdem.


    EDIT:
    Ich hab mal einen Blick auf die ersten paar MB des Samples vom Hobbit-Release geworfen - da wurde definitiv ein Algorithmus wie MVFlowFPS verwendet, um die 24fps auf 48fps hoch zu rechnen. Schon bei den ersten paar Frames sieht man nämlich rund um den Federkiel, der sich über das Papier bewegt, wie die Struktur des Papiers rund diesen Federkiel und seinen Schatten bei Bewegung (mal deutlicher, mal weniger deutlich) verzerrt wird. Das ist ein typischer Fehler, der bei derartigen Algorithmen auftritt.