MPC Home Cinema : Βασικός Oδηγός Αναπαραγωγής, Ρυθμίσεις, Προβλήματα, κτλ

Nα διορθωσω κατι για την ΑΤΙ:
Δεν κανει extra μετατροπη, απλα επειδη ο madvr ΔΕΝ μπορει να δωσει YCbCr παρα μονο RGB ή ΑΤΙ οταν της ζητησεις YCbCr, αναγκαζεται να κανει αυτη τη μετατροπη. (απο rgb σε YCbCr)
Οποτε η σκεψη για οσους εχουν ΑΤΙ+madvr σαν εμενα να επιλεξουν τελικα εξοδο στην ATI rgb, ισως ειναι και πιο σωστη.!

Εννοειται μιας και εχω μπει στα χωραφια του Αλεξανδρου τωρα, αν κανω καπου λαθος, με διορθωνει.!

Tην πληροφορια την πηρα απο εδω, και αναφερει:

MadVR is a unique renderer that uses 16bits processing pipeline, the rest renderers uses only 10bits or 8bits. As an example, ATI’s internal video process pipeline uses 10 bits. Below is the statement from Madshi with regards to why more bits is important:

"I’ve seen many comments about HDMI 1.3 DeepColor being useless, about 8bit being enough (since even Blu-Ray is only 8bit to start with), about dithering not being worth the effort etc. Is all of that true?
It depends. If a source device (e.g. a Blu-Ray player) decodes the YCbCr source data and then passes it to the TV/projector without any further processing, HDMI 1.3 DeepColor is mostly useless. Not totally, though, because the Blu-Ray data is YCbCr 4:2:0 which HDMI cannot transport (not even HDMI 1.3). We can transport YCbCr 4:2:2 or 4:4:4 via HDMI, so the source device has to upsample the chroma information before it can send the data via HDMI. It can either upsample it in only one direction (then we get 4:2:2) or into both directions (then we get 4:4:4). Now a really good chroma upsampling algorithm outputs a higher bitdepth than what you feed it. So the 8bit source suddenly becomes more than 8bit. Do you still think passing YCbCr in 8bit is good enough? Fortunately even HDMI 1.0 supports sending YCbCr in up to 12bit, as long as you use 4:2:2 and not 4:4:4. So no problem.
But here comes the big problem: Most good video processsing algorithms produce a higher bitdepth than you feed them. So if you actually change the luma (brightness) information or if you even convert the YCbCr data to RGB, the original 8bit YCbCr 4:2:0 mutates into a higher bitdepth data stream. Of course we can still transport that via HDMI 1.0-1.2, but we will have to dumb it down to the max HDMI 1.0-1.2 supports.


For us HTPC users it’s even worse: The graphics cards do not offer any way for us developers to output untouched YCbCr data. Instead we have to use RGB. Ok, e.g. in ATI’s control panel with some graphics cards and driver versions you can activate YCbCr output, *but* it’s rather obvious that internally the data is converted to RGB first and then later back to YCbCr, which is a usually not a good idea if you care about max image quality.

So the only true choice for us HTPC users is to go RGB. But converting YCbCr to RGB increases bitdepth. Not only from 8bit to maybe 9bit or 10bit. Actually YCbCr -> RGB conversion gives us floating point data! And not even HDMI 1.3 can transport that. So we have to convert the data down to some integer bitdepth, e.g. 16bit or 10bit or 8bit. The problem is that doing that means that our precious video data is violated in some way. It loses precision. And that is where dithering comes for rescue. Dithering allows to "simulate" a higher bitdepth than we really have. Using dithering means that we can go down to even 8bit without losing too much precision. However, dithering is not magic, it works by adding noise to the source. So the preserved precision comes at the cost of increased noise. Fortunately thanks to film grain we’re not too sensitive to fine image noise. Furthermore the amount of noise added by dithering is so low that the noise itself is not really visible. But the added precision *is* visible, at least in specific test patterns (see image comparisons above).


So does dithering help in real life situations? Does it help with normal movie watching?
Well, that is a good question. I can say for sure that in most movies in most scenes dithering will not make any visible difference. However, I believe that in some scenes in some movies there will be a noticeable difference. Test patterns may exaggerate, but they rarely lie. Furthermore, preserving the maximum possible precision of the original source data is for sure a good thing, so there’s not really any good reason to not use dithering.
So what purpose/benefit does HDMI DeepColor have? It will allow us to lower (or even totally eliminate) the amount of dithering noise added without losing any precision. So it’s a good thing. But the benefit of DeepColor over using 8bit RGB output with proper dithering will be rather small."
Besides MadVR which provides superb chroma upsampling quality, the YV upchroma shader inside MPC-HC seems to produce a very close and similar result. To use it, we need to feed NV12 (which is a special Nvidia colour space) to MPC-HC from our video decoder and choose EVR as renderer.

πηγη: http://sunmaiblog.wordpress.com/2010/10/06/calibrate-htpc-for-optimal-video-output/
 
Last edited:
Και μιας και ανεφερα το παραπανω Link μεταξυ αλλων εξηγει και τα περι banding και dithering.
Ομως, αν εχω καταλαβει καλα, στο κειμενο λεει οτι ενω ο ffdshow μπορει να ενεργοποιησει/απενεργοποιησει χειροκινητα το dithering, ο madvr το εχει αυτοματα ενεργοποιημενο. (εννοει ο ποιητης οτι δεν δυναται να απενεργοποιηθει ή οτι εξ'αρχης στο βαζει στο on ? Μαλλον απο οτι διαπιστωσα, το δευτερο.)
Banding is normally introduced due to luma conversion, and it can be solved either by 1) eliminating luma conversion or 2) introducing dithering to luma conversion. Sadly to say that in most cases we have to go for (and live with) the latter option. We know that MadVR applies dithering automatically when expanding YV12 to RGB while FFDShow requires dithering being manually enabled, to my knowledge both solutions work fine.

Ετσι απο οτι ειδα, με το πληκτρο "q" σαν ηδη ετοιμο shortcut, μπορει να απενεργοποιηθει το dithering (on/off) στον madvr.

Eβαλα μια καρτελα Grayscale Ramp για να δω τις διαφορες banding με on/off.
Υστερα εβαλα φυσικα σκηνες απο ταινιες στον προβολεα, για να δω εντυπωσεις.

Με το dithering στο on, η εικονα γινοταν πιο θολη και στο off καθαριζε.

Οσοι θελετε, πειραματιστειτε λοιπον στην tv ή τον προβολεα σας.
Κατα τη διαρκεια αναπαραγωγης, πατηστε το πληκτρο "Q" στο πληκτρολογιο σας και δειτε την οποια διαφορα. !
Μιλαμε παντα για madvr και αν θυμαμαι καλα (δεν ειμαι σιγουρος) εξ'ορισμου ηταν στο on.
Βαζοντας το στο off, παραμενει εκει μεχρι να το αλλαξετε και παλι εσεις χειροκινητα.


Συγνωμη για το...μακροσκελες των τελευταιων μου posts.!
(θα αρχισει παλι ο Χατζ) :frown:
 
πλεον ο mpc με την καινουργια εκδοση αλλαξε τα internal filters σε lav filters!!;) αυτα ειναι!!!
 
Με το που την περασα, ο ηχος παιζει πολυ χαμηλα, ξερει κανεις τιποτα?
 
μπες options audio switcher και ενεργοποιεισαι το normalize...παντα στον mpc το κανεις αυτο
 
Ο οδηγος αναφερει να προτιμησουμε τα 32bit αρχεια, ασχετως αν εχουμε 64bit OS.
Επειδη ειχε γραφτει παλαιοτερα, ισχυει ακομα το ιδιο;
 
πλεον ο mpc με την καινουργια εκδοση αλλαξε τα internal filters σε lav filters!!;) αυτα ειναι!!!

Ναι απλοποιείται πάρα πολύ πλέον η εγκατάσταση.


Ο οδηγος αναφερει να προτιμησουμε τα 32bit αρχεια, ασχετως αν εχουμε 64bit OS.
Επειδη ειχε γραφτει παλαιοτερα, ισχυει ακομα το ιδιο;

Δεν έχει αλλάξει κάτι. Αν θες να χρησιμοποιήσεις τον madVR, πρέπει να εγκαταστήσεις τον 32-άμπιτο MPC-HC(x86).
 
Nα διορθωσω κατι για την ΑΤΙ:
Δεν κανει extra μετατροπη, απλα επειδη ο madvr ΔΕΝ μπορει να δωσει YCbCr παρα μονο RGB ή ΑΤΙ οταν της ζητησεις YCbCr, αναγκαζεται να κανει αυτη τη μετατροπη. (απο rgb σε YCbCr)
Οποτε η σκεψη για οσους εχουν ΑΤΙ+madvr σαν εμενα να επιλεξουν τελικα εξοδο στην ATI rgb, ισως ειναι και πιο σωστη.!

Εννοειται μιας και εχω μπει στα χωραφια του Αλεξανδρου τωρα, αν κανω καπου λαθος, με διορθωνει.!

Tην πληροφορια την πηρα απο εδω, και αναφερει:

MadVR is a unique renderer that uses 16bits processing pipeline, the rest renderers uses only 10bits or 8bits. As an example, ATI’s internal video process pipeline uses 10 bits. Below is the statement from Madshi with regards to why more bits is important:

"I’ve seen many comments about HDMI 1.3 DeepColor being useless, about 8bit being enough (since even Blu-Ray is only 8bit to start with), about dithering not being worth the effort etc. Is all of that true?
It depends. If a source device (e.g. a Blu-Ray player) decodes the YCbCr source data and then passes it to the TV/projector without any further processing, HDMI 1.3 DeepColor is mostly useless. Not totally, though, because the Blu-Ray data is YCbCr 4:2:0 which HDMI cannot transport (not even HDMI 1.3). We can transport YCbCr 4:2:2 or 4:4:4 via HDMI, so the source device has to upsample the chroma information before it can send the data via HDMI. It can either upsample it in only one direction (then we get 4:2:2) or into both directions (then we get 4:4:4). Now a really good chroma upsampling algorithm outputs a higher bitdepth than what you feed it. So the 8bit source suddenly becomes more than 8bit. Do you still think passing YCbCr in 8bit is good enough? Fortunately even HDMI 1.0 supports sending YCbCr in up to 12bit, as long as you use 4:2:2 and not 4:4:4. So no problem.
But here comes the big problem: Most good video processsing algorithms produce a higher bitdepth than you feed them. So if you actually change the luma (brightness) information or if you even convert the YCbCr data to RGB, the original 8bit YCbCr 4:2:0 mutates into a higher bitdepth data stream. Of course we can still transport that via HDMI 1.0-1.2, but we will have to dumb it down to the max HDMI 1.0-1.2 supports.


For us HTPC users it’s even worse: The graphics cards do not offer any way for us developers to output untouched YCbCr data. Instead we have to use RGB. Ok, e.g. in ATI’s control panel with some graphics cards and driver versions you can activate YCbCr output, *but* it’s rather obvious that internally the data is converted to RGB first and then later back to YCbCr, which is a usually not a good idea if you care about max image quality.

So the only true choice for us HTPC users is to go RGB. But converting YCbCr to RGB increases bitdepth. Not only from 8bit to maybe 9bit or 10bit. Actually YCbCr -> RGB conversion gives us floating point data! And not even HDMI 1.3 can transport that. So we have to convert the data down to some integer bitdepth, e.g. 16bit or 10bit or 8bit. The problem is that doing that means that our precious video data is violated in some way. It loses precision. And that is where dithering comes for rescue. Dithering allows to "simulate" a higher bitdepth than we really have. Using dithering means that we can go down to even 8bit without losing too much precision. However, dithering is not magic, it works by adding noise to the source. So the preserved precision comes at the cost of increased noise. Fortunately thanks to film grain we’re not too sensitive to fine image noise. Furthermore the amount of noise added by dithering is so low that the noise itself is not really visible. But the added precision *is* visible, at least in specific test patterns (see image comparisons above).


So does dithering help in real life situations? Does it help with normal movie watching?
Well, that is a good question. I can say for sure that in most movies in most scenes dithering will not make any visible difference. However, I believe that in some scenes in some movies there will be a noticeable difference. Test patterns may exaggerate, but they rarely lie. Furthermore, preserving the maximum possible precision of the original source data is for sure a good thing, so there’s not really any good reason to not use dithering.
So what purpose/benefit does HDMI DeepColor have? It will allow us to lower (or even totally eliminate) the amount of dithering noise added without losing any precision. So it’s a good thing. But the benefit of DeepColor over using 8bit RGB output with proper dithering will be rather small."
Besides MadVR which provides superb chroma upsampling quality, the YV upchroma shader inside MPC-HC seems to produce a very close and similar result. To use it, we need to feed NV12 (which is a special Nvidia colour space) to MPC-HC from our video decoder and choose EVR as renderer.

πηγη: http://sunmaiblog.wordpress.com/2010/10/06/calibrate-htpc-for-optimal-video-output/


http://www.hometheaterhifi.com/proj...benq-w1070-projector/page-4-on-the-bench.html

I'd also recommend sending all your content in the YCbCr 4:4:4 colorspace. Using 4:2:2, the BenQ used lower quality filtering on chroma detail, and the timing was misaligned by half a pixel. Using RGB produced similar results, but 4:4:4 was handled properly and should be used if possible. Once these are set correctly, the default User mode provides very respectable out-of-the-box performance, though one that calibration certainly improves. The grayscale is really good in User mode, and the gamma was close to 2.2 using the 2.4 setting on my screen.


Πρώτα το δοκίμασα στον Benq και μετά βρήκα το άρθρο. Συμβαίνει, τουλάχιστον σε μένα, ακριβώς όπως τα περιγράφει...τώρα θα μου πεις, ναι, αλλά εσύ δεν παίζεις με 1070. Ανεξαρτήτως αυτού, όταν έδινα RGB, κάτι με χάλαγε στην εικόνα, σαν να μου πέπλιαζε λίγο και τα χρώματα να έχαναν ένταση. Πολύ μικρές οι διαφορές ωστόσο. Δοκίμασα αρκετή ώρα και με πολλά κλιπάκια για το επιβεβαιώσω.
 
http://www.hometheaterhifi.com/proj...benq-w1070-projector/page-4-on-the-bench.html

Using RGB produced similar results, but 4:4:4 was handled properly and should be used if possible. .

Αναφερει ομως οτι με 4:4:4 στο RGB το χειριστηκε σωστα (οπως και στο YCbCr 4:4:4)

Aν το κρατησουμε αυτο και το συνδιασουμε με την πληροφορια οτι η ati κανει μετατροπη το rgb του madvr αφου αυτος δεν μπορει να στειλει YCbCr (και αρα ΔΕΝ θελουμε μια παραπανω μετατροπη για ευνοητους λογους), δεν θα ηταν καλυτερα να επιλεχθει τελικα στην ati το rgb 4:4:4 αντι του YCbCr 4:4:4. ?
 
Εδώ είσαι John!!


''Before calibrating the BenQ W7000 I compared its performance with a high-resolution mutiburst pattern at 4:2:2, 4:4:4 and RGB colorspaces. When set to Auto mode for HDMI, it seemed to both clip WTW and BTB data, and with RGB signals it didn't process the highest resolution ones correctly. If I set the input mode to PC, then WTW and BTB were passed, and the RGB Multiburst looked better than either YCbCr version for color information. Unfortunately when I then sent YCbCr data the black level would adjust, and so I set all of my devices to be RGB output. Since auto-detection of RGB and YCbCr didn't seem to work correctly over HDMI, I'd recommend setting the BenQ to one mode and your devices to that as well. WTW and BTB are never passed on the BenQ when using YCbCr either, which clips your headroom.''



http://www.hometheaterhifi.com/proj...benq-w7000-projector/page-4-on-the-bench.html


Αν θυμάσαι, το είχαμε αντιμετωπίσει κάποια στιγμή που δεν περνούσε την πληροφορία...


Άσχετο:

Τα συγχαρητήριά μου στο παλληκάρι για τα ριβιού του!! Ούτε π@π@τζες, ούτε μετρήσεις κουκουρούκου με 400 χιλιάδες μηδενικά στο κόντραστ. Άριστος!!
 
Eδω βλεπω οτι μιλα για 0-255-16/235 και αναφερει οτι σε YCbCr δεν περνουσε σωστα οταν η ρυθμιση στον προβολεα ηταν στο auto. Αν η καρτα γραφικων μπορει να επιλεξει χειροκινητα ενα απο τα 2 Mode και βαλουμε το ιδιο στον benq, τοτε ειναι οκ, απο οτι γραφει ο τυπος.

Δεν καταλαβα κατι καλα. ?

Λεει: "If I set the input mode to PC, then WTW and BTB were passed, and the RGB Multiburst looked better than either YCbCr version for color information. "

Εγω καταλαβα οτι αν επιλεξουμε pc mode (0-255) στο Pc και το ιδιο στον προβολεα, τοτε θα παρουμε καλυτερο αποτελεσμα στο rgb απο οποιοδηποτε YCbCr (4:2:2---4:4:4)

Που εχω μπερδευτει και καταλαβει λαθος. ? (θα φυγει στο τελος η ati απο το παραθυρο)
 
τοτε γιατι εγω ενω γνωριζα οτι 29 κατασκευαστες του madvr συνιστουν 0-255 για καλυτερα αποτελεσματα, ειχα επιλεξει 16-235. ??
Κατι με ειχε κανει να προτιμησω αυτο για καποιο λογο. !!

Δεν ειμαι σιγουρος, αλλα καποιο ποστ του vas (?) οπου μετρησεις εδειχναν καλυτερη συμπεριφορα στο banding ( σε καρτελα greyscale ramp) στο 16-235 απο την ati. ???
Δεν μπορω να θυμηθω.!
 
Απλα βαλε μια καρτελα greyscale ramp να παιζει και απο την καρτα γραφικων να εναλλασεσαι απο 16-235 σε 0-255.
Toτε κοιτα ποτε βλεπεις πιο πολυ banding στην καρτελα.!

Αααα, και μην ξεχασεις... Νομιζω εξ'ορισμου ειναι ενεργοποιημενο το dithering για μειωση του banding. Παιξε με το πληκτρο Q στο πληκτρολογιο σου κατα την αναπαραγωγη (SHORTCUT) για να το κανεις off αν ειναι on απο τον madvr.


Eρωτηση: αν επιλεξω στην ατι (και στον προβολεα ) 0-255, τοτε δεν πρεπει να βαλω και στον lav video 0-255. ?
Γιατι τωρα το εχω untouched (as input)
 
Τελικά θα ησυχάσουμε κάποια στιγμή ή όχι;
Δεν προλαβαίνω να πω "δοξα τω Θεω" κι αρχίζω τα "παναγία βόηθα". :blink:
Τι είναι αυτό το "Out Of Memory" που μου βγάζει ξαφνικά στο κέντρο της εικόνας σε full screen ο MPC-HC;
Ο επεξεργαστής στο 15% και η RAM στο 30% δουλεύουν. :argue: