Θα είναι όντως ο βασικός μου υπολογιστής. Έχω και ένα 1440p monitor, HDR 400 που το δουλευω με το λαπτοπ της δουλειάς αλλά η παγίδα με τα νέο pro είναι ότι θα είναι ιεροσυλία με τέτοια οθοναρα να τα κουμπώνεις σε εξωτερική οθόνη.
Μια άλλη μου απορία είναι, υπάρχει κάποιο πλεονέκτημα αν κανείς raw photo editing σε μόνιτορ των 1000 nits? Θα πάρεις στο τέλος αρχείο με μεγαλύτερο dynamic range? (Πλέον τις φωτό τις βλέπουμε στην OLED του σαλονιού)
Όχι δεν μπορεί η CPU να χρησιμοποιηθεί σε τέτοια tasks.
Επειδή το επαναλαμβάνεις, είναι λάθος.
Υπάρχουν μελέτες του ICCS σχετικά με τις ορθές πρακτικές δυναμικού διαμοιρασμού workload μεταξύ CPU & GPU, ωστόσο, υπάρχουν διεργασίες οι οποίες εάν εκτελεστούν στη CPU, ο χρόνος εκτέλεσης θα είναι έως και 100 φορές μεγαλύτερος σε σχέση με τη GPU. Ένα παράδειγμα είναι οι διεργασίες SIMD οι οποίες τρέχουν εξαιρετικά πιο αποδοτικά σε CUDA cores.
Οπως υπαρχουν και διεργασιες (οπως το AI και physics ) που μπορουν να γινουν στην CPU ή σε neural / ML engines ...
Oπως ειπα, οι προγραμματιστες βαριουνται/ζοριζονταi και τα dealines ειναι δυσβασταχτα πια!
YG... εγω ακομα θυμαμαι τι εκανα σε assemply στην Amiga , εκει να δεις optimised κωδικα.
YG2... το ποσο σημασια εχει το optimised συστημα/κωδικας, αποδυκνειτεαι περιτρανα απο την ιστορια.
Δειτε τι γραφικα ειχαν πχ τα παιχνιδια του PS4 οταν βγηκε και τι στο τελος της ζωης του (πχ ghost of tsushima)
Ιδιο συστημα, ιδια καρτα γραφικων κλπ... και ομως τοσο καλυτερα!
Αρα , η raw performance χωρις optimised κωδικα/συστημα ειναι μιση δουλεια, αυτο λεω .
Και οχι μονο αυτο.... ιδιο ακριβως συστημα ελεγχου του δισκου και εχουμε loading times στο PS4 που φτανουν αυτες ενος απλου ssd (με απλο HD δισκο)!!!
Παιχνιδι απου μεχρι πριν ενα χρονο ηθελαν 1 λεπτο και βαλε να φορτωσουν σε ps4 , τωρα τα φορτωνει σε 20 δευτερα...τετοια διαφορα μιλαμε.
Αυτο λογω καλυτερου κωδικα και εκμεταλέυση πορων
Ολα τ αλλα ειναι ναχαμε να λεγαμε.