Unleashed: Apple Event 18/10/21

Καμία εφαρμογή δεν βασίζεται σε raw επιδόσεις; Αυτό είναι καινούριο.
Όλες οι εφαρμογές βασίζονται στις raw επιδόσεις, με ορισμένες που είναι εξαιρετικά optimized για το συγκεκριμένο hardware να αποδίδουν πολύ καλύτερα, όχι από λίγες άλλες, αλλά από το σύνολο των διαθέσιμων εφαρμογών.

Οι σοβαρές εφαρμογές τώρα, δεν είναι αποκλειστικά αυτές για τους creators. Δεν είναι σοβαρές οι εφαρμογές της autodesk επί παρεδείγματι; Ή της solarwinds; Ή και πάρα πολλών ακόμα;
Μπορεί επειδή είναι η εργασία σου να εστιάζεις εκεί -και καλά κάνεις προσωπικά- παρά ταύτα αυτό είναι ένα συγκεκριμένο υποσύνολο.
υπαρχουν και αλλα τετοια υποσυνολα!

ακομα και οι εφαρμογες που αναφερεις, μπορουν να κερδισουν τα μεγιστα αν υποστηριξουν τα πολλα υποσυστηματα του SOC αυτου.

Ειδικα αυτες που ανεφερες...
 
ενα ακομα παραδειγμα...


Σε παιχνιδια που παιζω στο pc , βλεπεις την GPU ναι καιγεται και να κανει σαν αεροπλανο (100% usage) ενω η cpu καθεται, λιγοτερο απο 25% usage!

αυτο ειναι παραλογο.... θα μπορουσαν να εκμεταλλευονται τον επεξεργαστη να κανει πολλα παραπανω , καθως και αλλα custom chips αν υπηρχαν.

GPU Bottleneck είναι η αιτία, τόσο απλή.
Η συγκεκριμένη GPU δεν μπορεί να πιάσει το target framerate και δουλεύει υπερωρίες.
Σε ένα πιο δυνατό setup δεν θα έβλεπες τη GPU να είναι στο 100% με framerate cap.
 
προφανως... εγω αλλο ειπα ομως.
Οτι θα μπορουσε cpu και αλλα υποσυστηματα να συνεισφερουν, απλα οι προγραμματιστες βαριουνται (και πιεζονται) .

παμε παρακατω...

Απο τις τελευταιες διαρροες και υπολογισμους βγαινει λοιπον οτι εχουμε επιδοσεις GPU ελαφρως καλυτερες απο το PS5 , που εχει αντιστοιχη καρτα με rtx 2070 super ή rtx 3060 περιπου (οπως ειπα πριν).

Αρα και απο raw performance , ειμαστε μια χaρα , μπορει ακομα και ΑΑΑ games να παιξεις σε 2κ αναλυση σε 60 fps... not bad !
 
αν ειναι το βασικο σου μηχανημα (και ειδικα χωρις εξωτερικη οθονη) , πηγαινε στο 16.

Προωπικα, δεν ειχα ποτε το mbp σαν βασικο ή και αν το ειχα, το εβαζα σε μεγαλη οθονη οταν ημουν σπιτι.
Μπορεις να κανεις το ιδιο... το 14αρι για το δρομο και στο σπιτι συνδεση με μεγαλη οθονη.

Θα είναι όντως ο βασικός μου υπολογιστής. Έχω και ένα 1440p monitor, HDR 400 που το δουλευω με το λαπτοπ της δουλειάς αλλά η παγίδα με τα νέο pro είναι ότι θα είναι ιεροσυλία με τέτοια οθοναρα να τα κουμπώνεις σε εξωτερική οθόνη.

Μια άλλη μου απορία είναι, υπάρχει κάποιο πλεονέκτημα αν κανείς raw photo editing σε μόνιτορ των 1000 nits? Θα πάρεις στο τέλος αρχείο με μεγαλύτερο dynamic range? (Πλέον τις φωτό τις βλέπουμε στην OLED του σαλονιού)
 
προφανως... εγω αλλο ειπα ομως.
Οτι θα μπορουσε cpu και αλλα υποσυστηματα να συνεισφερουν, απλα οι προγραμματιστες βαριουνται (και πιεζονται) .

παμε παρακατω...

Απο τις τελευταιες διαρροες και υπολογισμους βγαινει λοιπον οτι εχουμε επιδοσεις GPU ελαφρως καλυτερες απο το PS5 , που εχει αντιστοιχη καρτα με rtx 2070 super ή rtx 3060 (οπως ειπα πριν).

Αρα και παο raw performanve , ειμαστε μια χaρα , μπορει ςκοαμ και ΑΑΑ games να παιξεις σε 2κ αναλυση σε 60 fps... not bad !

Θετικό μεν αυτό, άλλα μην ξεχνάμε ότι το ps5 κάνει 500 ευρώπουλα και έχει και Blu ray player πάνω!! Στην τελική μακάρι να βγάλουν και παιχνίδια που να εκμεταλευτούν το Hardware...η αλήθεια είναι ότι το Software και ο καλός προγραμματισμός πάντα είναι σημαντικότερα από το Hardware, τα παραδείγματα πολλά. Μια καλή ιδέα θα ήταν μελλοντικά ίσως να τροφοδοτεί π.χ. το ps6 η Apple με κάποιο custom chip??? Σκεφτείτε ένα τέτοιο σενάριο!! Θα δούμε μικρές κονσόλες χωρίς να καίνε πολύ και από την άλλη η Apple θα μπορέσει να κερδίσει στα μηχανήματά της παιχνίδια του ps6.
 
δεν ειναι ετσι... μπορει ενας επεξεργαστης να συνεισφερει κι αλλο.
Το ιδιο και αλλα custom chips.
Το θεμα ειναι οτι οι εταιρειες δεν ασχολουνται πια με σοιβαρο προγραμματισμο... again remember Amiga!

Όχι δεν μπορεί η CPU να χρησιμοποιηθεί σε τέτοια tasks.

προφανως... εγω αλλο ειπα ομως.
Οτι θα μπορουσε cpu και αλλα υποσυστηματα να συνεισφερουν, απλα οι προγραμματιστες βαριουνται (και πιεζονται) .

Επειδή το επαναλαμβάνεις, είναι λάθος.
Υπάρχουν μελέτες του ICCS σχετικά με τις ορθές πρακτικές δυναμικού διαμοιρασμού workload μεταξύ CPU & GPU, ωστόσο, υπάρχουν διεργασίες οι οποίες εάν εκτελεστούν στη CPU, ο χρόνος εκτέλεσης θα είναι έως και 100 φορές μεγαλύτερος σε σχέση με τη GPU. Ένα παράδειγμα είναι οι διεργασίες SIMD οι οποίες τρέχουν εξαιρετικά πιο αποδοτικά σε CUDA cores.
 
Να κάνω λίγο τον δικηγόρο του Διαβόλου? Αφού σε βολεύει ο καναπές γιατί δεν χτυπάς ένα mac mini με μια ωραία χορταστική 27αρα οθόνη ή ένα imac? Θα κάνεις το editing σου σαν άνθρωπος και δεν θα στραβώνεσαι στις 15αρες και 16αρες, χτυπάς και ένα ipad pro με τον M1 και είσαι άρχοντας. Θα έχεις και την οθονάρα σου για σωστή και άνετη δουλειά και το ipad για καναπέδες, on the go Και χαλαρές φάσεις, και το ωραίο είναι ότι συνολικά παίζει να σου βγουν και πιο φτηνά και θα έχεις 2 μηχανήματα.

Υ.Γ. Στην χειρότερη κάνε αυτό που γράφει ο Γιάννης πιο πάνω πάρε το 14αρι για on the go και στο σπίτι το συνδέεις πάνω σε μια μεγάλη οθόνη.

Μου αρέσει η ιδέα του Mac mini + M1 iPad Pro. Παρόμοια τιμή με ένα MacBook Pro.. άντε να δούμε ποτέ θα βγει το ανανεωμένο Mac mini.
 
Θα είναι όντως ο βασικός μου υπολογιστής. Έχω και ένα 1440p monitor, HDR 400 που το δουλευω με το λαπτοπ της δουλειάς αλλά η παγίδα με τα νέο pro είναι ότι θα είναι ιεροσυλία με τέτοια οθοναρα να τα κουμπώνεις σε εξωτερική οθόνη.

Μια άλλη μου απορία είναι, υπάρχει κάποιο πλεονέκτημα αν κανείς raw photo editing σε μόνιτορ των 1000 nits? Θα πάρεις στο τέλος αρχείο με μεγαλύτερο dynamic range? (Πλέον τις φωτό τις βλέπουμε στην OLED του σαλονιού)

Όχι δεν μπορεί η CPU να χρησιμοποιηθεί σε τέτοια tasks.



Επειδή το επαναλαμβάνεις, είναι λάθος.
Υπάρχουν μελέτες του ICCS σχετικά με τις ορθές πρακτικές δυναμικού διαμοιρασμού workload μεταξύ CPU & GPU, ωστόσο, υπάρχουν διεργασίες οι οποίες εάν εκτελεστούν στη CPU, ο χρόνος εκτέλεσης θα είναι έως και 100 φορές μεγαλύτερος σε σχέση με τη GPU. Ένα παράδειγμα είναι οι διεργασίες SIMD οι οποίες τρέχουν εξαιρετικά πιο αποδοτικά σε CUDA cores.
Οπως υπαρχουν και διεργασιες (οπως το AI και physics ) που μπορουν να γινουν στην CPU ή σε neural / ML engines ...

Oπως ειπα, οι προγραμματιστες βαριουνται/ζοριζονταi και τα dealines ειναι δυσβασταχτα πια!


YG... εγω ακομα θυμαμαι τι εκανα σε assemply στην Amiga , εκει να δεις optimised κωδικα.


YG2... το ποσο σημασια εχει το optimised συστημα/κωδικας, αποδυκνειτεαι περιτρανα απο την ιστορια.
Δειτε τι γραφικα ειχαν πχ τα παιχνιδια του PS4 οταν βγηκε και τι στο τελος της ζωης του (πχ ghost of tsushima)
Ιδιο συστημα, ιδια καρτα γραφικων κλπ... και ομως τοσο καλυτερα!
Αρα , η raw performance χωρις optimised κωδικα/συστημα ειναι μιση δουλεια, αυτο λεω .

Και οχι μονο αυτο.... ιδιο ακριβως συστημα ελεγχου του δισκου και εχουμε loading times στο PS4 που φτανουν αυτες ενος απλου ssd (με απλο HD δισκο)!!!
Παιχνιδι απου μεχρι πριν ενα χρονο ηθελαν 1 λεπτο και βαλε να φορτωσουν σε ps4 , τωρα τα φορτωνει σε 20 δευτερα...τετοια διαφορα μιλαμε.
Αυτο λογω καλυτερου κωδικα και εκμεταλέυση πορων

Ολα τ αλλα ειναι ναχαμε να λεγαμε.
 
Last edited:
  • Like
Reactions: karamela
Οπως υπαρχουν και διεργασιες (οπως το AI και physics ) που μπορουν να γινουν στην CPU ή σε neural / ML engines ...
Oπως ειπα, οι προγραμματιστες βαριουνται/ζοριζονταi και τα dealines ειναι δυσβασταχτα πια!

YG... εγω ακομα θυμαμαι τι εκανα σε assemply στην Amiga , εκει να δεις optimised κωδικα.

Το AI επίσης -το οποίο έχει συγκεκριμένες διαεργασίες, δεν είναι αφηρημένη έννοια, μπορεί να τρέξει πολύ πιο γρήγορα σε gpu dedicated cores οπως οι Tensor. Με τις μεγαλύτερες σχετικές υλοποιήσεις να γίνονται σε αυτούς.
Οι προγραμματιστές δεν βαριούνται, είναι ντροπή να γράφεται αυτό, κάνουν ότι τους ζητηθεί. Και πάντα ζυγίζεται σε κάθε project το cost to benefit ratio.
 
ανεφερα ... βαριουνται/πιεζονται !

ΥΓ... υπηρξα κι εγω καποια περιοδο προγραμματιστης στο Πανεπιστημιο, και βαριομουν καμια φορα!
Δεν ειναι κακο! :p

Το σημαντικοτερο ειναι βεβαια οτι πιεζονται χρονικα... εκει χαλαει το πραγμα
Και πολλοι επισης επαναπαυονται σε ετοιμες λυσεις και δοκιμασμενες.
Ολοι οι επαγγελματιες το κανουν αυτο, ακομα και στη δικια μου περιπτωση.
Εχω επαγγελματιες που βαριουνται να μαθουν ενα νεο προγραμμα ή δεν προλαβαινουν.
Εγω εχω τη ταση να μαθαινω καινουγια πραγματα και τους πριζω συνεχως....

Οποτε ναι, πολλοι βαριουνται, αλλοι πιεζονται
 
Οπως υπαρχουν και διεργασιες (οπως το AI και physics ) που μπορουν να γινουν στην CPU ή σε neural / ML engines ...

Oπως ειπα, οι προγραμματιστες βαριουνται/ζοριζονταi και τα dealines ειναι δυσβασταχτα πια!


YG... εγω ακομα θυμαμαι τι εκανα σε assemply στην Amiga , εκει να δεις optimised κωδικα.


YG2... το ποσο σημασια εχει το optimised συστημα/κωδικας, αποδυκνειτεαι περιτρανα απο την ιστορια.
Δειτε τι γραφικα ειχαν πχ τα παιχνιδια του PS4 οταν βγηκε και τι στο τελος της ζωης του (πχ ghost of tsushima)
Ιδιο συστημα, ιδια καρτα γραφικων κλπ... και ομως τοσο καλυτερα!
Αρα , η raw performance χωρις optimised κωδικα/συστημα ειναι μιση δουλεια, αυτο λεω .

Και οχι μονο αυτο.... ιδιο ακριβως συστημα ελεγχου του δισκου και εχουμε loading times στο PS4 που φτανουν αυτες ενος απλου ssd (με απλο HD δισκο)!!!
Παιχνιδι απου μεχρι πριν ενα χρονο ηθελαν 1 λεπτο και βαλε να φορτωσουν σε ps4 , τωρα τα φορτωνει σε 20 δευτερα...τετοια διαφορα μιλαμε.
Αυτο λογω καλυτερου κωδικα και εκμεταλέυση πορων

Ολα τ αλλα ειναι ναχαμε να λεγαμε.

Ισχύουν αυτά που λες, η διαφορά όμως είναι ότι στην κονσόλα έχεις αυτό το Hardware και τέλος ή το κάνεις και δουλεύει με αυτό που έχεις ή όχι....στα pc όμως απλά ο προγραμματιστής/εταιρία λέει έ δεν βαριέσαι όποιος θέλει το πρόγραμμά μου να πάρει καλύτερο μηχάνημα σιγά μην κάτσω να ξεσκιστώ για να το κάνω να δουλεύει και άψογα και σε μέτρια μηχανήματα , για αυτό βλέπουμε το σενάριο που περιγράφεις απλός δίσκος HD να δουλεύει λες και είναι SSD ή να βλέπεις γραφικά στο σάπιο πλέον ps4 που σε pc θες κάρτα γραφικών πολύ πιο ισχυρή.
Επίσης μην ξεχνάς ότι μια εταιρία π.χ. για το Ghost of tsushima έπρεπε να φτιάξει το παιχνίδι να δουλεύει σε ένα μηχάνημα και όχι για να δουλεύει σε χιλιάδες διαφορετικά μηχανήματα. Δες π.χ. το Horizon όταν το βγάλανε σε PC ήθελε πολλαπλάσια επεξεργαστική ισχύ για να αποδίδει όπως στο πανάρχαιο ps4. Η Apple λοιπόν πλέον με τους M1 προσπαθεί να αντιγράψει την λογική των κονσολών, δεν είναι ανάγκη να έχεις το καλύτερο Hardware άλλα να έχεις το καλύτερο Software εκει είναι όλο το ζουμί!!
 
Το AI επίσης -το οποίο έχει συγκεκριμένες διαεργασίες, δεν είναι αφηρημένη έννοια, μπορεί να τρέξει πολύ πιο γρήγορα σε gpu dedicated cores οπως οι Tensor. Με τις μεγαλύτερες σχετικές υλοποιήσεις να γίνονται σε αυτούς.
Οι προγραμματιστές δεν βαριούνται, είναι ντροπή να γράφεται αυτό, κάνουν ότι τους ζητηθεί. Και πάντα ζυγίζεται σε κάθε project το cost to benefit ratio.

ο προγραμματιστής δεν βαριέται, άλλα θέλει πολύ περισσότερο χρήμα και χρόνος για να κάνει άψογο optimised σε κάθε μηχάνημα και οι εταιρίες δεν είναι φιλανθρωπικά ιδρύματα, αντι να επιλέξουν να φτιάξουν με πιο αποδοτικό τρόπο το software απλά ανεβάζουν τις απαιτήσεις σε Hardware για να τρέξει σωστά!!....problem solved!
 
Το ίδιο λέμε… optimised , εκεί είναι η διαφορά.
Δες και τι γίνεται με το iOS κλπ

Εκμετάλλευση των πόρων στο μέγιστο βαθμό .αυτό δε γίνεται στο pc , αυτό λέμε !
 
Το ίδιο λέμε… optimised , εκεί είναι η διαφορά.
Δες και τι γίνεται με το iOS κλπ

Εκμετάλλευση των πόρων στο μέγιστο βαθμό .αυτό δε γίνεται στο pc , αυτό λέμε !

Ισχύει, στο PC δεν μπορεί να γίνει γιατί μιλάμε για εκατομμύρια διαφορετικά εξαρτήματα και εκατομμύρια διαφορετικούς συνδυασμούς, όπως ακριβώς δεν γίνεται και στα Android τηλέφωνα, οπότε εκ φύσεως είναι αδύνατο να έχεις άψογη εκμετάλλευση όλων των πόρων όπως γίνεται π.χ. στο ios, στο macos, παλιά στην Amiga που ανέφερες, σε κονσόλες κλπ. Είναι λοιπόν τα pc πιο ανοιχτά συστήματα με άλλα πλεονεκτήματα που δεν υπάρχει λόγος να αναφερθούν τώρα.

Υ.Γ. Σκέψου την Microsoft άλλο αν την βρίζουμε όλοι ότι πρέπει να φτιάξει ένα λειτουργικό που να δουλεύει κυριολεκτικά παντού και με κάθε πιθανό συνδυασμό Hardware!! Λίγοι θα μπορούσαν να το κάνουν αυτό!!
 
Ερώτημα, στα ιδια χρήματα :
14άρι Μax 64GB ή 16αρι Μax 32GB;

Η δική μου λογική λέει το πρώτο -αν και θα προτιμούσα 16άρα οθόνη- ετσι και αλλιώς συνήθως συνδέεεται με μεγάλη οθόνη, αλλά παραμένει ερώτημα για thermal throttling του μικρού, άκουσα.
Τί λέτε;
 
Ερώτημα, στα ιδια χρήματα :
14άρι Μax 64GB ή 16αρι Μax 32GB;

Η δική μου λογική λέει το πρώτο -αν και θα προτιμούσα 16άρα οθόνη- ετσι και αλλιώς συνήθως συνδέεεται με μεγάλη οθόνη, αλλά παραμένει ερώτημα για thermal throttling του μικρού, άκουσα.
Τί λέτε;

Αν θα εργαζεσαι μονιμα σε αυτο, προφανως το μεγαλο.
Αν στον χώρο εργασίας σου το συνδέεις σε οθονη, το πρωτο.
 
απο B&H μάλλον, θα δούμε.
Το θέμα 32GB vs 64GB δε θα έχει διαφορά στην απόδοση;