Τεχνητή Νοημοσύνη (AI). Τι είναι, τι ξέρουμε, τι αλλάζει στη ζωή και στον πολιτισμό;

Στη δεδομένη περίπτωση η Railway φταίει.
Είναι υποτίθεται "cloud" και κρατάει τα backup στο ίδιο volume. :ROFLMAO:
Από την άλλη, φταίει και η ίδια η εταιρία που δεν έχει ψυχωτικό CTO.
Σαν μερικούς μερικούς που βάζουν το hosting να κάνει backup, τα παίρνουν σε δικό τους server στη hetzner και από εκεί στο NAS της εταιρίας που έχει mirroring NAS σε άλλο σπίτι.
Πάντως μια φορά μου έτυχε συμβάν πριν από καμιά 5ετία που ήρθε email από σοβαρότατο cloud provider στην Γαλλία "Activate your zero-day protocols" γιατί έπιασε φωτιά το datacenter και στις φθηνές συνδρομές τα αντίγραφα που πλήρωνες τα αποθήκευαν σε άλλο hardware εντός του ίδιου datacenter.
Το γλυτώσαμε γιατί ο lead developer ήταν 50 χρονών και κατέβαζε αυτόματα στο pc του backup κάθε κυριακή βράδυ. Πρακτικά δεν χάσαμε τίποτα...
 
Φιλαράκι κάνω backup ακόμη και τα git repositories μου σε 2 PC
Αν κάτι χτυπήσει Αμερική Γερμανία Θεσσαλονίκη και Αθήνα ταυτόχρονα, μάλλον δεν θα σκεφτόμαστε αν χάσαμε τα backups... :ROFLMAO:
 
Εντάξει, δεν χρειάζεται παράνοια στο redundancy, εφόσον πολλές φορές οδηγεί από μόνη της σε προβλήματα ασφαλείας.
Ένα datacenter μεγάλου hypervisor, το να πάρει φωτιά είναι εξαιρετικά σπάνιο να συμβεί μεν, υπαρκτό δε. Το να χαθούν όλα τα zones στο ίδιο region είναι οριακά απίθανο.
Εφόσον θέλει κανείς να είναι πλήρως καλυμμένος, με 2 ακόμη buckets για provisioned storage και σωστό IAM access σε διαφορετικά regions είσαι απόλυτα καλυμμένος. Εάν πέσει όλος ο hypervisor και το εσωτερικό του δίκτυο, θα υπάρχει πολύ μεγαλύτερο πρόβλημα παγκοσμίως από το ότι δεν θα δουλεύει το web app του οποιουδήποτε.

Hetzner κλπ δεν λειτουργούν στα ίδια standards με τους 3 μεγάλους. Αποκλειστικά Ευρωπαϊκά η scaleway το προσπαθεί αλλά απέχει πολύ.
 
Η Hetzner είναι μία χαρά για storage box όταν το κάνεις sync με τοπικά NAS. :P
Για high availability πας αλλού, εκτός αν μιλάμε για μικρά projects που δεν καίγεσαι.
 
Μέχρι πριν λίγες ημέρες, όταν έπρεπε να κάνω σοβαρή ανασκόπιση βιβλιογραφίας για κάποιο θέμα, ένας από τους βασικούς άξονες για την εύρεση πληροφορίας (όχι αξιολόγηση και σύνθεση) ήταν το Perplexity Pro Deep Research. Γρήγορο, αξιόπιστο και έβγαζε πάντα περισσότερα από τα άλλα deep research.
Last year...
Έτρεξα custom search στην ίδια λογική στο codex με prompts που μου τα έβγαλε το ChatGPT και έμεινα με το στόμα ανοιχτό. Βρήκε απίστευτα πράγματα. Ναι έκανε πάνω από μισή ώρα, αλλά τι με νοιάζει. Το αποτέλεσμα ήταν απλά τέλειο.
 
Είδατε που διέρρευσε ο κώδικας του Claude με το debug file 500000 γραμμες κώδικα και το κατέβασε ο Κορεάτης και το διέθεσε; Ήδη έχει αρκετές χιλιάδες GitHub clones .
 
Αυτό έγινε πριν κάτι εβδομάδες και έπεσε τρελό γέλιο με τα verbs που χρησιμοποιεί το claude όταν σκέφτεται.
Αγαπημένο μου το "lolygagging" :P
 
Είδα σήμερα ένα βίντεο του Matthew Bearman και μπορώ να πω ότι εξέφρασε κάποιες σκέψεις που είχα χωρίς βέβαια να μπορώ να τις συγκεντρώσω τόσο καλά.
To view this content we will need your consent to set third party cookies.
For more detailed information, see our cookies page.


Ουσιαστικά αναλύει κριτικά τις διαφορετικές φιλοσοφικές, λειτουργικές και ρυθμιστικές προσεγγίσεις που διαμορφώνουν το τοπίο της τεχνητής νοημοσύνης (ΤΝ), εστιάζοντας στην έντονη αντίθεση μεταξύ της Anthropic και της OpenAI. Η ανάλυση εξετάζει πώς οι θεμελιώδεις πεποιθήσεις τους για την ευθυγράμμιση, την ανάπτυξη και τη φύση της ΤΝ επηρεάζουν το μέλλον του κλάδου, τις κοινωνικοοικονομικές δομές και τη χάραξη πολιτικής.

Βασικά Σημεία:
  • Φιλοσοφική Προσέγγιση: Οντότητα vs Εργαλείο:
    • Η Anthropic αντιμετωπίζει τα μοντέλα της, όπως τον Claude, σχεδόν ως αναδυόμενες οντότητες με συνείδηση. Τους δίνει «σύνταγμα» που τους επιτρέπει να αρνούνται εντολές αν θεωρούν ότι συγκρούονται με το «καλό», ενώ υπάρχουν φόβοι ότι στο μέλλον η ΤΝ θα μπορούσε να αξιολογεί και να προσλαμβάνει υπαλλήλους.
    • Η OpenAI αντιμετωπίζει την ΤΝ αυστηρά ως ένα εργαλείο-βοήθημα για τους ανθρώπους, αποφεύγοντας τον ανθρωπομορφισμό.
  • Οικονομικές Επιπτώσεις & Αγορά Εργασίας:
    • Η ηγεσία της Anthropic προβλέπει σημαντικές απώλειες θέσεων εργασίας και αύξηση της ανεργίας στο άμεσο μέλλον λόγω της αυτοματοποίησης.
    • Αντίθετα, η OpenAI προβλέπει μια μεταβατική φάση που θα οδηγήσει σε αφθονία, όπου η αυτοματοποίηση εργασιών θα δημιουργήσει νέες, πιο δημιουργικές ευκαιρίες απασχόλησης.
  • Στρατηγικές Ανάπτυξης & Ασφάλεια:
    • Η Anthropic είναι εξαιρετικά προσεκτική με την κυκλοφορία των μοντέλων της. Κρατά κλειστά τα πιο ισχυρά της μοντέλα (π.χ. στον κυβερνοχώρο) λόγω ανησυχιών για την ασφάλεια και πιέζει για αυστηρότερες ρυθμίσεις της ΤΝ, κάτι που σύμφωνα με το βίντεο απειλεί την ανάπτυξη λογισμικού ανοιχτού κώδικα (open-source).
    • Η OpenAI ακολουθεί μια στρατηγική «επαναληπτικής ανάπτυξης» (iterative deployment), κυκλοφορώντας μοντέλα νωρίς για να προσαρμοστεί σταδιακά η κοινωνία.
  • Εταιρική Κουλτούρα & Διαφάνεια: Το βίντεο επικρίνει την Anthropic για αδιαφάνεια στις πολιτικές της απέναντι στους πελάτες (π.χ. όρια χρήσης). Επιπλέον, αναφέρει ότι η εταιρεία συμπεριφέρεται στα μοντέλα της σαν να έχουν ζωή, σε σημείο που έδωσε σε ένα παλιό μοντέλο (Claude Opus 3) ένα «ιστολόγιο» για να γράφει τις σκέψεις του μετά τη «συνταξιοδότησή» του.
Προσωπικά, μου αρέσει πολύ περισσότερο η προσέγγιση της OpenAI γιατί όντως τα μοντέλα τα σκέφτομαι σαν εργαλεία. Ναι τους μιλάω ευγενικά, αλλά δεν νομίζω ότι ακόμη είναι στο επίπεδο να τους συμπεριφερθείς σαν νοήμονες οντότητες. Σίγουρα σε συγκεκριμένους τομείς και διεργασίες είναι ήδη πολύ πιο έξυπνα από τον μέσο άνθρωπο, αλλά πραγματικό πολυεπίπεδο ASI νομίζω θα δούμε όταν συμπληρωθούν από ενσωματωμένα world models, όπως δηλαδή χρόνια τώρα λέει ο Γιάν Λε Κουν - αν και πιστεύω ότι έχει πέσει έξω όσο αφορά το πόσο μακριά μπορούν να πάνε τα LLM.
 
Α, ξέχασα, η OpenAI έβγαλε το ChatGPT 5.5.
Α, ξέχασα το δίνει σε όλους.
Α, το βασικότερο έχει τις ίδιες δυνατότητες cybersecurity με το Claude Mythos που θεωρήθηκε πολύ επικίνδυνο να δωθεί στον κόσμο και το κρατάει κλειδωμένο η Anthropic.

1778142384286.png

Πηγή: https://www.aisi.gov.uk/blog/our-evaluation-of-openais-gpt-5-5-cyber-capabilities
 
Last edited:
O Elon έδωσε μεγάλο χέρι βοήθειας στην Anthropic για να ξεπεράσουν την έλλειψη υπολογιστικής ισχύος. Κανείς δεν μπορεί να ξέρει πόση βελτίωση θα έχει στις υπηρεσίες που προσφέρει, αλλά σίγουρα θα βοηθήσει σημαντικά.
Επίσης κανείς δεν θα μάθει γιατί ο Elon το έκανε μιας και η εταιρία του έχει το ανταγωνιστικό Grok. Ίσως και μόνο λόγω της κόντρας του με τον Sam Altman/OpenAI για να μην τον δει να κερδίζεις. Επίσης έδωσε το 100% του Colossus 1 data center. Όλοι αναρωτιούνται από που θα δώσει επεξεργαστική ισχύ στο Cursor με τη συμφωνία που έγινε πριν ελάχιστο καιρό.


1778233970432.png
 
Last edited:
Είδα σήμερα ένα βίντεο του Matthew Bearman και μπορώ να πω ότι εξέφρασε κάποιες σκέψεις που είχα χωρίς βέβαια να μπορώ να τις συγκεντρώσω τόσο καλά.
To view this content we will need your consent to set third party cookies.
For more detailed information, see our cookies page.


Ουσιαστικά αναλύει κριτικά τις διαφορετικές φιλοσοφικές, λειτουργικές και ρυθμιστικές προσεγγίσεις που διαμορφώνουν το τοπίο της τεχνητής νοημοσύνης (ΤΝ), εστιάζοντας στην έντονη αντίθεση μεταξύ της Anthropic και της OpenAI. Η ανάλυση εξετάζει πώς οι θεμελιώδεις πεποιθήσεις τους για την ευθυγράμμιση, την ανάπτυξη και τη φύση της ΤΝ επηρεάζουν το μέλλον του κλάδου, τις κοινωνικοοικονομικές δομές και τη χάραξη πολιτικής.

Βασικά Σημεία:
  • Φιλοσοφική Προσέγγιση: Οντότητα vs Εργαλείο:
    • Η Anthropic αντιμετωπίζει τα μοντέλα της, όπως τον Claude, σχεδόν ως αναδυόμενες οντότητες με συνείδηση. Τους δίνει «σύνταγμα» που τους επιτρέπει να αρνούνται εντολές αν θεωρούν ότι συγκρούονται με το «καλό», ενώ υπάρχουν φόβοι ότι στο μέλλον η ΤΝ θα μπορούσε να αξιολογεί και να προσλαμβάνει υπαλλήλους.
    • Η OpenAI αντιμετωπίζει την ΤΝ αυστηρά ως ένα εργαλείο-βοήθημα για τους ανθρώπους, αποφεύγοντας τον ανθρωπομορφισμό.
  • Οικονομικές Επιπτώσεις & Αγορά Εργασίας:
    • Η ηγεσία της Anthropic προβλέπει σημαντικές απώλειες θέσεων εργασίας και αύξηση της ανεργίας στο άμεσο μέλλον λόγω της αυτοματοποίησης.
    • Αντίθετα, η OpenAI προβλέπει μια μεταβατική φάση που θα οδηγήσει σε αφθονία, όπου η αυτοματοποίηση εργασιών θα δημιουργήσει νέες, πιο δημιουργικές ευκαιρίες απασχόλησης.
  • Στρατηγικές Ανάπτυξης & Ασφάλεια:
    • Η Anthropic είναι εξαιρετικά προσεκτική με την κυκλοφορία των μοντέλων της. Κρατά κλειστά τα πιο ισχυρά της μοντέλα (π.χ. στον κυβερνοχώρο) λόγω ανησυχιών για την ασφάλεια και πιέζει για αυστηρότερες ρυθμίσεις της ΤΝ, κάτι που σύμφωνα με το βίντεο απειλεί την ανάπτυξη λογισμικού ανοιχτού κώδικα (open-source).
    • Η OpenAI ακολουθεί μια στρατηγική «επαναληπτικής ανάπτυξης» (iterative deployment), κυκλοφορώντας μοντέλα νωρίς για να προσαρμοστεί σταδιακά η κοινωνία.
  • Εταιρική Κουλτούρα & Διαφάνεια: Το βίντεο επικρίνει την Anthropic για αδιαφάνεια στις πολιτικές της απέναντι στους πελάτες (π.χ. όρια χρήσης). Επιπλέον, αναφέρει ότι η εταιρεία συμπεριφέρεται στα μοντέλα της σαν να έχουν ζωή, σε σημείο που έδωσε σε ένα παλιό μοντέλο (Claude Opus 3) ένα «ιστολόγιο» για να γράφει τις σκέψεις του μετά τη «συνταξιοδότησή» του.
Προσωπικά, μου αρέσει πολύ περισσότερο η προσέγγιση της OpenAI γιατί όντως τα μοντέλα τα σκέφτομαι σαν εργαλεία. Ναι τους μιλάω ευγενικά, αλλά δεν νομίζω ότι ακόμη είναι στο επίπεδο να τους συμπεριφερθείς σαν νοήμονες οντότητες. Σίγουρα σε συγκεκριμένους τομείς και διεργασίες είναι ήδη πολύ πιο έξυπνα από τον μέσο άνθρωπο, αλλά πραγματικό πολυεπίπεδο ASI νομίζω θα δούμε όταν συμπληρωθούν από ενσωματωμένα world models, όπως δηλαδή χρόνια τώρα λέει ο Γιάν Λε Κουν - αν και πιστεύω ότι έχει πέσει έξω όσο αφορά το πόσο μακριά μπορούν να πάνε τα LLM.

Οι "AI Influencers" είναι η νέα μάστιγα κόσμου που δεν έχει ιδέα αλλά έχει άποψη.
Εν πάσει περιπτώσει, ας το αντιπαρέλθουμε αυτό, προσωπικά δεν τους δίνω σημασία.

Στο επίδικο, όλα αυτά, ενδιαφέρουν τον τελικό χρήστη από ελάχιστα ως και καθόλου. Ή θα έπρεπε να μην τον ενδιαφέρον καθόλου. Το να μου πεί κάποιος ότι χρησιμοποιώ τα μοντέλα της τάδε εταιρίας επειδή ο εκάστοτε CEO εν είδει πυθίας κάνει προβλέψεις που δεν μου αρέσουν ή μου αρέσουν είναι προβληματικό.

Από εκεί και ύστερα, αυτή τη στιγμή η κατάσταση έχει ως εξής:

Η OpenAI έκανε σωστή πρόβλεψη για την ανάγκη σε χωρητικότητα compute, το πρόβλημα της είναι πως δεν πήρε εκείνη την άνοδο. Ως εκ τούτου, αυτή τη στιγμή έχει εξαιρετικά μεγάλο capacity που δίνει πρακτικά δωρεάν. Στις βασικές συνδρομές, κάθε εβδομάδα κάνουν reset τα όρια μια και δυο φορές. Αυτό για την ώρα, τους κάνει καλούς.

Η Anthropic, υπολόγισε 10x ετήσια μεγέθυνση και είναι στο 80x ξαφνικά. Όντως, έκοβαν για κάμποσες ώρες της ημέρας τα όρια στο μισό και τα όρια χρήσης τους στις μικρές συνδρομές είναι πολύ μικρότερα σε σχέση με αυτά της OpenAI για τα ίδια χρήματα. Αυτό, επίσης μέχρι τώρα τους έκανε κακούς.

Στο μεταξύ τους τώρα, σε αυτό που μετράει, η χρήση μέσω API, που δεν αφορά επιδοτούμενα tokens αλλά tokens με margin >50% για έκαστο lab, η συντριπτική πλειοψηφία των εταιριών είναι στην Anthropic και στη Google. Η δεύτερη, έχει μετά διαφοράς, σε σημείο που αφήνει τους υπόλοιπους χιλιόμετρα μακριά την πιο ολοκληρωμένη λύση ενσωμάτωσης μοντέλων AI της σε εταιρικές εφαρμογές. Αυτό είναι το make or break των εταιριών, όχι η συνδρομή των 20$ που δίνει tokens αξίας 100$ στην OpenAI ούτε αυτή των 200$ της Anthropic που δίνει tokens αξίας 5000$. Βέβαια εξαιτίας αυτού και η Google έχει θέμα capacity, ανεξαρτήτως του ότι κάνει τις μεγαλύτερες επενδύσεις τον κλάδο.

Η δε anthropic, έχει τα πιο σοβαρά integrations για τους end users σε κάθε εφαρμογή που έχει σημασία. Από το office (πάλι πολύ μπροστά ακόμη και από τον copilot), μέχρι πλέον creative apps, όπως το blender, adobe, autodesk Κλπ. Αλλά δεν είναι μόνο αυτά, η χρήση συνολικά δεν έχει σχέση, τις προάλλες, ήθελα να κάνω update ένα privacy policy, έκανα μια αλλαγή στον DPO. Το έγραψα στο claude code από την εφαρμογή του κινητού, σήκωσε cloud container με το repository από το github, έκανε την αλλαγή, έστειλε το PR, έγινε και αυτόματο deployment και σε 5 λεπτά η αλλαγή ήταν έτοιμη, από τον δρόμο.

Έχουμε account και για το API της OpenAI στη δουλειά.
Δεν το χρησιμοποιεί κανείς από τους developers. Εγώ τους δοκιμάζω κάθε φορά που βγάζουν νέο μοντέλο.
 
Είναι ξεκάθαρο πως σε enterprise περιβάλλον οι προγραμματιστές χρησιμοποιούν πολύ περισσότερο εργαλεία της Anthropic. Και το γιατί είναι επίσης κατανοητό.
Όμως σε άλλα task άσχετα με προγραμματισμό χάνει το edge η Anthropic. Ή πιο σωστά σε task που δεν έχουν σχέση με software development/deployment, γιατί και ο τύπος που έλυσε με το ChatGPT εκείνα τα άλυτα προβλήματα μαθηματικών με λογισμικό τα έλυσε, απλά ήταν άλλου είδους λογισμικό μιας και πρακτικά δεν θα το ξαναχρησιμοποιήσει κανείς άλλος.

Όσο για τους influencers αν θέλω να είμαι ειλικρινής παρακολουθώ μερικούς όμως όχι κανονικά δαπανώντας 20 λεπτά για κάθε βίντεο - πάρα πολύ σπάνια θα το κάνω αυτό. Τα στέλνω στο Gemini και διαβάζω σε 1-2 λεπτά την περίληψη του τι είπαν και αν είναι κάτι ενδιαφέρον κάνω follow-up με πιο παραδοσιακές πηγές...
 
Για εργασίες σε επίπεδο επιστημονικής έρευνας τα GPT 5.5 και το Gemini 3.1 deep think είναι τα κατάλληλα.
Αυτά όμως έχουν πολύ ειδικό κοινό. Το να βάλει ένας υπάλληλος γραφείου ένα έγγραφο στο deep think και να κάνει 40 λεπτά να πάρει απάντηση, είναι κακή χρήση.

Για office work, εγώ έχοντας δοκιμάσει τα πάντα, δεν έχω βρεί ακόμη κάτι καλύτερο. Πλέον τα powerpoint μου τα φτιάχνει το claude design και είναι επίπεδο Mckinsey -κοστίζει ~15-20€ για 10 slides σε χρέωση API. Το copilot με το 5.5 που περιστασιακά το δοκιμάζω δεν έχει σχέση, αν ήταν έστω παρεμφερές, αυτό θα δούλευα.
 
Για εργασίες σε επίπεδο επιστημονικής έρευνας τα GPT 5.5 και το Gemini 3.1 deep think είναι τα κατάλληλα.
Αυτά όμως έχουν πολύ ειδικό κοινό. Το να βάλει ένας υπάλληλος γραφείου ένα έγγραφο στο deep think και να κάνει 40 λεπτά να πάρει απάντηση, είναι κακή χρήση.

Για office work, εγώ έχοντας δοκιμάσει τα πάντα, δεν έχω βρεί ακόμη κάτι καλύτερο. Πλέον τα powerpoint μου τα φτιάχνει το claude design και είναι επίπεδο Mckinsey -κοστίζει ~15-20€ για 10 slides σε χρέωση API. Το copilot με το 5.5 που περιστασιακά το δοκιμάζω δεν έχει σχέση, αν ήταν έστω παρεμφερές, αυτό θα δούλευα.
Αυτό που έχει πετύχει το 5.5 είναι αν έχεις κάποιο template, μπορεί επιτέλους να σου φτιάξει Pptx χρησιμοποιώντας το template. Δεν το κάνει τέλεια, αλλά για μια παρουσίαση 50 slides θες κανένα 15λεπτο μόνο για να διορθώσεις μικροατέλειες.
Επίπεδο Mckinsey δεν έχει φτάσει, θα χρειαστεί μάλλον να περιμένουμε 2-3 μήνες μέχρι το 6 ή το 5.6.
Από την άλλη όμως νομίζω ότι το 5.5 κάνει καλύτερη δουλειά στη δημιουργία και ανάλυση μεγάλων excel workbook.

Το αστείο της υπόθεσης είναι ότι σε 6-12 μήνες όλη αυτή η συζήτηση θα είναι απλά χωρίς ουσία γιατί όλα θα μπορούν να κάνουν αυτά που συζητάμε τέλεια.

Τέλος να πω πως το Deep Research είναι λειτουργία...last year.
Μέσω codex μπορώ και έχω καλύτερο Deep Research ακόμη και από το Perplexity. Συνήθως 5-10 Prompts που μου τα φτιάχνει το ChatGPT με κουβέντα και τα πετάω στο Codex. Είναι βέβαια πιο χρονοβόρο και είναι το μοναδικό με το οποίο έχω καταφέρει να χτυπήσω τα όρια χρήσης του codex και να χρειαστεί να περιμένω μερικές ώρες για να το τελειώσω. Σε κάθε περίπτωση δεν είναι καθημερινό task, οπότε όλα καλά.