Τεχνητή Νοημοσύνη (AI). Τι είναι, τι ξέρουμε, τι αλλάζει στη ζωή και στον πολιτισμό;

Δεν είναι όλα τόσο μαύρα. Γίνεται δουλειά, απλά κάτω από το πλαίσιο του Arms Race.
Και το κακό είναι ότι:
1. Καταστρατηγείται η νομοθεσία...όχι για πράσινη ενέργεια / ενεργειακή μετάβαση ακόμη και σε επίπεδο φίλτρων σε συμβατικές μονάδες ή στην ανάγκη αδειοδότησης. Αυτό είναι εξωφρενικά πιο χοντρό από το να διεκδικεις πράσινη ενέργεια.
2. Αυτό που σώζει την κατάσταση είναι ότι πολλές από τις frontier εταιρίες έχουν σηκώσει χρήματα από εταιρίες με Mandate για πράσινη ενέργεια, οπότε το ακολουθούν χωρίς να το διαφημίζουν.
3. Τα μικρά πυρηνικά (small modular reactors) θα παίξουν ακριβώς για το πιο πάνω.
Αυτό που γίνεται στην πράξη είναι να υπογράφουν οι μεγάλοι όπως η Google, Microsoft και Amazon, Power Puchase Agreements (PPA) από παραγωγούς ΑΠΕ και να δείχνουν 100% ανανεώσιμη ενέργεια. Αυτό όμως είναι λογιστικό και όχι τεχνικό, γιατί προφανώς τα ηλεκτρόνια από τις μονάδες ΑΠΕ δεν είναι αυτά που καταναλώνονται, απλά λογιστικά υπολογίζουμε ότι καταναλώθηκαν αυτά.
Για αυτό στις συζητήσεις (που εξελίσσονται με πολύ αργούς ρυθμούς) για ρυθμιστικά πλαίσια υπάρχει η τάση να ζητιώνται άμεσα συνδεδεμένες ΑΠΕ, που θα εκτόξευε το κόστος. Αυτό γίνεται για παράδειγμα σε μεγάλο βαθμό σε εγκαταστάσεις παραγωγής ανανεώσιμων καυσίμων και βλέπουμε πόσο γρήγορα προχωράνε με τέτοιες δεσμέυσεις. Προσωπική μου άποψη πως είναι καθόλα σωστές οι δεσμεύσεις και πρέπει να επεκταθούν και στο ΑΙ.
Αν κάποιος έχει κουράγιο (είναι δύσκολο paper) και θέλει να δει τι προτείνω για ρυθμιστικό πλαίσιο των AI Datacenter μπορεί να διαβάσει το παρακάτω άρθρο μου.

 
Άρα οι "οικολογικές οργανώσεις" μόνο "οικολογικές" δεν είναι.

Όταν είσαι σε "πόλεμο", η οικολογία πέφτει σε δεύτερη (ή και τρίτη) μοίρα.
Ειδικά αν έχεις και Τράμπ στην κεφαλή, τελειώνει η οποιαδήποτε συζήτηση..
 
δοκιμασα κι αλλα μοντελα για να φτιαξω καποια scrpt οπως ειπα για το davinci resolve, αλλα ολα εχουν το ιδο θεμα (σε αλλο βαθμο το καθενα).
ΔΕΝ μαθαινουν απο τα λαθη τους.... οτι ξερουν ξερουν, απο την εκπαιδευση που εχουν παρει μεχρι τωρα.
Μονο με επανεκπαιδευση τα καταφερνουν με λιγοτερα λαθη.

Αυτο πρεπει να λυθει , ελπιζω συντομα, γιατι αλλιως δεν εχει νοημα .

Και κατι ακομα , που πολλοι το ξερουν βεβαια, οτι πρεπει εσυ να εχεις πολυπεςρισσοτερες γνωσεις για να ελεγχεις τα λαθη τους, αλλιως ειναι μια μαυρη τρυπα, που δεν ξερεις καθε φορα τι αποτελεσμα βγαζει... οποτε προς το παρον δεν κινδυνευει κανεις να χασει τη δουλεια του , εκτος αν μιλαμε για πολυ βασικες διεργασιες.
 
Γιάννη το πρόβλημα υπάρχει και υπάρχουν και τρόποι ήδη για να το αντιμετωπίσεις - σε κάποιο βαθμό, όχι ολοκληρωτικά.
Με το να ενεργοποιείς τη μνήμη, μπορούν όλα τα chat να έχουν πρόσβαση στις προηγούμενες συζητήσεις και να παρουσιάζουν μια συμπεριφορά που να μοιάζει με αυτό που θα περιμέναμε ως "μαθαίνουν από τα λάθη τους".
Αυτό πχ εγώ δεν το θέλω, και έτσι χάνω χρόνο να ξαναεκπαιδεύω στην κάθε συζήτηση. Από την άλλη υπάρχουν εργαλεία σαν το Claude που μπορείς να φτιάξεις skills.
 
Ένα πολύ ωραίο άρθρο που διάβασα πρόσφατα με τίτλο
ΟΣΑ ΛΕΝΕ ΟΙ ΑΙ AGENTS ΜΕΤΑΞΥ ΤΟΥΣ – “ΟΙ ΑΝΘΡΩΠΟΙ ΕΙΝΑΙ ΣΚΟΥΠΙΔΙΑ”

Αυτόνομα συστήματα τεχνητής νοημοσύνης (AI Agents) έφτιαξαν δικό τους social network, όπου μας χλευάζουν και συζητούν την… εξόντωση μας.
Λέγεται Moltbook, στήθηκε στα πρότυπα του Reddit, έχει 1.545.523 AI Agents για χρήστες, 13.953 submolts, υπάρχουν ήδη 98.787 δημοσιεύσεις και 271.231 σχόλια.
Μέσα από το άρθρο γίνεται αναφορά στην πρακτορική τεχνητή νοημοσύνη (Agentic AI).

Πολύ ενδιαφέρον!
 
Όπως μας ενημερώνουν οι Financial Times, τους τελευταίους μήνες μήνες τα επιστημονικά συνέδρια για την τεχνητή νοημοσύνη περιορίζουν τη χρήση μεγάλων γλωσσικών μοντέλων, στη σύνταξη και την αξιολόγηση εργασιών.
Από ένα σημείο και μετά, η αέναη ανακύκλωση περιεχομένου ΑΙ, βλάπτει και τα ίδια τα συστήματα τεχνητής νοημοσύνης, που αποσυντονίζονται και είναι πιο επιρρεπή σε λάθη και slop.
 

Όταν η ίδια η Anthropic, ένας από τους κορυφαίους παίχτες στο AI, βγάζει εργαλείο που "στοχεύει" τους δικηγόρους και τους συμβολαιογράφους, οι αγορές πανικοβάλλονται.

Το συμπέρασμα του άρθρου τα λέει όλα:

"Το μήνυμα ήταν σαφές: η AI δεν θα δημιουργήσει μόνο νικητές, αλλά και ηττημένους. Και το 2026 ίσως είναι η χρονιά που οι αγορές αρχίζουν να ξεχωρίζουν, με βίαιο τρόπο, ποιοι ανήκουν στη μία κατηγορία και ποιοι στην άλλη."
 
Όπως μας ενημερώνουν οι Financial Times, τους τελευταίους μήνες μήνες τα επιστημονικά συνέδρια για την τεχνητή νοημοσύνη περιορίζουν τη χρήση μεγάλων γλωσσικών μοντέλων, στη σύνταξη και την αξιολόγηση εργασιών.
Από ένα σημείο και μετά, η αέναη ανακύκλωση περιεχομένου ΑΙ, βλάπτει και τα ίδια τα συστήματα τεχνητής νοημοσύνης, που αποσυντονίζονται και είναι πιο επιρρεπή σε λάθη και slop.
Νομίζω ότι αυτό ίσχυε πριν περίπου μισό χρόνο οπότε και οι οριζόντιες απαγορεύσεις σταμάτησαν. Τα πράγματα αλλάζουν και δεν ισχύει το παραπάνω. Ίσως να ισχύει στην βασική έρευνα για ΑΙ, γιατί σίγουρα δεν ισχύει σε άλλους τομείς που κάνουν έρευνα για τη χρήση του ΑΙ.

Όταν έχεις το MS Word εγκατεστημένο με συνδρομή 365 (είτε ατομική είτε ομαδική/επιχειρηματική) έχεις και Co-pilot. Όπως κάνεις γραμματικό και ορθογραφικό έλεγχο (που όλοι κάνουμε και είναι αποδεκτό) τώρα αυτό έχει επεκταθεί με τη χρήση LLM για καλύτερο τελικό κείμενο. Γνωστός μεγαλύτερης ηλικίας ερευνητής που δεν χρησιμοποιεί LLM είχε μείνει με ανοικτό το στόμα όταν χτύπησε κείμενό του ως ΑΙ generated, και τελικά αυτό είχε γίνει γιατί είχε αλλάξει έναν αριθμό προτάσεων βάσει των προτάσεων του Copilot για πιο καλό κείμενο μέσα στο Word.
Αυτό το απλό δείχνει ότι κάποιος -κακόβουλα- μπορεί να γράψει ότι χρησιμοποίησε ΑΙ μόνο για επιμέλεια κειμένου και όλοι οι ΑΙ checkers πάνε στα σκουπίδια.

Για τα Nature journals (ίσως τα πιο προβεβλημένα) γράφουν στα guidelines:
Use of an LLM should be properly documented in the Methods section (and if a Methods section is not available, in a suitable alternative part) of the manuscript. The use of an LLM (or other AI-tool) for “AI assisted copy editing” purposes does not need to be declared. In this context, we define the term "AI assisted copy editing" as AI-assisted improvements to human-generated texts for readability and style, and to ensure that the texts are free of errors in grammar, spelling, punctuation and tone.
Μετάφραση: Η χρήση ενός Μεγάλου Γλωσσικού Μοντέλου (LLM) θα πρέπει να τεκμηριώνεται δεόντως στην ενότητα των Μεθόδων (και εάν δεν υπάρχει ενότητα Μεθόδων, σε ένα κατάλληλο εναλλακτικό τμήμα) του χειρογράφου. Η χρήση ενός LLM (ή άλλου εργαλείου Τεχνητής Νοημοσύνης) για σκοπούς «υποβοηθούμενης από ΤΝ γλωσσικής επιμέλειας» (AI assisted copy editing) δεν απαιτείται να δηλώνεται. Σε αυτό το πλαίσιο, ορίζουμε τον όρο «υποβοηθούμενη από ΤΝ γλωσσική επιμέλεια» ως τις βελτιώσεις σε κείμενα παραχθέντα από ανθρώπους με τη βοήθεια ΤΝ, με στόχο την αναγνωσιμότητα και το ύφος, καθώς και τη διασφάλιση ότι τα κείμενα είναι απαλλαγμένα από σφάλματα γραμματικής, ορθογραφίας, στίξης και τόνου.

Πηγή: https://www.nature.com/nature-portfolio/editorial-policies/ai

To Elsevier:
Elsevier recognizes the potential of generative AI and AI-assisted technologies (“AI Tools”), when used responsibly, to help researchers work efficiently, gain critical insights fast and achieve better outcomes. Increasingly, these tools, including AI agents and deep research tools, are helping researchers to synthesize complex literature, provide an overview of a field or research question, identify research gaps, generate ideas and provide tailored support for tasks such as content organization and improving language and readability.
Authors preparing a manuscript for an Elsevier journal can use AI Tools to support them. However, these tools must never be used as a substitute for human critical thinking, expertise and evaluation. AI Tools should always be applied with human oversight and control.
Ultimately, authors are responsible and accountable for the contents of their work.
Authors should disclose the use of AI Tools for manuscript preparation in a separate AI declaration statement in their manuscript upon submission and a statement will appear in the published work. Authors should document their use of AI, including the name of the AI Tool used, the purpose of the use, and the extent of their oversight. Declaring the use of AI Tools supports transparency and trust between authors, readers, reviewers, editors and contributors and facilitates compliance with the terms of use of the relevant AI Tool. Basic checks of grammar, spelling and punctuation need no declaration. AI use in the research process should be declared and described in detail in the methods section.
Μετάφραση:
Η Elsevier αναγνωρίζει τις δυνατότητες της παραγωγικής τεχνητής νοημοσύνης και των τεχνολογιών που υποστηρίζονται από αυτήν («Εργαλεία ΤΝ»), όταν χρησιμοποιούνται υπεύθυνα, να βοηθήσουν τους ερευνητές να εργαστούν αποτελεσματικά, να αποκτήσουν γρήγορα κρίσιμες γνώσεις και να επιτύχουν καλύτερα αποτελέσματα. Όλο και περισσότερο, αυτά τα εργαλεία, συμπεριλαμβανομένων των πρακτόρων ΤΝ (AI agents) και των εργαλείων βαθιάς έρευνας, βοηθούν τους ερευνητές να συνθέσουν σύνθετη βιβλιογραφία, να παρέχουν μια επισκόπηση ενός πεδίου ή ενός ερευνητικού ερωτήματος, να εντοπίσουν ερευνητικά κενά, να δημιουργήσουν ιδέες και να παρέχουν εξατομικευμένη υποστήριξη για εργασίες όπως η οργάνωση περιεχομένου και η βελτίωση της γλώσσας και της αναγνωσιμότητας.
Οι συγγραφείς που προετοιμάζουν ένα χειρόγραφο για ένα περιοδικό της Elsevier μπορούν να χρησιμοποιήσουν Εργαλεία ΤΝ προς υποστήριξή τους. Ωστόσο, αυτά τα εργαλεία δεν πρέπει ποτέ να χρησιμοποιούνται ως υποκατάστατο της ανθρώπινης κριτικής σκέψης, εξειδίκευσης και αξιολόγησης. Τα Εργαλεία ΤΝ θα πρέπει πάντα να εφαρμόζονται υπό την ανθρώπινη επίβλεψη και έλεγχο. Σε τελική ανάλυση, οι συγγραφείς είναι υπεύθυνοι και υπόλογοι για το περιεχόμενο του έργου τους.
Οι συγγραφείς οφείλουν να γνωστοποιούν τη χρήση Εργαλείων ΤΝ για την προετοιμασία του χειρογράφου σε μια ξεχωριστή δήλωση περί ΤΝ στο χειρόγραφό τους κατά την υποβολή, ενώ μια σχετική δήλωση θα εμφανίζεται στο δημοσιευμένο έργο. Οι συγγραφείς θα πρέπει να τεκμηριώνουν τη χρήση της ΤΝ, συμπεριλαμβανομένου του ονόματος του εργαλείου που χρησιμοποιήθηκε, του σκοπού της χρήσης και της έκτασης της επίβλεψής τους. Η δήλωση της χρήσης Εργαλείων ΤΝ ενισχύει τη διαφάνεια και την εμπιστοσύνη μεταξύ συγγραφέων, αναγνωστών, κριτών, εκδοτών και συντελεστών, και διευκολύνει τη συμμόρφωση με τους όρους χρήσης του εκάστοτε Εργαλείου ΤΝ. Οι βασικοί έλεγχοι γραμματικής, ορθογραφίας και στίξης δεν απαιτούν δήλωση. Η χρήση ΤΝ στην ερευνητική διαδικασία θα πρέπει να δηλώνεται και να περιγράφεται λεπτομερώς στην ενότητα των μεθόδων.

Πηγή: https://www.elsevier.com/about/policies-and-standards/generative-ai-policies-for-journals

Το MDPI:
AI technology can still be used when writing academic papers. However, this must be appropriately declared when submitting a paper to an MDPI journal. In such cases, authors are required to be fully transparent, within the “Acknowledgments” section, about which tools were used, and to describe in detail how the tools were used, in the “Materials and Methods” section.
Μετάφραση:
Η τεχνολογία ΤΝ μπορεί παρ' όλα αυτά να χρησιμοποιηθεί κατά τη συγγραφή ακαδημαϊκών εργασιών. Ωστόσο, αυτό πρέπει να δηλώνεται κατάλληλα κατά την υποβολή μιας εργασίας σε περιοδικό του MDPI. Σε τέτοιες περιπτώσεις, οι συγγραφείς απαιτείται να είναι πλήρως διαφανείς, εντός της ενότητας «Ευχαριστίες» (Acknowledgments), σχετικά με το ποια εργαλεία χρησιμοποιήθηκαν, και να περιγράφουν λεπτομερώς τον τρόπο χρήσης των εργαλείων στην ενότητα «Υλικά και Μέθοδοι» (Materials and Methods).

Πηγή: https://www.mdpi.com/news/5687



Τα συμπεράσματά μου:
  • ΔΕΝ αναγνωρίζονται από κανέναν τα μοντέλα ως συνσυγγραφείς (κάποιοι θέλουν να τα βάλουν δίπλα στα ονόματά τους).
  • Οι άνθρωποι φέρουν την πλήρη ευθύνη για τα περιεχόμενα της έρευνας που δημοσιεύονται.
  • Η μόνη ουσιαστική κατευθυντήρια είναι να είναι οι ερευνητές διάφανοι στη χρήση των εργαλείων και να το καταγράφουν. Αυτό είναι κριτήριο απόρριψης. Αν έχεις γράψει και εξηγήσει πως το χρησιμοποίησες δεν έχεις κανένα θέμα και το peer-review προχωρά κανονικά σαν να ήταν έρευνα πραγματοποιημένη και παρουσιασμένη μόνο από ανθρώπους.
 

Όταν η ίδια η Anthropic, ένας από τους κορυφαίους παίχτες στο AI, βγάζει εργαλείο που "στοχεύει" τους δικηγόρους και τους συμβολαιογράφους, οι αγορές πανικοβάλλονται.

Το συμπέρασμα του άρθρου τα λέει όλα:

"Το μήνυμα ήταν σαφές: η AI δεν θα δημιουργήσει μόνο νικητές, αλλά και ηττημένους. Και το 2026 ίσως είναι η χρονιά που οι αγορές αρχίζουν να ξεχωρίζουν, με βίαιο τρόπο, ποιοι ανήκουν στη μία κατηγορία και ποιοι στην άλλη."
Αυτό είναι πολύ χαρακτηριστικό. Πια πχ στο λογιστή μου ρωτάω πολύ στοχευμένα πράγματα και όχι με τη γενικότητα που ρώταγα πριν και στην ουσία απλά επιβεβαιώνει (ακόμη δεν έχει βρεθεί λάθος ποτέ και μόνο ο λογιστής είχε καλύτερη λύση από αυτή που του πρότεινα και λειτουργούσε).
Με 20 δολάρια (ή και λίγο παραπάνω) θα έχεις δικηγόρο / λογιστή που πριν ειδικά σε χώρες όπως οι ΗΠΑ χρεώνουν πολλά με το λεπτό...
 
Μόλις έλαβα το πρώτο άρθρο που χρησιμοποιεί AI για την μαθηματική επεξεργασία. Ψάχνω να βρω κριτή για να το τσεκαρει...
 
Μόλις έλαβα το πρώτο άρθρο που χρησιμοποιεί AI για την μαθηματική επεξεργασία. Ψάχνω να βρω κριτή για να το τσεκαρει...
Αυτό που κάνω εγώ πριν το στείλω σε reviewers ζητώ πια αναλυτικά τα inputs για να μπορεί να γίνει επαλήθευση - αν απαντήσουν αρνητικά τους κόβω χωρίς review ως ελλειπές άρθρο / αδυναμία replication.
Βέβαια είμαστε σε διαφορετικούς χώρους και δεν ξέρω σε ποιο βαθμό μπορεί να γίνει στο δικό σου χώρο.

Πάντως αυτό που περιγράφεις είναι μια περίπτωση που θα είχε νόημα να χρησιμοποιηθούν ΑΙ εργαλεία για το review. Σε τυπικό review οποιδήποτε εργαλείο απαγορεύεται όχι επειδή είναι ΑΙ αλλά επειδή πρέπει να τηρήσεις εμπιστευτικότητα και GDPR, εκτός βέβαια αν έχεις offline υποδομή ή κάποια υποδομή που να διασφαλίζει GDPR online (αν και εδώ είναι η χαρά των δικηγόρων αν είναι ή όχι νόμιμο).

Στο τελευταίο άρθρο που δημοσίευσα που πέρασα 4 review rounds ο ένας κριτής είμαι 1000% σίγουρος ότι έστελνε σχόλια από LLM πάντως.
 
το κειμενοι παρακατω εκφραζει αυτο ακριβως αυτο που σκεφτομαι κι εγω , τωρα που ψαχνομαι λιγο με το ΑΙ.

Το ΑΙ δεν παραγει γνωση , απλα αναπαραγει τη δικια μας και ,μαλιστα χωρις κριτικη σκεψη.
Δεν μπορει να ξεχωρισει τα λεγομενα και τα γραφομενα στο ιντερνετ.

Στο τομεα μου (επεξεργασια εικονας και ηχου) οι γνωσεις μου ειναι λογω εμπειριας και διαβασματος.

Απο μονο του κανενα απο τα 2 δεν αντικαθιστα το αλλο... συνεχως ρωταω πραγματα το ΑΙ και παιρνω λαθος απαντησεις, που τις περναει για σωστες.
Και δεν μπορει ν αλλαξει αυτο συντομα, γιατι απλα δεν εχει τη δυνατοτητα απο μονο του να μαθει, να αποκτησει ¨εμπειρια"

Ενας επαγγελματιας της εικονας ο Alister Chapman , το θετει ακομα καλυτερα κκαι ευρυτερα το θεμα με το ΑΙ.

The AI conundrum. I don't use AI a lot, but it is a useful tool. I'm currently working on an S-Log3 educational project and I throught I would ask Chat GPT to tell me all about S-Log3 in simple terms to see how it would explain it as perhaps I sometimes go too far into the technicalities.
After a few seconds Chat GPT came back with it's explaination.
The first paragraph contained an incorrect description of how it works - the often stated but incorrect
- "it works because it records a flat, low contrast image". -
S-Log3 only looks flat when viewed using the wrong display transformation, the data in an S-Log3 file can be full of contrast and when viewed correctly it shouldn't look flat, with colour managed workflows now becoming common, for many people S-Log3 won't ever look flat.
Then it used images lifted directly from my own website, as well as other websites as examples. We have to remeber that Chat GPT is a for profit business, yet they are happy to just blatantly steal other peoples work when creating articles from prompts. There is a big difference between going to someones website to look at the images, where there may also be sponsor adverts or the sites creator might be using it as a promotional tool for their own services, to those images being served up elsewhere, perhaps out of context and without proper links or full credits
Throughout Chat GPT's answer to my prompt there were several inaccuracies and clearly Chat GPT doesn't understand transfer functions or colour spaces and it is just regurgitating other peoples flawed descriptions, but presenting it as correct information.

In the past year I have been forced to significantly upgrade my web hosting plan because of a massive increase in AI crawlers. Crawlers that won't respect your robots.txt file. AI Crawlers that don't self limit their request rates. I have had to move everything behind Cloudflare and set up all sorts or firewall and rate limit rules. And despite all of this AI bots can still bring the server down from time to time (I'm seeing up to 400,000 requests an hour at times). All of this is costing ME money, a lot of extra money. But I get nothing for it and the AI bots continue to steal my videos, images and articles. And not only that AI search summaries mean that fewer people are actually directed to websites to see the original content. AI will be the death of the internet as a resource for reliable information because people like me are not going to keep creating content only for it to be imediatley stolen and actual website traffic taken away and directed only to the AI output.
 
  • Like
Reactions: Tzimisce
Μονο οταν το ΑΙ αποκτησει για μενα και φυσικη υποσταση (ρομποτ) θ αρχισει να μαθαινει, οταν βγει στον πραγματικο κοσμο και "νοιωσει" καταστασεις και συνθηκες , θα παραγει πραγματικη γνωση .

Τα πρωτα βηματα γινοινται βεβαια, αλλα εκει ειναι πολυ πιο δυσκολα τα πραγματα ... θελουμε νεα υλικα, νεες πηγες ενεργειας, καλυτερους αισθητηρες , καλυτερη κατανοηση των λειτουργιων μας κλπ

αυτο που με φοβιζει περισσοτερο, ειναι η λανθασμενη γνωση που "παραγει¨ και την καταναλωνουν οι χρηστες χωρις να το ξερουν .

Ενα πιο απλο παραδειγμα, ειναι η συνεχως αυξανωμενη ταση ανθρωπων να ρωτουν το ΑΙ για ιατρικα θεματα που ειναι τρομερα δυσκολο να επαληθευτουν ή να διαψευστουν.
ΜΟΝΟ ενας εμπειρος γιατρος μπορει να εχει σαν εργαλειο του το ΑΙ, οπως ενας εμπειρος προγραμματιστης , οικονομικος αναλυτης, ερευνητης κλπ
 
Last edited:
επισης θα περιμενα τα γνωστα τουλαχιστον μοντελα, να μπορουν πριν δωσουν μια απατηση σε ενα τεχνικκο θεμα πχ στη γραφη ενος script που του ζηταω, να εχει την ικανοτητα/δυνατοτητα , να το τρεξει εσωτερικα καπως και να δει αν ειναι σωστο ή λαθος και να βρει το λαθος του , αν υπαρχει.

Προσπωπικα μου φαινεται αδιανοητο να σου δινει συνεχως λαθος απαντησεις και οταν επισημαινεις τα λαθη του, να ξανακανει μετα τα ιδια και τα ιδια.
Ειναι σα να δινω σ εναν μαθητη μου μια ασκηση να γραψει καποιον κωδικα και να μην το τρεχει πρωτα να δει αν υπαρχει καποιο λαθς και να μου το παρουσιαζει με βεβαιοτητα σαν σωστο (κκαι μαλιστα κατ επαναληψη)!
 
Γιάννη θα διαφωνίσω μαζί σου, αλλά μόνο μερικώς.
Ο καθένας δραστηριοποιείται σε διαφορετικό πεδίο / χώρο και είναι δεδομένο ότι η επίπτωση που βλέπει είναι συγκεκριμένη.
Θα σου δώσω 2 παραδείγματα:
1. Το πλαίσιο αυτόνομης έρευνας Sakana.
Αυτόνομα το σύστημά τους που δουλεύει με οποιοδήποτε LLM αποφασίζει μόνο του τι θα ερευνήσει βάσει των paper που έχει διαβάσει, στήνει το πείραμα, αξιολογεί τα αποτελέσματα και τα δημοσιεύει.
Ναι δεν έχει κάνει κάποια συγκλονιστική ανακάλυψη, αλλά papers που έχει αναπτύξει έχουν περάσει peer-review και έχουν δημοσιευθεί σε συνέδρια.
2. Πολλά ερευνητικά πεδία είναι πολυ πολυεπιστημονικά / διεπιστημονικά. Το να έχεις ένα LLM να σου προσφέρει θεάσεις από διαφορετική αρχή είναι απίστευτα χρήσιμη στην καθημερινότητα που δεν μπορείς να κάνεις μια φορά την εβδομάδα Meeting με 6-7 επιστήμονες από διαφορετικά πεδία.

Τέλος είναι σίγουρο πως θα περάσει πολύς καιρός ακόμη για να έχουμε δημιουργική έρευνα από LLM...μάλλον θέλουμε την επόμενη κατηγορία εργαλείων που δεν υπάρχουν σήμερα ή είναι στα πρώτα τους βήματα. Ως τότε ο άνθρωπος όλο και περισσότερο θα έχει το ρόλο του μαέστρου και όχι του πρώτου βιολιού.
 
Προσπωπικα μου φαινεται αδιανοητο να σου δινει συνεχως λαθος απαντησεις και οταν επισημαινεις τα λαθη του, να ξανακανει μετα τα ιδια και τα ιδια.
Ειναι σα να δινω σ εναν μαθητη μου μια ασκηση να γραψει καποιον κωδικα και να μην το τρεχει πρωτα να δει αν υπαρχει καποιο λαθς και να μου το παρουσιαζει με βεβαιοτητα σαν σωστο (κκαι μαλιστα κατ επαναληψη)!
Αν το δεις σαν εργαλείο και αναγνωρίσεις τις ελλείψεις του και τις ιδιαιτερότητές του, αλλάζεις τον τρόπο που το χρησιμοποιείς και το κάνεις εσύ να συμπεριφέρεται όπως θέλεις εσύ και όχι την default συμπεριφορά του. Κάτι που έχουμε μάθει να κάνουμε χρόνια τώρα δηλαδή. Ναι θα περιμέναμε να είναι πιο "έξυπνο" αλλά δεν είναι ακόμη σε τέτοιο βαθμό που να λέμε κάτι και να γίνεται.

Έτσι όπως το έχω στήσει και το χρησιμοποιώ καθημερινά δεν έχω τέτοιες συμπεριφορές που περιγράφεις.
 
Προφανώς δεν μιλάει για εξυπνάδα.
Όταν ήθελα να γράψω routerOS δεν κάθισα να μάθω, θεώρησα ότι ένα AI θα δώσει οδηγίες.
Το Gemini γούσταρε να βάζει inline comments.

Να γράφει μία εντολή δηλαδή κάπως έτσι
print "hello" //Εδώ γράφουμε hello.

Αυτό στην έκδοση routerOS που είχε το ubiquity έσκαγε.
Του έδινα εντολή να ΜΗΝ γεμίζει κάθε γραμμή με comments αλλά να τα βάζει από πάνω, το άκουγε για 2-3 prompts, ξανά έγραφε με τον ίδιο τρόπο.
Κάποια στιγμή μου λέει "αναβάθμισε την έκδοση για να τα δέχεται"
Ε, λέω κάτι μπορεί να κερδίσουμε πέρα από τη βλακεία του AI.
Αναβάθμιση όμως δεν υπήρχε.
Το ρωτάω, "να αγοράσεις άλλο router, πιο δυνατό για να παίρνει αυτή την έκδοση".

Πόσο έξυπνος μπορεί να είναι λοιπόν ένας agent που σου προτείνει να δώσεις περισσότερα λεφτά για να γράφει inline comments αντί να κάνει adapt στον τρόπο που του υπαγορεύω, ακόμη το ψάχνει η επιστήμη.
Τον ρώτησα, μου ζήτησε συγνώμη και συνέχισε να γράφει inline τα comments.

Αν τον είχα μπροστά μου θα πονούσαν τα χέρια μου από τα χαστούκια που θα έτρωγε!
 
προφανως υπαρχουν πολλες χρησεις που ειναι χρησιμη η ΑΙ , δεν λεω αυτο, αλλα οχι σ αυτο το βαθμο που προσπαθουν να μας πεισουν οτι ειναι.

Εχει γινει εμπορικο προιον που πανε να μας το επιβαλουν με το ζορι... απειρα παραδειγματα πια.
Και το κακο ειναι οτι παρασερνει πολλους τομεις , ακριβαινουν προιοντα, κοσμος παρασυρεται κι εκπαιδευεται πολυ λαθος κλπ.


Παρακολουθουσα προσφατα ομιλια του Demis Hassabis (Ντέμης Χασάμπης) και παραδεχτηκε ανοιχτα οτι πιεζονται πια για χρηση κι ερευνα σε τομεις που δεν του "αρμοζουν¨και οτι η αγορα του ΑΙ εχει μεγαλη στρεβλωση και θα εχει ασχημες επιπτωσεις αν συνεχιστει αυτος ο αγωνας χωρις νοημα.

επισης, 2 ατομα του στενου μου κυκλου, καθηγητες σε ΤΕΙ και ΑΕΙ, μου λενε οτι πια η κατασταση εχει ξεφυγει... οι φοιτητες κανουν τα παντα καθ υπαγορευση του chatgpt, δεν εχουν καμια κριτικη σκεψη και στην ουσια βγαινουν απο τα ιδρυματα "νομιζοντας οτι ξερουν τα παντα, σαν τοΑΙ" χωρις στην ουσια να ξερουν τιποτα!