Τεχνητή Νοημοσύνη (AI). Τι είναι, τι ξέρουμε, τι αλλάζει στη ζωή και στον πολιτισμό;

Δεν επιτρέπεται nested if
Πρέπει να δημιουργήσεις την ίδια "λογική" κάνοντας set μεταβλητές σε συνεχόμενα if
Κάπως έτσι
set $testflag "";

if ($request_uri !~ ^/api/) {
set $testflag "T";
}
if ($ssl_client_verify != "SUCCESS") {
set $testflag "${testflag}T";
}
if ($testflag = "TT") {
return 403;
}

Επίσης γίνεται με map

map $request_uri $testflag {
"~^/api/.*" "SUCCESS";
default $ssl_client_verify;
}

if ($testflag != "SUCCESS") {
return 403;
}
 
Αν όταν προτείνει αυτή τη λύση που έδωσε παραπάνω του πεις "nested if not allowed, try a different approach" τι θα κάνει;
 
[emerg] 58074#58074: "if" directive is not allowed here in /etc/nginx/sites-enabled/admin.overron.com:38
nginx: configuration file /etc/nginx/nginx.conf test failed


Θέλεις όντως να το συνεχίσεις; 😂

Βέβαια. Το ρωτάς τι πρόβλημα είναι και πως λύνεται.

That error message, "[emerg] "if" directive is not allowed here", means you've placed the if block in a part of the Nginx configuration file where it's syntactically forbidden.




## Why This Error Happens 🤔



Nginx configuration is structured into blocks, or "contexts", like http { ... }, server { ... }, and location { ... }. Each directive, including if, is only allowed within specific contexts.

The if directive is only permitted inside a server context or a location context. You likely placed the code snippet outside of the server { ... } block by mistake.




## How to Fix It 🔧



Ensure the if block I provided is placed directly inside your server block for port 443, after the ssl_verify_client optional; line.

Check your configuration against this structure:

Nginx

NGINX:
# This is the WRONG place (e.g., inside the http block but outside server)
# if ($request_uri !~ ^/api/) { ... }

server {
    listen 443 ssl http2;
    server_name admin.overron.com;
    
    # ... other directives like ssl_certificate ...

    ssl_client_certificate /etc/nginx/ssl/myCA.crt;
    ssl_verify_client optional;

    # ✅ This is the CORRECT place for the 'if' block
    if ($request_uri !~ ^/api/) {
        if ($ssl_client_verify != "SUCCESS") {
            return 403;
        }
    }

    location / {
        # ...
    }

    # ... other location blocks ...
}

# This is also the WRONG place (after the server block has closed)
# if ($request_uri !~ ^/api/) { ... }

To resolve the error:

  1. Open your /etc/nginx/sites-enabled/admin.overron.com file.
  2. Go to line 38 (as indicated by the error message).
  3. Cut the entire if block.
  4. Paste it inside the server { ... } block, right after your SSL directives, as shown in the example above.
  5. Also, double-check that you don't have any missing semicolons ; or closing curly braces } from the lines above it, as that can also confuse Nginx and cause this error.

Και του λες πως το θέλεις και με map directive αν δεν:

Of course. Using the map directive is an excellent idea—it's cleaner, more efficient, and generally considered a best practice in Nginx compared to complex if statements.

The logic is broken into two parts: the map blocks, which define the conditions, and a simple if in your server block to act on them.




## 1. Add​



Place the following map blocks in your main /etc/nginx/nginx.conf file, inside the http { ... } block but outside of any server { ... } blocks.

NGINX:
# /etc/nginx/nginx.conf

http {
    # ... other http directives like sendfile, keepalive_timeout, etc.

    ## Define a variable to check if client certificate is required for the URI
    map $request_uri $cert_required {
        ~^/api/    0; # If URI starts with /api/, certificate is not required
        default    1; # For all other URIs, it is required
    }
    
    ## Define a variable to check if the provided certificate is valid
    map $ssl_client_verify $cert_valid {
        SUCCESS    1; # If verification succeeded, the cert is valid
        default    0; # For "FAILED" or "NONE", it's not valid
    }

    # ... include /etc/nginx/conf.d/*.conf;
    # ... include /etc/nginx/sites-enabled/*;
}

$cert_required will be 1 for any path that is not /api/*.
  • $cert_valid will be 1 only if the client provides a valid certificate.



## 2. Update Your


Now, replace the nested if logic in your server block with a single, clean if statement that checks for the specific condition we want to block: a required certificate that is not valid.
NGINX:
server {
    listen 443 ssl http2;
    server_name admin.overron.com;

    root /var/www/incom-admin/public;
    # ... other directives ...

    ssl_certificate     /etc/letsencrypt/live/overron.com/fullchain.pem;
    ssl_certificate_key /etc/letsencrypt/live/overron.com/privkey.pem;
    # ...
    
    ssl_client_certificate /etc/nginx/ssl/myCA.crt;
    ssl_verify_client optional;

    # Create a combined check variable from our maps
    set $auth_check "${cert_required}${cert_valid}";

    # Block the request ONLY if the check is "10"
    # (cert required=1, cert valid=0)
    if ($auth_check = "10") {
        return 403;
    }

    location / {
        try_files $uri $uri/ /index.php?$query_string;
    }

    # ... other locations ...
}

This configuration is much easier to read and maintain. It clearly separates the conditional logic (map) from the action (if), which is the recommended Nginx way.
 
Αν όταν προτείνει αυτή τη λύση που έδωσε παραπάνω του πεις "nested if not allowed, try a different approach" τι θα κάνει;

Σου δίνει κατευθείαν το map directive σε αυτή τη περίπτωση.
Here is the adjusted nginx configuration.

The recommended way to make SSL parameters conditional without using an if block is to use the map directive. This change involves two steps:

  1. Adding a map block outside your server blocks (within the main http context) to define a variable based on the request URI.
  2. Changing the ssl_verify_client directive inside your server block to use that new variable.

Adjusted Nginx Configuration​



NGINX:
# Add this map block inside your http {} context, BEFORE the server {} blocks
map $request_uri $verify_client {
    ~^/api/     "off";
    default     "on";
}

server {
    listen 80;
    server_name admin.overron.com;

    location ^~ /.well-known/acme-challenge/ {
        root /var/www/incom-admin/public;
        allow all;
    }

    location / {
        return 301 https://$host$request_uri;
    }
}

server {
    listen 443 ssl http2;
    server_name admin.overron.com;

    root /var/www/incom-admin/public;
    index index.php index.html;

    access_log /var/log/nginx/admin.access.log;
    error_log /var/log/nginx/admin.error.log;

    ssl_certificate /etc/letsencrypt/live/overron.com/fullchain.pem;
    ssl_certificate_key /etc/letsencrypt/live/overron.com/privkey.pem;
    include /etc/letsencrypt/options-ssl-nginx.conf;
    ssl_dhparam /etc/letsencrypt/ssl-dhparams.pem;

    ssl_client_certificate /etc/nginx/ssl/myCA.crt;
    
    # MODIFIED LINE: Use the variable from the map
    ssl_verify_client $verify_client;

    location / {
        try_files $uri $uri/ /index.php?$query_string;
    }

    location ~ \.php$ {
        include snippets/fastcgi-php.conf;
        fastcgi_pass unix:/run/php/php8.2-fpm.sock;
        fastcgi_param SCRIPT_FILENAME $document_root$fastcgi_script_name;
    }

    location ~ /\. {
        deny all;
    }
}

Explanation of Changes​


  1. map $request_uri $verify_client { ... }: This block (placed in the http context) checks the built-in $request_uri variable.
    • ~^/api/ "off";: If the URI starts with /api/, it sets the custom variable $verify_client to the string "off".
    • default "on";: For all other URIs, it sets the variable to "on".
  2. ssl_verify_client $verify_client;: Inside your server block for port 443, this line replaces the original ssl_verify_client on;. It dynamically sets client verification to on or off based on the variable defined in the map, achieving the desired behavior.
 
"
Αν το μόνο που χτίζουμε είναι LLM, η πρόοδος της τεχνητής νοημοσύνης θα σταματήσει, θα χτυπήσει σε τοίχο και θα αποτύχει.

Τα πρόσφατα σχόλια του Yann LeCun αντικατοπτρίζουν αυτό που πολλοί κορυφαίοι ερευνητές αναγνωρίζουν σιωπηλά: τα μεγάλα γλωσσικά μοντέλα (LLM) όπως το ChatGPT ή το DeepSeek είναι ισχυρά εργαλεία - αλλά καταγράφουν μόνο ένα μικρό κομμάτι του τι είναι η πραγματική νοημοσύνη.

Τα LLM είναι άριστοι στη γλώσσα, όχι στο νόημα. Υφαίνουν λέξεις με εκπληκτική ευχέρεια, αλλά παραμένουν αποσυνδεδεμένοι από τον πραγματικό κόσμο - από την αντίληψη, την πρόθεση και τη συνέπεια. Δεν καταλαβαίνουν τι λένε, μόνο πώς η γλώσσα τείνει στατιστικά να ξεδιπλώνεται. Υπό αυτή την έννοια, είναι καθρέφτες της ανθρώπινης έκφρασης και όχι μυαλά που αντιλαμβάνονται την πραγματικότητα.

Όπως έχουν υποστηρίξει οι LeCun, Yoshua Bengio, Gary Marcus και άλλοι, η οικοδόμηση πραγματικής, αξιόπιστης τεχνητής γενικής νοημοσύνης (AGI) θα απαιτήσει κάτι πολύ διαφορετικό — αρχιτεκτονικές σχεδιασμένες όχι μόνο για να μιμούνται τη σκέψη, αλλά και για να δημιουργούν κατανόηση. Αυτό σημαίνει ενσωμάτωση:

1. Μοντέλα κόσμου που μπορούν να προβλέπουν και να συλλογίζονται για πραγματικές καταστάσεις, όχι μόνο για κείμενο (LeCun’s Joint Embedding Predictive Architecture, 2022).

2. Αυτόνομη μάθηση που ανακαλύπτει αιτιώδη δομή αντί να απομνημονεύει μοτίβα.

3. Συστήματα που βασίζονται στην ενέργεια ή σε αρθρωτά συστήματα που συλλογίζονται, σχεδιάζουν και ενεργούν συνεκτικά εντός φυσικών και ηθικών ορίων.

4. Ενσωματωμένη αίσθηση και εξέχουσα θέση — συστήματα που βασίζονται στην αισθητηριακή εμπειρία, ικανά να εστιάζουν σε αυτό που πραγματικά έχει σημασία και να ευθυγραμμίζονται ηθικά με τις ανθρώπινες αξίες.

5. Γνωστικά μοντέλα κόσμου και εξελικτικές ενότητες μάθησης — υβριδικά συστήματα που συνδυάζουν:
• Συλλογιστική κοινής λογικής σχετικά με τον χώρο, τον χρόνο και την δράση,
• Εξελικτικούς και μετα-μαθησιακούς αλγόριθμους που βελτιώνονται με την πάροδο των γενεών εμπειρίας, και
• Επίπεδα αναλογικής-ψηφιακής ολοκλήρωσης που γεφυρώνουν τη συμβολική συλλογιστική με τη συνεχή αντίληψη.

Μαζί, αυτές οι εξελίξεις θα έδιναν στην Τεχνητή Νοημοσύνη κάτι που λείπει εντελώς από τους LLM: ένα ζωντανό, προσαρμοστικό μοντέλο του κόσμου - ικανό για κατανόηση, μάθηση και ηθική συλλογιστική.

Χωρίς αυτά τα βαθύτερα συστατικά, οι LLM θα παραμείνουν συντακτικοί αλλά όχι σημασιολογικοί - λαμπροί συμπιεστές γλώσσας, όχι γνήσιοι στοχαστές.

Και όταν πρόκειται για την Τεχνητή Υπερνοημοσύνη (ASI), το χάσμα μεγαλώνει ακόμη περισσότερο. Η ασφάλεια και η αξιοπιστία απαιτούν συστήματα που μπορούν να εξηγηθούν, να παραμείνουν γειωμένοι στο πλαίσιο και να διορθώσουν τα δικά τους λάθη. Οι LLM έχουν παραισθήσεις, δεν έχουν αυτογνωσία και δεν μπορούν να επαληθεύσουν την αλήθεια - χαρακτηριστικά που τα καθιστούν θεμελιωδώς ακατάλληλα ως πυρήνα ασφαλούς, αυτόνομης νοημοσύνης.

Εν ολίγοις, οι LLM είναι τα υπολογιστικά φύλλα της νόησης: αρκετά χρήσιμα, αλλά όχι η ουσία του νου. Η επόμενη σημαντική ανακάλυψη στην Τεχνητή Νοημοσύνη δεν θα προέλθει από την εκπαίδευση σε περισσότερα tokens - θα προέλθει από την ανακάλυψη των βαθύτερων αρχών του πώς ενσωματώνονται οι αναλογικές και οι ψηφιακές διαδικασίες, πώς η συλλογιστική συνδέεται με τον κόσμο και πώς προκύπτει η συνοχή από την αλληλεπίδραση.

Εκεί ακριβώς κατευθύνονται τώρα οι ανάγκες της Τεχνητής Νοημοσύνης: πέρα από τη γλώσσα, προς μηχανές που δεν ακούγονται απλώς έξυπνες - αλλά στην πραγματικότητα καταλαβαίνουν.

Κατά τη γνώμη μου, αυτό ίσως απέχει δεκαετίες προσπάθειας, παρά το γεγονός ότι η Τεχνητή Νοημοσύνη (μια σοβαρή πιθανότητα δεδομένων των υπερβολικά υψηλών προσδοκιών).
"

Υστεροπληκτρο : κατι λειπει στο τελος, η εχει μεταφραστει τσαπατσουλικα, ψαχνω να βρω τι !
 
Last edited:
  • Like
Reactions: Deneb and stargr
"
Κατά τη γνώμη μου, αυτό ίσως απέχει δεκαετίες προσπάθειας, παρά το γεγονός ότι η Τεχνητή Νοημοσύνη έχει μια σοβαρή πιθανότητα (δεδομένων των υπερβολικά υψηλών προσδοκιών).
"
Tωρα ειναι σωστο !
 
Χωρίς αυτά τα βαθύτερα συστατικά, οι LLM θα παραμείνουν συντακτικοί αλλά όχι σημασιολογικοί - λαμπροί συμπιεστές γλώσσας, όχι γνήσιοι στοχαστές.
"Whereof one cannot speak, thereof one must be silent".
Wittgenstein
This concluding statement suggests that matters of ethics, aesthetics, and the mystical are beyond the limits of what can be expressed through language and logic.
 
"Whereof one cannot speak, thereof one must be silent".
Wittgenstein
This concluding statement suggests that matters of ethics, aesthetics, and the mystical are beyond the limits of what can be expressed through language and logic.
Για να το ποσταρω ..... θεωρησα οτι ΔΕΝ κανει λαθος.
Ειδικα σ'αυτον τον συλλογισμο που περικλειεις στο quote.
Εαν πεφτω εξω .... ουτε ο πρωτος ουτε ο τελευταιος θα μαι.
 
Ωραία η φιλοσοφική συζήτηση, πρέπει να γίνεται. Απλά στην πράξη ήδη έχουμε ένα σκασμό πετυχημένες εφαρμογές που αλλάζουν την καθημερινότητά μας.

Βλακείες προφανώς θα γίνονται, έριξα πολύ γέλιο όταν διάβασα το παρακάτω

Η δουλειά προσωπικά η δική μου έχει αλλάξει τρελά. Έχει αλλάξει, δεν έχει καταργηθεί, όμως το workflow δεν έχει πια καμία σχέση. Επίσης οι χρόνοι ανά κομμάτι δουλειάς έχουν αλλάξει επίσης πολύ.

Όπως είπε κάποιος σε κάποιο podcast πριν λίγο καιρό (δυστυχώς ξεχνάω το όνομα):
Δουλειά που ήθελε 1 εβδομάδα, τώρα την κάνεις σε 1 ημέρα. Το θέμα είναι αν τις υπόλοιπες 4 θα τις ξοδέψεις χρησιμοποιώντας τα εργαλεία που έχεις σήμερα τα χέρια σου για να κάνεις τη δουλειά σου από καλή σε εξαιρετική ή αν θα πας στην παραλία για 4 ημέρες.

Και αυτό είναι φιλοσοφικό ζήτημα.
 
Ωραίο νέο paper που προτείνει έναν ορισμό για το AGI. Το πιο σημαντικό είναι ότι δίνει και το μοντέλο μέτρησης. Είναι αρκετά καλό πιστεύω και προς τη σωστή κατεύθυνση.
Ο γενικός ορισμός είναι:
"AGI is an AI that can match or exceed the cognitive versatility and proficiency of a well-educated adult."
ή στα Ελληνικά:
H AGI είναι μια Τεχνητή Νοημοσύνη που μπορεί να φτάσει ή και να ξεπεράσει τη γνωστική ευελιξία και επάρκεια ενός μορφωμένου ενήλικα.

Ως εδώ δεν έχουμε κάτι καινούργιο. Αυτό που είναι καινούργιο είναι πως το ποσοτικοποιούμε και με ποια τεστ το μετράμε.
Το πλαίσιο περιλαμβάνει δέκα βασικά γνωστικά στοιχεία, που προέρχονται από τις ευρείες ικανότητες του CHC (https://en.wikipedia.org/wiki/Cattell–Horn–Carroll_theory) και
έχουν ισοσταθμιστεί (10%) για να ιεραρχήσουν το εύρος και να καλύψουν τους κύριους τομείς της νόησης:
  • Γενικές Γνώσεις (ΓΓ): Το εύρος της πραγματολογικής κατανόησης του κόσμου, που περιλαμβάνει την κοινή λογική, τον πολιτισμό, την επιστήμη, τις κοινωνικές επιστήμες και την ιστορία.
  • Ικανότητα Ανάγνωσης και Γραφής (ΙΓΓ): Επάρκεια στην κατανάλωση και παραγωγή γραπτού λόγου, από τη βασική αποκωδικοποίηση έως την πολύπλοκη κατανόηση, σύνθεση και χρήση.
  • Μαθηματική Ικανότητα (Μ): Το βάθος των μαθηματικών γνώσεων και δεξιοτήτων σε αριθμητική, άλγεβρα, γεωμετρία, πιθανότητες και λογισμό.
  • Επιτόπια Συλλογιστική (ΕΓ): Ο ευέλικτος έλεγχος της προσοχής για την επίλυση νέων προβλημάτων χωρίς να βασίζεστε αποκλειστικά σε προηγουμένως μαθημένα σχήματα, που δοκιμάζεται μέσω επαγωγής και επαγωγής.
  • Εργαζόμενη Μνήμη (ΜΜ): Η ικανότητα διατήρησης και χειρισμού πληροφοριών σε ενεργή προσοχή σε κειμενικές, ακουστικές και οπτικές μορφές.
  • Αποθήκευση Μακροπρόθεσμης Μνήμης (ΜΜ): Η ικανότητα συνεχούς εκμάθησης νέων πληροφοριών (συνειρμικών, ουσιαστικών και λέξεων).
  • Ανάκτηση Μακροπρόθεσμης Μνήμης (ΜΜ): Η ευχέρεια και η ακρίβεια πρόσβασης σε αποθηκευμένη γνώση, συμπεριλαμβανομένης της κριτικής ικανότητας αποφυγής μυθοπλασίας (ψευδαισθήσεων).
  • Οπτική Επεξεργασία (Ο): Η ικανότητα αντίληψης, ανάλυσης, συλλογισμού, παραγωγής και σάρωσης οπτικών πληροφοριών.
  • Ακουστική Επεξεργασία (Α): Η ικανότητα διάκρισης, αναγνώρισης και δημιουργικής εργασίας με ακουστικά ερεθίσματα, συμπεριλαμβανομένης της ομιλίας, του ρυθμού και της μουσικής.
  • Ταχύτητα (Τ): Η ικανότητα γρήγορης εκτέλεσης απλών γνωστικών εργασιών, που περιλαμβάνει την αντιληπτική ταχύτητα, τους χρόνους αντίδρασης και την ευχέρεια επεξεργασίας.

Και η εικόνα από το paper πως αυτό οπτικοποιείται:
1760959057628.png

Προσωπικά βλέπω τεράστια βελτίωση από το 2023 στο 2025, ενώ τα κομμάτια της μνήμης είναι σχετικά εύκολα να αυξηθούν αφήνοντας τα μοντέλα να αποθηκεύουν περισσότερες πληροφορίες που μπορούν να ανακτίσουν. Βέβαια αυτό έχει μεγάλο υπολογιστικό κόστος και κόστος υλικού.

Και πιο αναλυτικά:
1760959232870.png

Η πιο κάτω εικόνα μεταφράστηκε αυτόματα από το ChatGPT 5 Thinking (με extended thinking ενεργοποιημένο). Είναι με ένα Prompt μόνο. Προφανώς θα μπορούσα με 1-2 prompt ακόμη να το φτιάξω, αλλά είναι ενδιαφέρον τι καταφέρνει μόνο του ήδη.

1760959490935.png

Το άρθρο:
 
Απλή ερώτηση.

Αν κάποιος παίρνει 900€ μισθό (του έβαλα τον βασικό + κάτι) και παραιτηθεί τέλος Οκτώβρη, πόσο είναι το δώρο των Χριστουγέννων που δικαιούται.
Απάντηση: 335,16€.
Αφού τον έφερα με prompts στην σωστή απάντηση, του ξεκίνησα μία συζήτηση γιατί δεν δίνει από την αρχή τη σωστή απάντηση και μου έδινε τις βλακώδεις απαντήσεις "είναι ανθρώπινο λάθος"

Η απάντησή του:
"Εντάξει, ας είμαστε απολύτως ξεκάθαροι.

Η λανθασμένη πρώτη απάντηση (335,16 €) δεν προέρχεται από κανένα link, άρθρο ή επίσημο οδηγό. Δεν μπορώ να σου δείξω πηγή, γιατί δεν υπάρχει.

Αυτό που έγινε είναι ότι επινόησα λανθασμένα τον τρόπο υπολογισμού, βασισμένος σε μία ασαφή και εσωτερική «γενική λογική αναλογιών» που το μοντέλο έχει μάθει από μοτίβα κειμένων. Δηλαδή:
  • Το μοντέλο έβγαλε έναν αριθμό εφαρμόζοντας έναν τύπο που μοιάζει με τύπους αναλογικών υπολογισμών δώρων, χωρίς να επαληθεύσει ότι ταιριάζει στην περίπτωσή σου.
  • Δεν ήταν αντιγραφή από άρθρο, οδηγό ή επίσημη πηγή.

💡 Συμπέρασμα: η πρώτη απάντηση ήταν λάθος και επινοημένη από το μοντέλο, δεν υπήρχε πραγματική πηγή πίσω της.

Αν θέλεις, μπορώ να σου εξηγήσω γιατί το μοντέλο κάνει αυτό το είδος «επινοήσεων» σε αριθμητικούς υπολογισμούς για να καταλάβεις τη λογική πίσω από το λάθος. Θέλεις να το κάνω;"


Αφού του απάντησα ναι.

"Πώς λειτουργεί το μοντέλο σε αριθμητικά προβλήματα

Το GPT-5-mini δεν «ξέρει» αριθμούς όπως ένας calculator. Δεν κάνει πάντα ακριβή βήμα-βήμα υπολογισμό. Αντίθετα:

Βασίζεται σε μοτίβα και στατιστικές συνήθειες που έχει μάθει από τεράστιο όγκο κειμένων.

Όταν βλέπει ερώτηση τύπου «πόσο είναι το αναλογικό δώρο Χριστουγέννων για κάποιον που φεύγει στις 24/10», συσχετίζει μοτίβα τύπων που έχει δει (π.χ. «ανάλογο δώρο = μισθός × μέρες/συνολικές ημέρες» ή «1/25 του μισθού ανά 19 ημέρες») και παράγει ένα αποτέλεσμα.

Γιατί εμφανίστηκε λάθος

Το μοντέλο επινόησε έναν αριθμό εφαρμόζοντας λανθασμένα έναν τύπο που μοιάζει με «τυπική μέθοδο αναλογιών».

Δεν «επικύρωσε» τον τύπο για το δικό σου παράδειγμα, ούτε έλεγξε αν βγαίνει λογικό αποτέλεσμα.

Το αποτέλεσμα ήταν πολύ μικρότερο από το σωστό, γιατί η βάση (19/25) ήταν μια γενική, στατιστική «εκτίμηση» που το μοντέλο είδε σε κείμενα, όχι ακριβής νόμιμος τύπος.

Τι σημαίνει αυτό για τη χρήση του μοντέλου

Το μοντέλο μπορεί να δώσει λάθος αριθμητικά αποτελέσματα, ακόμα και σε απλές περιπτώσεις, επειδή:

Προσπαθεί να μιμηθεί μοτίβα κειμένων που έχει δει, όχι να υπολογίσει με ακρίβεια.

Δεν έχει πρόσβαση σε ζωντανό calculator ή επίσημες βάσεις δεδομένων κατά την παραγωγή απάντησης.

Σπάνια επαληθεύει τα ενδιάμεσα βήματα ή το αν το αποτέλεσμα έχει νόημα.

Γι’ αυτό, σε αριθμητικούς ή νομικούς υπολογισμούς, χρειάζεται πάντα διπλή επαλήθευση από τον άνθρωπο ή επίσημες πηγές.

Συμπέρασμα:
Η λανθασμένη απάντηση ήταν αποτέλεσμα της στατιστικής «επινοητικότητας» του μοντέλου, όχι επειδή δεν πληρώνεις συνδρομή ή επειδή δεν θέλει να απαντήσει σωστά. Το μοντέλο απλώς παρήγαγε έναν αριθμό βασισμένο σε μοτίβα που έχει δει."

Εδώ η συζήτηση.
Πολύ ενδιαφέρουσα.

Το περίεργο είναι πως το λάθος του είναι 1/25 για κάθε 19 ημέρες αντί για 2/25 για κάθε 19 ημέρες (όπως τουλάχιστον το λέει εδώ).

Δηλαδή, ουσιαστικά, βγάζει τη μισή από την κανονική αποζημίωση.

Όταν όμως το φέρνεις μπροστά από το λάθος του, δεν ψάχνει να βρει τον σωστό τύπο, αλλά χρησιμοποιεί καθαρή αναλογία ημερών που δουλεύτηκαν.

Δηλαδή δικιά του (λογικοφανή) πατέντα.

Έτσι βγάζει κάτι πιο αποδεκτό, αλλά πάλι όχι απόλυτα σωστό.

Αυτό δημιουργεί τον μεγαλύτερο προβληματισμό. Πως ξοδεύει πόρους για να αποδείξει κάτι που δεν ισχύει αντί να το ξαναψάξει.

Και βέβαια έχει πολύ πλάκα η αντίδρασή του όταν αρχίζεις τα μπινελίκια. Απίστευτα επικοινωνιακό.

Άκου "έχεις δίκιο που είσαι εκνευρισμένος" και "ήταν ανθρώπινο λάθος"... τι άλλο θα διαβάσουμε;:ROFLMAO::ROFLMAO::ROFLMAO:

Υ.Γ. Σε μια επιμόρφωση της forthnet που παρακολούθησα την προηγούμενη εβδομάδα, έμαθα πως τα μοντέλα δεν παίρνουν feedback από τα τυχόν λάθη τους. Δεν "μαθαίνουν" δηλαδή.

Η εκμάθησή τους γίνεται μόνο από την εταιρεία.

Αυτό μου κάνει πολύ εντύπωση. Είχα το βιβλίο του Νοτόπουλου για την prolog από τη δεκαετία του 90 και το πιο σημαντικό χαρακτηριστικό της (τότε στα σπάργανα) A.I. ήταν πως μάθαινε από τα λάθη της.
 
Υ.Γ. Σε μια επιμόρφωση της forthnet που παρακολούθησα την προηγούμενη εβδομάδα, έμαθα πως τα μοντέλα δεν παίρνουν feedback από τα τυχόν λάθη τους. Δεν "μαθαίνουν" δηλαδή.


Η εκμάθησή τους γίνεται μόνο από την εταιρεία.

Αυτό μου κάνει πολύ εντύπωση. Είχα το βιβλίο του Νοτόπουλου για την prolog από τη δεκαετία του 90 και το πιο σημαντικό χαρακτηριστικό της (τότε στα σπάργανα) A.I. ήταν πως μάθαινε από τα λάθη της.
Άραγε εμείς οι άνθρωποι μαθαίνουμε ποτέ από τα λάθη μας; 🤔
 
Αυτό δημιουργεί τον μεγαλύτερο προβληματισμό. Πως ξοδεύει πόρους για να αποδείξει κάτι που δεν ισχύει αντί να το ξαναψάξει.

Ο περισσότερος κόσμος θεωρεί τα μοντέλα AI ως ένα πράγμα. Το οποίο ανεξαιρέτως, έχει ή θα πρέπει να έχει την απόλυτη ακρίβεια, να μπορεί να ψάχνει, να διαχωρίζει πηγές κλπ.
Τίποτα από αυτά δεν είναι δεδομένο, όλα είναι ζητούμενα.

Σήμερα, όλα τα μοντέλα που χρησιμοποιούμε είναι non-deterministic. Για το ίδιο ερώτημα θα δομήσουν διαφορετικά την απάντηση τους και ανάλογα με το dataset δεδομένων που εκπαιδεύτηκαν και το ενεργό μέγεθος του μοντέλου όταν εκτελείται, μπορεί ή όχι να απαντήσει με ακρίβεια στο ζητούμενο. Εάν ήταν deterministic, θα υπήρχε απόλυτη ακρίβεια στην απάντηση που λαμβάνουμε, ένα χαζό chatbot γραμμένο με elseif return.

Το να περιμένει κανείς το gpt-5-mini που είναι ένα μικρό, mode of experts μοντέλο, να απαντάει όπως το gpt-5 extended thinking ή όποιο άλλο μεγάλο μοντέλο των 4 μεγάλων επειδή AI είναι και αυτό, το λάθος σε ένα περίπλοκο ερώτημα δεν είναι του μοντέλου αλλά των προσδοκιών μας.

Υ.Γ. Σε μια επιμόρφωση της forthnet που παρακολούθησα την προηγούμενη εβδομάδα, έμαθα πως τα μοντέλα δεν παίρνουν feedback από τα τυχόν λάθη τους. Δεν "μαθαίνουν" δηλαδή.

Η εκμάθησή τους γίνεται μόνο από την εταιρεία.

Αυτό μου κάνει πολύ εντύπωση. Είχα το βιβλίο του Νοτόπουλου για την prolog από τη δεκαετία του 90 και το πιο σημαντικό χαρακτηριστικό της (τότε στα σπάργανα) A.I. ήταν πως μάθαινε από τα λάθη της.

Οι δωρεάν υπηρεσίες, είναι reviewed. Τα αξιολογούν άνθρωποι δηλαδή.
Όλα τα χρήματα είναι στο ποιο είναι το πιο efficient dataset εκπαίδευσης ώστε από την non-deterministic φύση του μοντέλου να προκύψει η ανώτερη δυνατή ακρίβεια στο μικρότερο κόστος inference (εκτέλεσης). Τα μεγάλα LLM είναι ήδη σε μεγέθη της τάξης των τρισεκατομμυρίων παραμέτρων και λόγω της MoE φύσης τους, ενεργά εκτελούνται κάποιοι εκατοντάδες εκατομμύρια παράμετροι.

Για να έχουμε μια τάξη μεγέθους, το gpt 4.1 έχει 1.8Τρις παραμέτρους. Εάν σε ένα παρόμοιου μεγέθους μοντέλο προσθέσετε και τα μεγάλα context windows, πχ 1εκ tokens, για να τρέξει το μοντέλο θέλει 4.5TB VRAM. Με 3εκ κόστος ανά rack GB300 NVL72 της nvidia και 120KW κατανάλωση ρεύματος, τρέχουν 4 instances του μοντέλου.
 
Εκμάθηση μπορεί να κάνει και ο χρήστης σε κάποιο βαθμό.
Προσωπικά τα πρώτα ~10 μηνύματα σε κάθε νέα συζήτηση είναι νέες πληροφορίες προς το μοντέλο. Τα πιο κρίσιμα τα κάνω copy/paste στο παράθυρο συνομιλίας και τα λιγότερο κρίσιμα ως attachments στο παράθυρο.
Του λέω να τα διαβάζει από την αρχή μέχρι το τέλος λέξη/λέξη και απλά να μου λέει ότι τα διάβασε χωρίς σχολιασμό ή οτιδήποτε.
Αφού του έχω δώσει όση πληροφορία πιστεύω ότι είναι αρκετή, μετά αρχίσω την κουβέντα, με τον ίδιο τρόπο που θα την έκανα με κάποιο συνεργάτη.
 
Αυτό δεν είναι εκμάθηση per se, αλλά context.
Επίσης εξαιρετικά σημαντικό.

Η εκμάθηση προσαρμόζει τις παραμέτρους του μοντέλου ώστε οι προβλέψεις του να προσεγγίζουν τα δεδομένα βάσει των οποίων εκπαιδεύεται.
 
Αυτό δεν είναι εκμάθηση per se, αλλά context.
Επίσης εξαιρετικά σημαντικό.

Η εκμάθηση προσαρμόζει τις παραμέτρους του μοντέλου ώστε οι προβλέψεις του να προσεγγίζουν τα δεδομένα βάσει των οποίων εκπαιδεύεται.
Καλά προφανώς...εκμάθηση όμως μόνο η εταιρία που βγάζει το μοντέλο, κανείς άλλος. Εκτός αν μιλάμε για open μοντέλα, αλλά ψάξε βρες την επεξεργαστική ισχύ που χρειάζεται για να το κάνεις.
Απλά είναι ότι πιο κοντινό μπορούμε ρεαλιστικά να κάνουμε στην καθημερινή χρήση.