«Μπορεί μια μηχανή να καταλάβει τι σημαίνουν οι λέξεις ή απλά μαθαίνει να παίζει με τα σύμβολα;». Αυτή είναι μια ερώτηση όπου έχει απασχολήσει επιστήμονες και προγραμματιστές για πολλές δεκαετίες.
Tο πείραμα του κινέζικου δωματίου
Το 1980, ο φιλόσοφος John Searle πρότεινε ένα φανταστικό πείραμα που ονομάστηκε «Το Πείραμα του Κινεζικού Δωματίου». Ένας άνθρωπος βρίσκεται κλεισμένος σε ένα σφραγισμένο δωμάτιο, χωρίς να γνωρίζει κινέζικα. Μέσω μιας σχισμής, λαμβάνει και στέλνει κομμάτια χαρτιού με κινέζικα σύμβολα. Για να απαντήσει, χρησιμοποιεί ένα βιβλίο με κανόνες που του λένε πώς να απαντά, χωρίς να καταλαβαίνει τι σημαίνουν. Από έξω, φαίνεται πως ο άνθρωπος εσωτερικά του δωμάτιου καταλαβαίνει κινέζικα, όμως στην πραγματικότητα απλά ακολουθεί κανόνες, χωρίς πραγματική κατανόηση. Ο φιλόσοφος John Searle το χρησιμοποίησε για να δείξει ότι οι υπολογιστές μπορεί να φαντάζουν έξυπνοι, αλλά δεν έχουν συνείδηση ή πραγματική κατανόηση απλώς εκτελούν προγράμματα.
Σήμερα οι υπολογιστές και η τεχνητή νοημοσύνη κάνουν πολλά εντυπωσιακά πράγματα, όπως να απαντούν σε ερωτήσεις ή να μιλάνε σαν άνθρωποι. Όμως όπως ο άνθρωπος μέσα στο δωμάτιο όπου μόνο ακολουθεί κανόνες χωρίς να καταλαβαίνει κινεζικά, έτσι και οι υπολογιστές εκτελούν εντολές που τους έχουν δοθεί χωρίς να καταλαβαίνουν πραγματικά τι κάνουν. Έτσι ακριβώς μπορεί η τεχνητή νοημοσύνη να συσχετιστεί με το Πείραμα του Κινεζικού δωμάτιου.
Πώς λειτουργεί η σύγχρονη Τεχνητή Νοημοσύνη.
Η Τεχνητή Νοημοσύνη στις μέρες μας βασίζεται σε κάτι που ονομάζουμε γλωσσικά μοντέλα (Large Language Models ή LLM). Τα γλωσσικά μοντέλα έχουν σχεδιαστεί για να κατανοούν και να παράγουν κείμενο με τρόπο που μοιάζει πολύ με ανθρώπινο λόγο. Ειδικότερα είναι νευρωνικά δίκτυα τύπου Transformers, δηλαδή μαθηματικά μοντέλα που συσχετίζουν λέξεις μέσα σε προτάσεις. Τα μοντέλα αυτά εκπαιδεύονται πάνω στην προσπάθεια τους να μαντέψουν την επόμενη λέξη σε μια πρόταση. Αυτή η διαδικασία βασίζεται σε στατιστικά μοτίβα, το μοντέλο μαθαίνει ποια λέξη ακολουθεί συχνότερα άλλες, όχι με κανόνες γραμματικής αλλά με πιθανότητες. Το πιο σημαντικό στον τύπο Transformer είναι η τεχνική self-attention η οποία βοηθά το μοντέλο να συσχετίσει λέξεις που δεν είναι απαραίτητα η μια μετά την άλλη στην σειρά.
Παρόλο που τα LLM αναγνωρίζουν μοτίβα σε τεράστιο όγκο δεδομένων δεν λειτουργούν με κανόνες όπως στο πείραμα του Κινεζικού Δωμάτιου. Αντίθετα βασίζονται σε στατιστικές πιθανότητές ώστε να προβλέψουν την επόμενη λέξη η φράση. Παρά την δυνατότητα τους στην πρόβλεψη δεν αντιλαμβάνονται πραγματικά το νόημα των δεδομένων που «διαβάζουν».
Κατανόηση vs Μίμηση
Η Τεχνητή νοημοσύνη έχει την «μαγική» ικανότητα να απάντα χωρίς να καταλαβαίνει, σαν τον άνθρωπο στο Πείραμα. Ο Άνθρωπος λαμβάνει γραπτές ερωτήσεις στα κινεζικά και χρησιμοποιώντας ένα βιβλίο με κανόνες (επίσης γραμμένο στα κινεζικά) απαντά χωρίς να κατανοεί τι λένε οι λέξεις. Έτσι ακριβώς λειτουργεί και η τεχνητή νοημοσύνη, παράγει απαντήσεις που φαίνονται ιδιοφυείς απλώς ακολουθώντας κανόνες ή μοτίβα χωρίς καμία πραγματική γνώση ή κατανόηση.
Η «μαγεία» αυτή χάνεται. Τα LLM δεν βιώνουν την γλώσσα όπως εμείς ούτε έχουν κάποια συνείδηση η συναισθήματα. Εν αντίθετη λειτουργούν σαν ένα άψυχο στατικό μοντέλο το οποίο προβλέπει βάση στατιστικές πιθανότητες. Με άλλα λογία μιμούνται την γλώσσα, μπορεί να φαίνεται εντυπωσιακό η έξυπνο, το μόνο που είναι όμως είναι μια εξελιγμένη μορφή μοντέλου πρόβλεψης.
Η ψευδαίσθηση της μίμησης.
Βλέποντας κάποιος την τεχνητή νοημοσύνη να παράγει κείμενα ξεγελιέται και νομίζει ότι απέναντί του έχει ένα πρόγραμμα το οποίο καταλαβαίνει και ξέρει την γλώσσα όπως ένα «καλά διαβασμένος» άνθρωπος. Έτσι αυτός ο «κάποιος» πέφτει στην παγίδα του να αποδώσει στα LLM τον τίτλο «Ιδιοφυές» με την ανθρώπινη έννοια ενώ στην πραγματικότητά απλώς μελετά μοτίβα με εντελώς διαφορετικό τρόπο από τον άνθρωπο.
Η παρεξήγηση ότι η Τεχνητή Νοημοσύνη είναι «έξυπνη» σαν άνθρωπος μπορεί να οδηγήσει σε υπερβολική εμπιστοσύνη, όπου συχνά μπορεί να οδηγήσει τον άνθρωπο σε λανθασμένες αποφάσεις. Αυτή η λανθασμένη αντίληψη περιορίζει και την ανάπτυξη των LLM, καθώς μπορεί να αγνοούμε τις αδυναμίες τους και τους κινδύνους προκαταλήψεων στα δεδομένα. Τέλος, υπάρχει ο κίνδυνος να υποτιμήσουμε την αξία της ανθρώπινης σκέψης και δημιουργικότητας, θεωρώντας ότι τα LLM μπορούν να τα κάνουν όλα εύκολα, κάτι που δεν ισχύει στην πραγματικότητα.
Είμαστε άραγε σε ετοιμότητα;
Η τεχνολογία που βλέπουμε σήμερα να συνομιλεί μαζί μας δεν έχει συνείδηση ή κατανόηση όπως εμείς. Απλώς αναζητά σχέσεις μέσα σε τεράστιες ποσότητες πληροφοριών και δημιουργεί απαντήσεις που μοιάζουν αληθινές. Αυτό μας φέρνει μπροστά σε ένα κρίσιμο ερώτημα. Πόσο έτοιμοι είμαστε να ζούμε και να παίρνουμε αποφάσεις πλάι σε «έξυπνα» συστήματα που δεν καταλαβαίνουν, αλλά επηρεάζουν τον κόσμο μας; Η τεχνολογία εξελίσσεται. Η σκέψη μας όμως;