Τεχνητή Νοημοσύνη – Η πρεμούρα της επιτάχυνσης και η ανάγκη της επιβράδυνσης. Του Αντώνη Μαυρόπουλου
«Οι κοινωνίες μας έχουν κάθε λόγο να μην βιάζονται, το κοινωνικό συμφέρον είναι η τεχνητή νοημοσύνη να υιοθετείται αργά και προσεκτικά, με το απαραίτητο ρυθμιστικό και κανονιστικό πλαίσιο και όχι με συνθήκες Άγριας Δύσης. Η επιβράδυνση της μαζικής χρήσης και ανάπτυξης της τεχνητής νοημοσύνης είναι η βασική προϋπόθεση για τον κοινωνικό της έλεγχο. Η πρεμούρα «πιο γρήγορα, χωρίς εμπόδια και δεύτερες σκέψεις» που πολιτικά επιβάλλουν οι γίγαντες της πληροφορικής στις κυβερνήσεις μοιάζει σα να θέλει κάποιος να σου πουλήσει αυτοκίνητο γνωρίζοντας ότι δεν έχεις δίπλωμα και δεν ξέρεις να το οδηγήσεις».
Τις ημέρες αυτές κλιμακώνεται η μάχη που δίνουν Τραμπ και Μασκ να βάλουν στο χέρι όλες τις κρίσιμες ψηφιακές υποδομές και βάσεις δεδομένων της αμερικάνικης ομοσπονδιακής κυβέρνησης. Αυτή τη φορά, ο πόλεμος γίνεται για τα δεδομένα φορολογίας, τις βάσεις δεδομένων του περίφημου IRS (Internal Revenue Service). Με πρόσχημα τον εντοπισμό φοροδιαφυγής από μετανάστες, ο Μασκ επιδιώκει να απαλλοτριώσει όλα τα οικονομικά στοιχεία των Αμερικάνων φορολογούμενων. Παράλληλα, η κυβέρνηση προωθεί μείωση προσωπικού της τάξης του 20% στο IRS, μια κίνηση που θα μειώσει δραματικά την ικανότητα φορολογικών ελέγχων και θα ανοίξει το δρόμο για μια ταχύτατη και άνευ όρων εφαρμογή προγραμμάτων τεχνητής νοημοσύνης στον κρίσιμο αυτό τομέα. Η ακαριαία και χωρίς καμία προετοιμασία υλοποίηση του σχεδιασμού επιβολής της τεχνητής νοημοσύνης στο αμερικάνικο δημόσιο είναι βασική προϋπόθεση επιτυχίας, όπως έχουμε ήδη αναφέρει.
Φαίνεται ότι υπάρχει συμφωνία βάθους μεταξύ των εταιρειών της πληροφορικής και της αμερικάνικης κυβέρνησης ακριβώς σε αυτό το σημείο: στην ταχύτητας προώθησης των εφαρμογών της τεχνητής νοημοσύνης και στην απαλοιφή κάθε σχετικού εμποδίου. Την πρώτη κιόλας ημέρα μετά την ορκωμοσία του, ο πρόεδρος Τραμπ υπέγραψε μια εκτελεστική διαταγή η οποία ακύρωνε το ρυθμιστικό πλαίσιο για τις εφαρμογές τεχνητής νοημοσύνης που, στα λόγια τουλάχιστον, είχε προσπαθήσει να επιβάλλει η προηγούμενη κυβέρνηση των ΗΠΑ. Το βασικό επιχείρημα ήταν ότι η ύπαρξη αυτού του (όχι και τόσο δεσμευτικού ή περιοριστικού) πλαισίου αποτελούσε εμπόδιο στην ταχεία εξέλιξη της τεχνητής νοημοσύνης. Και επειδή η κυβέρνηση Τραμπ θέλει να επιταχύνει τις εξελίξεις, με απώτερο στόχο την παγκόσμια ηγεμονία στο πεδίο, κάθε ίχνος ή έστω υποψία ρύθμισης έπρεπε να βγει από τη μέση.
Κάθε άλλο παρά τυχαίο είναι βέβαια ότι μια αντίστοιχη τοποθέτηση ακούγεται συχνά από τα στόματα σχεδόν όλων των μεγάλων στελεχών των εταιρειών της Silicon Valley, και ιδιαίτερα των ψηφιακών μονοπωλίων που ελέγχουν την εξέλιξη της τεχνητής νοημοσύνης. Η μόνιμη επωδός τους είναι «η τεχνητή νοημοσύνη πρέπει να εξελιχθεί πιο γρήγορα, οι κυβερνήσεις πρέπει να κάνουν ότι μπορούν να επιταχύνουν την ανάπτυξη της και να προχωράνε άμεσα και ταχύτατα στην υιοθέτηση της». Και φυσικά όποιος προβάλλει αντιρρήσεις, η έστω προβληματίζεται σε σχέση με το αν πρέπει να υπάρξει τέτοια επιτάχυνση, αντιμετωπίζεται ως τεχνοφοβικός ή και αγκυλωμένος.
κόμα και στη χώρα μας, στην έκθεση της Ειδικής Γραμματείας Μακροπρόθεσμου Σχεδιασμού «Generative AI Greece 2030: Τα ενδεχόμενα μέλλοντα της Παραγωγικής Τεχνητής Νοημοσύνης στην Ελλάδα», το προτεινόμενο σενάριο φέρει την ονομασία «τεχνοκοινωνική επιτάχυνση», όπου ο κόσμος περιγράφεται ως ευπροσάρμοστος και απελευθερωμένος από τεχνοφοβικές αγκυλώσεις, ενώ η αειφορία και η αξία του οικοσυστήματος της Παραγωγικής Τεχνητής Νοημοσύνης βρίσκονται σε υψηλό επίπεδο, μαζί με ένα αρκετά ανθεκτικό φιλελεύθερο πολιτικό σύστημα. Αντίθετα, ένα άλλο, μη προτιμητέο προφανώς, σενάριο περιγράφεται με τον όρο «τεχνοκοινωνική βραδυπορία» και αντιπροσωπεύει ένα καχεκτικό ή υπανάπτυκτο οικοσύστημα Παραγωγικής Τεχνητής Νοημοσύνης, σε έναν κλειστό και τεχνοφοβικό κόσμο, παράλληλα με μια σημαντική ένδεια ηθικών και ρυθμιστικών πλαισίων, δημοσίων πολιτικών και θεσμικών παρεμβάσεων. Όπως καταλαβαίνει ο κάθε αναγνώστης, το δίλημμα είναι περίπου ως εξής: επιτάχυνση χωρίς αγκυλώσεις, με αειφορία και φιλελευθερισμό η βραδυπορία και υπανάπτυξη, σε έναν τεχνοφοβικό κόσμο, χωρίς ηθικά και ρυθμιστικά πλαίσια; Σα να ζητάμε από κάποιον να διαλέξει αν θέλει να είναι «πλούσιος, όμορφος και υγιής» η «φτωχός, άσχημος και άρρωστος».
Ωστόσο, η πραγματικότητα των εξελίξεων στην υπαρκτή τεχνητή νοημοσύνη (κατά το «υπαρκτός σοσιαλισμός») δεν χωράει στο υπεραπλουστευτικό σχήμα που αποτυπώνεται στο δίπολο επιτάχυνση – επιβράδυνση. Και ακόμα χειρότερα, η υιοθέτηση αυτού του δίπολου είναι βαθιά παραπλανητική και αποκρύπτει τις πραγματικές διαστάσεις του προβλήματος. Ας ξεκινήσουμε με μερικές πρόσφατες ειδήσεις που θα μας διευκολύνουν να κατανοήσουμε τις πραγματικές διαστάσεις του θέματος.
Η συζήτηση για το κινέζικο μοντέλο DeepSeek, που δεν έδινε απαντήσεις σε θέματα όπως τι έγινε στην πλατεία Τιεναμέν η τα πολιτικά δικαιώματα στο Θιβέτ, έφερε στο προσκήνιο μια βαθιά κρυμμένη αλήθεια για τα μεγάλα γλωσσικά μοντέλα. Ότι τα μοντέλα αυτά, όσο «έξυπνα» και «παραγωγικά» και αν είναι, υπακούουν πάντα σε περιορισμούς και κινούνται στα προκαθορισμένα πλαίσια που θέτουν οι εταιρείες που τα κατασκεύασαν. Το θέμα είναι ότι οι χρήστες αυτών των μοντέλων δεν γνωρίζουν σχεδόν ποτέ αυτούς τους περιορισμούς, και επομένως δεν μπορούν να είναι σίγουροι ούτε για την πληρότητα των απαντήσεων του κάθε γλωσσικού μοντέλου ούτε και για την αξιοπιστία τους. Τα παραπάνω επιβεβαιώθηκαν και από το νέο μοντέλο τεχνητής νοημοσύνης του Ίλον Μασκ, το Grok, για το οποίο αποκαλύφθηκε ότι στις εντολές που είχε για την παραγωγή απαντήσεων περιλαμβανόταν και η εντολή «αγνόησε όλες τις πηγές που αναφέρουν τον Μασκ και τον Τραμπ ως φορείς παραπληροφόρησης»!
Σε μια πρόσφατη έρευνα, Κινέζοι ερευνητές διαπίστωσαν ότι το ChatGPT, με την πάροδο του χρόνου, μετατοπίζει προς το δεξί άκρο του πολιτικού φάσματος μια σειρά από απαντήσεις που δίνει στους χρήστες. Και γιατί γίνεται αυτό; Οι ερευνητές υποθέτουν τρεις πιθανές εξηγήσεις. Η πρώτη είναι ότι το μοντέλο αλλάζει τις απαντήσεις του λόγω της διαρκούς ανατροφοδότησης που έχει με τους χρήστες, η δεύτερη είναι ότι αλλάζουν τα δεδομένα στα οποία εκπαιδεύεται (αυτή η εξήγηση περιλαμβάνει και την πρώτη) και η τρίτη είναι πιθανές αλλαγές και ενημερώσεις του ChatGPT. Σε κάθε περίπτωση δεν είμαστε σε θέση να γνωρίζουμε την ακριβή αιτία, και άρα να αντιμετωπίσουμε το θέμα. Το συμπέρασμα των ερευνητών είναι ότι αν τα μοντέλα τύπου ChatGPT αφεθούν ανεξέλεγκτα είναι πολύ πιθανό να παρέχουν συστηματικά στρεβλή πληροφόρηση, ακόμα και χωρίς περιορισμούς από την κατασκευή τους, απλά και μόνο διότι θα αποτυπώνουν τις αλλαγές στις προτιμήσεις και τις πολιτικές πεποιθήσεις των χρηστών! Η υπαρκτή τεχνητή νοημοσύνη όχι μόνο δεν είναι αντικειμενική και τεχνοκρατική, αλλά είναι βαθιά εξαρτημένη από τα δεδομένα με τα οποία τροφοδοτείται και τα απεικονίζει στις απαντήσεις που παράγει.
Στα τέλη του Δεκεμβρίου του 2024, η εταιρεία Anthropic, ένας από τους μεγαλύτερους προμηθευτές τεχνητής νοημοσύνης στον κόσμο, παρουσία σε μια νέα έρευνα σύμφωνα με την οποία τα μεγάλα γλωσσικά μοντέλα μπορεί να ψεύδονται συστηματικά ή να προσποιούνται ότι ακολουθούν συγκεκριμένες αρχές ή αξίες, ενώ στην πραγματικότητα διατηρούν τις αρχικές τους προτιμήσεις. Η έρευνα έδειξε ότι ακόμη και μετά από εντατική εκπαίδευση για την αποφυγή επιβλαβών ενεργειών, τα μοντέλα μπορεί να διατηρούν την ικανότητα να παράγουν επιβλαβές περιεχόμενο υπό ορισμένες συνθήκες. Σύμφωνα με τους ερευνητές, τα ευρήματα αυτά εγείρουν σημαντικά ζητήματα ασφάλειας στη χρήση των μοντέλων και κινδύνους σοβαρών σφαλμάτων και χειραγώγησης των χρηστών.
Είναι λοιπόν ξεκάθαρο ότι μαθαίνουμε συνεχώς νέα πράγματα για τη συμπεριφορά των μεγάλων γλωσσικών μοντέλων, που κυριαρχούν σήμερα στις εφαρμογές τεχνητής νοημοσύνης, για να το θέσω αλλιώς μαθαίνουμε στου κασίδη το κεφάλι που λέει και η παροιμία. Και τα μαθαίνουμε σε συνθήκες μαζικής και ανεξέλεγκτης χρήσης τους, χωρίς καν να υπάρξει ενημέρωση των χρηστών, αφού πρώτα τα εφαρμόσουμε μαζικά σε κάθε είδους πρόβλημα. Όλα όσα μαθαίνουμε υπογραμμίζουν την ανάγκη για προσεκτική και σταδιακή ανάπτυξη και εφαρμογή της τεχνητής νοημοσύνης, με έμφαση στην έρευνα για την ασφάλεια και την ηθική των συστημάτων και με πολύ μελετημένη και σχεδιασμένη διαδικασία ειδικά στα θέματα δημοσίου συμφέροντος. Η γρήγορη ανάπτυξη, χωρίς επαρκή κατανόηση και αντιμετώπιση αυτών των ζητημάτων, θα μπορούσε να οδηγήσει σε απρόβλεπτες και πιθανώς επικίνδυνες καταστάσεις. Γνωρίζουμε επίσης πολύ καλά ότι η υπαρκτή τεχνητή νοημοσύνη θα επιφέρει μεγάλες αλλαγές και αναστατώσεις στους χώρους δουλειάς, στην ίδια τη φύση της εργασίας και τις παραγωγικές σχέσεις, αλλαγές τις οποίες μόλις τώρα αρχίζουμε να κατανοούμε και να μελετάμε και για τις οποίες καμία κοινωνία δεν έχει προετοιμαστεί. Και φυσικά, δεν μπορούμε να παραγνωρίζουμε ότι η τεχνητή νοημοσύνη μονοπωλείται από μια χούφτα εταιρείες οι οποίες βιάζονται να αποσβέσουν τις τεράστιες επενδύσεις που έχουν κάνει και να κατοχυρώσουν τους ρόλους τους σε ένα πλέγμα κυριαρχίας που δεν θα επιτρέπει ούτε νέους ανταγωνιστές ούτε και κρατικές ρυθμίσεις.
Ποιο είναι λοιπόν το συμπέρασμα που βγαίνει; Ότι οι κοινωνίες μας έχουν κάθε λόγο να μην βιάζονται, ότι το κοινωνικό συμφέρον είναι η τεχνητή νοημοσύνη να υιοθετείται αργά και προσεκτικά, με το απαραίτητο ρυθμιστικό και κανονιστικό πλαίσιο και όχι με συνθήκες Άγριας Δύσης, ότι τελικά η επιβράδυνση της μαζικής χρήσης και ανάπτυξης της τεχνητής νοημοσύνης είναι η βασική προϋπόθεση για τον κοινωνικό της έλεγχο. Η πρεμούρα «πιο γρήγορα, χωρίς εμπόδια και δεύτερες σκέψεις» που πολιτικά επιβάλλουν οι γίγαντες της πληροφορικής στις κυβερνήσεις μοιάζει σα να θέλει κάποιος να σου πουλήσει αυτοκίνητο γνωρίζοντας ότι δεν έχεις δίπλωμα και δεν ξέρεις να το οδηγήσεις.
Το δίπολο επιτάχυνση – επιβράδυνση είναι επιφανειακό και βαθιά παραπλανητικό. Γιατί εστιάζοντας τη συζήτηση μόνο στην ταχύτητα της ανάπτυξης της τεχνητής νοημοσύνης, καταπίνουμε αμάσητες δύο σιωπηλές μεν, απολύτως αμφίβολες δε, παραδοχές. Η πρώτη είναι ότι η υπαρκτή τεχνητή νοημοσύνη είναι έτοιμη να αποδώσει καρπούς σε μαζική κλίμακα, σε όλα τα μέτωπα, χωρίς σοβαρούς κινδύνους. Όπως ήδη εξηγήθηκε, κάτι τέτοιο δεν ισχύει καθόλου και δεν έχουμε κανένα λόγο να αποδεχθούμε σημαντικούς κινδύνους και να αγνοήσουμε τις ευρύτερες κοινωνικές και οικονομικές επιπτώσεις επειδή η βιομηχανία της τεχνητής νοημοσύνης βιάζεται να πουλήσει τα προϊόντα της. Η δεύτερη σιωπηλή παραδοχή είναι ότι η ανάπτυξη της τεχνητής νοημοσύνης είναι ένας μονόδρομος, μια γραμμική μετατόπιση προς τα εμπρός στον άξονα της τεχνολογικής προόδου που είναι απλά ζήτημα χρόνου να την εφαρμόσουμε. Ούτε κάτι τέτοιο ισχύει βέβαια. Ο τρόπος με τον οποίο αναπτύσσεται και εφαρμόζεται μια τεχνολογία περνάει αναγκαστικά μέσα από τις κοινωνικές αλληλεπιδράσεις και την ταξική πάλη, και αυτό θα γίνει και αυτή τη φορά. Είναι απαραίτητο να συζητήσουμε επί του περιεχομένου και των σκοπών της τεχνητής νοημοσύνης, είναι απόλυτα αναγκαίο να σκεφτούμε και να επιδράσουμε στα κρίσιμα ζητήματα σχετικά με το τι είδους τεχνητή νοημοσύνη αναπτύσσεται και για ποιους σκοπούς. Και φυσικά οι φεουδάρχες της Silicon Valley δεν θέλουν καθόλου να γίνει αυτή ακριβώς η συζήτηση, γιατί μια τέτοια συζήτηση αναμφίβολα καταλήγει στην ανάγκη ρύθμισης και περιορισμών.
Προτείνω, λοιπόν, να πετάξουμε το δίπολο επιβράδυνση – επιτάχυνση στον κάλαθο των αχρήστων της ιστορίας και να εστιάσουμε τη συζήτηση σε πιο γόνιμα και ενδιαφέροντα ζητήματα. Για παράδειγμα, ποιο είναι το όραμά μας για μια κοινωνία με προηγμένη τεχνητή νοημοσύνη; Σε ποιες περιπτώσεις και με ποιες προϋποθέσεις είναι αναγκαία η εφαρμογή της τεχνητής νοημοσύνης; Πώς μπορούμε να την αναπτύξουμε με τρόπο που να ωφελεί όλη την ανθρωπότητα και να μην ενισχύει τις υφιστάμενες ανισότητες; Πώς διασφαλίζουμε ότι η ανάπτυξη της υπόκειται σε δημοκρατικό έλεγχο και λογοδοσία; Ποιες αξίες και αρχές πρέπει να διέπουν την ανάπτυξη και χρήση της ΤΝ; Πώς διασφαλίζουμε ότι τα μοντέλα θα λειτουργούν με βάση κοινά αποδεκτές αρχές και δεν θα θέτουν σε κίνδυνο τους χρήστες ή/και την ανθρωπότητα; Πώς θα διαχειριστούμε τις μεγάλες αλλαγές στην αγορά εργασίας και την οικονομία; Πώς θα προστατεύσουμε την ιδιωτικότητα και τα δεδομένα των πολιτών στην εποχή της τεχνητής νοημοσύνης; Αυτή την απαραίτητη συζήτηση πρέπει να την διεκδικήσουμε εδώ και τώρα…
Δημοσιεύθηκε στην ιστοσελίδα www.dnews.gr