Τι μας αρέσει
Τεχνητή νοημοσύνη: Φίλος ή εχθρός;
Michael Albert και Arash Kolahi | ΖNet
Σε μια υποθετική κούρσα για να διεκδικήσουν τον μανδύα της μεγαλύτερης απειλής για την ανθρωπότητα, ο πυρηνικός πόλεμος, η οικολογική καταστροφή, ο αυξανόμενος αυταρχισμός και οι νέες πανδημίες εξακολουθούν να βρίσκονται αρκετά μπροστά. Αλλά, κοιτάξτε εκεί, πολύ πίσω αλλά έρχονται γρήγορα. Αυτή είναι η τεχνητή νοημοσύνη; Είναι ένας φίλος που σπεύδει να μας βοηθήσει ή ένας άλλος εχθρός που σπεύδει να μας θάψει;
Ως αφετηρία για αυτό το δοκίμιο, στο πρόσφατο Op Ed τους στους New York Times ο Νόαμ Τσόμσκι και δύο ακαδημαϊκοί συνάδελφοί του -ο Ίαν Ρόμπερτς, καθηγητής γλωσσολογίας στο Πανεπιστήμιο του Κέιμπριτζ, και ο Τζέφρι Γουάτουμουλ, ένας φιλόσοφος που είναι επίσης διευθυντής τεχνητής νοημοσύνης σε μια τεχνολογική εταιρεία – μας λένε ότι “όσο χρήσιμα και αν είναι αυτά τα προγράμματα [της τεχνητής νοημοσύνης] σε ορισμένους στενούς τομείς (μπορούν να είναι χρήσιμα στον προγραμματισμό υπολογιστών, για παράδειγμα, ή στο να προτείνουν ομοιοκαταληξίες για ελαφρούς στίχους), γνωρίζουμε από την επιστήμη της γλωσσολογίας και τη φιλοσοφία της γνώσης ότι διαφέρουν βαθύτατα από τον τρόπο με τον οποίο οι άνθρωποι σκέφτονται και χρησιμοποιούν τη γλώσσα. Αυτές οι διαφορές θέτουν σημαντικούς περιορισμούς σε ό,τι μπορούν να κάνουν αυτά τα προγράμματα, κωδικοποιώντας τα με απαράγραπτα ελαττώματα….”
Συνεχίζουν: “Σε αντίθεση με τους ανθρώπους, για παράδειγμα, οι οποίοι είναι προικισμένοι με μια καθολική γραμματική που περιορίζει τις γλώσσες που μπορούμε να μάθουμε σε εκείνες με ένα ορισμένο είδος σχεδόν μαθηματικής κομψότητας, αυτά τα προγράμματα μαθαίνουν με την ίδια ευκολία γλώσσες ανθρωπίνως δυνατές και ανθρωπίνως αδύνατες”.
Οι αναγνώστες θα μπορούσαν να εκλάβουν αυτά τα σχόλια ότι η σημερινή τεχνητή νοημοσύνη διαφέρει τόσο πολύ από τον τρόπο με τον οποίο επικοινωνούν οι άνθρωποι, ώστε οι προβλέψεις ότι η τεχνητή νοημοσύνη θα εκτοπίσει τον άνθρωπο σε όλους τους τομείς, εκτός από μερικούς δευτερεύοντες, είναι υπερβολές. Τα νέα Chatbots, οι ζωγράφοι, οι προγραμματιστές, τα ρομπότ και τι άλλο είναι όλα εντυπωσιακά έργα μηχανικής, αλλά τίποτα για να ταραχτείτε υπερβολικά. Η τρέχουσα τεχνητή νοημοσύνη χειρίζεται τη γλώσσα με τρόπους που απέχουν πολύ από αυτό που επιτρέπει σήμερα στους ανθρώπους να χρησιμοποιούν τη γλώσσα τόσο καλά όσο εμείς. Περισσότερο, τα νευρωνικά δίκτυα και τα μεγάλα γλωσσικά μοντέλα των σημερινών ΤΝ είναι κωδικοποιημένα με “ανεξίτηλα ελαττώματα” που εμποδίζουν τις ΤΝ να χρησιμοποιούν τη γλώσσα και να σκέφτονται εξ αποστάσεως τόσο καλά όσο οι άνθρωποι. Το σκεπτικό του Op Ed μοιάζει με το να ακούει ένας επιστήμονας να μιλάει για μια μηχανή αέναης κίνησης που θα φέρει επανάσταση στα πάντα. Ο επιστήμονας έχει θεωρίες που του λένε ότι μια μηχανή αέναης κίνησης είναι αδύνατη. Επομένως, ο επιστήμονας λέει ότι ο θόρυβος για κάποια εταιρεία που προσφέρει μια τέτοια μηχανή είναι διαφημιστική εκστρατεία. Επιπλέον, ο επιστήμονας γνωρίζει ότι ο θόρυβος δεν μπορεί να είναι αληθινός ακόμη και χωρίς να ρίξει μια ματιά στο τι κάνει στην πραγματικότητα η προσφερόμενη μηχανή. Μπορεί να μοιάζει με αέναη κίνηση, αλλά δεν μπορεί να είναι, άρα δεν είναι. Τι γίνεται όμως αν ο επιστήμονας έχει δίκιο ότι δεν είναι αέναη κίνηση, αλλά παρ’ όλα αυτά η μηχανή κερδίζει γρήγορα χρήστες και κάνει κακό, με πολύ περισσότερο κακό να έρχεται;
Ο Τσόμσκι, ο Ρόμπερτς και ο Γουάτουμουλ λένε ότι οι άνθρωποι χρησιμοποιούν τη γλώσσα τόσο επιδέξια όσο χρησιμοποιούμε, επειδή έχουμε στο μυαλό μας μια ανθρώπινη γλωσσική ικανότητα που περιλαμβάνει ορισμένες ιδιότητες. Αν δεν την είχαμε αυτή, ή αν η ικανότητά μας δεν ήταν τόσο περιοριστική όσο είναι, τότε θα μοιάζαμε περισσότερο με τα πουλιά ή τις μέλισσες, τους σκύλους ή τους χιμπατζήδες, αλλά όχι με τον εαυτό μας. Επιπλέον, ένας σίγουρος τρόπος για να ξέρουμε ότι ένα άλλο σύστημα που χρησιμοποιεί γλώσσα δεν έχει γλωσσική ικανότητα με τα χαρακτηριστικά της δικής μας γλωσσικής ικανότητας είναι αν μπορεί να τα καταφέρει εξίσου καλά με μια εντελώς επινοημένη μη ανθρώπινη γλώσσα όπως μπορεί να τα καταφέρει με μια ειδικά ανθρώπινη γλώσσα όπως τα αγγλικά ή τα ιαπωνικά. Το Op Ed υποστηρίζει ότι τα σύγχρονα chatbots είναι ακριβώς αυτού του είδους. Συμπεραίνει ότι δεν μπορούν να είναι γλωσσικά ικανά με τους ίδιους τρόπους που οι άνθρωποι είναι γλωσσικά ικανοί.
Εφαρμοσμένο ευρύτερα, το επιχείρημα είναι ότι οι άνθρωποι έχουν μια γλωσσική ικανότητα, μια οπτική ικανότητα και αυτό που θα μπορούσαμε να ονομάσουμε εξηγητική ικανότητα, που παρέχουν τα μέσα με τα οποία συνομιλούμε, βλέπουμε και αναπτύσσουμε εξηγήσεις. Αυτές οι ικανότητες μας επιτρέπουν ένα πλούσιο φάσμα ικανοτήτων. Ωστόσο, ως προϋπόθεση για να το κάνουν αυτό, επιβάλλουν επίσης όρια σε άλλες νοητές ικανότητες. Αντίθετα, οι σημερινές τεχνητές νοημοσύνες τα καταφέρνουν εξίσου καλά με γλώσσες που οι άνθρωποι δεν μπορούν να χρησιμοποιήσουν, όπως και με αυτές που μπορούμε να χρησιμοποιήσουμε. Αυτό αποκαλύπτει ότι δεν έχουν τίποτα που να μοιάζει έστω και ελάχιστα με την έμφυτη ανθρώπινη γλωσσική ικανότητα, αφού, αν την είχαν, θα απέκλειε τις μη ανθρώπινες γλώσσες. Αυτό όμως σημαίνει ότι οι τεχνητές νοημοσύνες δεν μπορούν, κατ’ αρχήν, να επιτύχουν ικανότητες τόσο ευρείες, βαθιές και ακόμη και δημιουργικές όσο οι δικές μας, επειδή δεν διαθέτουν ικανότητες με τις ιδιαίτερες περιοριστικές ιδιότητες που έχουν οι δικές μας ικανότητες; Σημαίνει αυτό ότι ό,τι κι αν κάνουν όταν μιλούν προτάσεις, όταν περιγράφουν πράγματα στο οπτικό τους πεδίο ή όταν προσφέρουν εξηγήσεις για γεγονότα για τα οποία τους ρωτάμε -για να μην αναφέρουμε όταν περνούν τις εξετάσεις για το δικηγορικό σώμα στο 90ο εκατοστημόριο ή όταν συνθέτουν κατά παραγγελία λυπητερά ή χαρούμενα, reggae ή rock τραγούδια-, όχι μόνο δεν κάνουν ό,τι κάνουν οι άνθρωποι, αλλά επίσης δεν μπορούν να επιτύχουν αποτελέσματα της ποιότητας που επιτυγχάνουν οι άνθρωποι;
Αν το Op Ed έλεγε ότι οι σημερινές τεχνητές νοημοσύνες δεν έχουν χαρακτηριστικά όπως εμείς, οπότε δεν μπορούν να κάνουν πράγματα όπως εμείς, αυτό θα ήταν μια χαρά. Σε αυτή την περίπτωση, θα μπορούσε να είναι αλήθεια ότι οι τεχνητές νοημοσύνες δεν μπορούν να κάνουν πράγματα τόσο καλά όσο τα κάνουμε εμείς, αλλά θα μπορούσε επίσης να είναι αλήθεια ότι για πολλούς τύπους εξετάσεων, όπως για παράδειγμα τα SATs και οι εξετάσεις για δικηγόρους, μπορούν να ξεπεράσουν τη συντριπτική πλειοψηφία του πληθυσμού. Τι θα συμβεί αύριο με το GPT 4 και σε λίγους μήνες με το GPT 5, ή σε ένα ή δύο χρόνια με τα GPT 6 και 7, πολύ περισσότερο αργότερα με το GPT 10; Τι γίνεται αν, όπως φαίνεται να συμβαίνει, οι σημερινές τεχνητές νοημοσύνες έχουν διαφορετικά χαρακτηριστικά από τους ανθρώπους, αλλά αυτά τα διαφορετικά χαρακτηριστικά τους επιτρέπουν να κάνουν πολλά πράγματα που κάνουμε εμείς διαφορετικά από ό,τι τα κάνουμε εμείς, αλλά εξίσου καλά ή και καλύτερα από ό,τι τα κάνουμε εμείς;
Το λογικό πρόβλημα με το Op Ed είναι ότι φαίνεται να υποθέτει ότι μόνο οι ανθρώπινες μέθοδοι μπορούν, σε πολλές περιπτώσεις, να επιτύχουν αποτελέσματα ανθρώπινου επιπέδου. Το πρακτικό πρόβλημα είναι ότι το Op Ed μπορεί να κάνει πολλούς ανθρώπους να σκεφτούν ότι τίποτα πολύ σημαντικό δεν συμβαίνει ή δεν θα μπορούσε καν να συμβαίνει, χωρίς καν να εξετάσουν τι συμβαίνει στην πραγματικότητα. Τι γίνεται όμως αν συμβαίνει κάτι πολύ σημαντικό; Και αν ναι, έχει σημασία;
Αν το Op Ed επικεντρώθηκε μόνο στο ερώτημα “είναι η σύγχρονη τεχνητή νοημοσύνη έξυπνη με τον ίδιο τρόπο που είναι έξυπνοι οι άνθρωποι”, η απάντηση των συγγραφέων είναι όχι, και σε αυτό έχουν σίγουρα δίκιο. Το ότι οι συγγραφείς τονίζουν στη συνέχεια ότι “φοβούνται ότι το πιο δημοφιλές και μοντέρνο στέλεχος της τεχνητής νοημοσύνης – η μηχανική μάθηση – θα υποβαθμίσει την επιστήμη μας και θα εξευτελίσει την ηθική μας, ενσωματώνοντας στην τεχνολογία μας μια θεμελιωδώς λανθασμένη αντίληψη για τη γλώσσα και τη γνώση”, είναι επίσης δίκαιο. Ομοίως, είναι αλήθεια ότι όταν τα τρέχοντα προγράμματα περάσουν το τεστ Τούρινγκ, αν δεν το έχουν ήδη κάνει, αυτό δεν θα σημαίνει ότι σκέφτονται και μιλούν με τον ίδιο τρόπο που σκεφτόμαστε εμείς ή ότι ο τρόπος με τον οποίο πέρασαν το τεστ θα μας πει κάτι για το πώς συνομιλούμε ή σκεφτόμαστε. Αλλά το ότι θα περάσουν το τεστ θα μας πει ότι δεν μπορούμε πλέον να ακούσουμε ή να διαβάσουμε τα λόγια τους και από αυτό και μόνο να διακρίνουμε τις σκέψεις και τα λόγια τους από τις δικές μας σκέψεις και λόγια. Αλλά θα έχει σημασία αυτό;
Το δοκίμιο των Chomsky, Roberts και Watumull φαίνεται να υπονοεί ότι η μεθοδολογική διαφορά της τεχνητής νοημοσύνης από τις ανθρώπινες ικανότητες σημαίνει ότι αυτά που μπορούν να κάνουν τα προγράμματα τεχνητής νοημοσύνης θα είναι σοβαρά περιορισμένα σε σύγκριση με αυτά που μπορούν να κάνουν οι άνθρωποι. Οι συγγραφείς αναγνωρίζουν ότι αυτά που μπορεί να κάνει η ΤΝ μπορεί να είναι ελάχιστα χρήσιμα (ή να καταχρηστούν), αλλά προσθέτουν ότι δεν συμβαίνει τίποτα το πολύ συγκρίσιμο με την ανθρώπινη νοημοσύνη ή δημιουργικότητα. Η γνωστική επιστήμη δεν προοδεύει και μπορεί να οπισθοχωρήσει. Οι τεχνητές νοημοσύνες μπορούν να ξεπεράσουν κατά κράτος κάθε άνθρωπο πάνω σε μια σκακιέρα. Ναι, αλλά και τι έγινε; Αυτές οι απορρίψεις είναι αρκετά δίκαιες, αλλά μήπως το γεγονός ότι η σημερινή ΤΝ παράγει κείμενο, εικόνες, λογισμικό, συμβουλές, ιατρική περίθαλψη, απαντήσεις σε εξετάσεις ή οτιδήποτε άλλο με διαφορετικό τρόπο από ό,τι οι άνθρωποι φτάνουν σε πολύ παρόμοιες εκροές σημαίνει ότι η σημερινή ΤΝ δεν έφτασε καθόλου εκεί; Το γεγονός ότι η σημερινή ΤΝ λειτουργεί διαφορετικά από ό,τι εμείς σημαίνει κατ’ ανάγκη, ιδίως, ότι δεν μπορεί να επιτύχει γλωσσικά αποτελέσματα όπως αυτά που επιτυγχάνουμε εμείς; Το γεγονός ότι μια τεχνητή νοημοσύνη είναι σε θέση να κατανοεί μη ανθρώπινες γλώσσες σημαίνει αναγκαστικά ότι η τεχνητή νοημοσύνη δεν μπορεί να υπερβεί τις ανθρώπινες ικανότητες στις ανθρώπινες γλώσσες ή σε άλλους τομείς;
Τα προγράμματα που είναι ικανά να εκτελούν γλωσσικές εργασίες βασισμένες στην πληροφορία είναι πολύ διαφορετικά, πιστεύουμε, από τα τρακτέρ που μπορούν να σηκώσουν μεγαλύτερο βάρος από τους ανθρώπους, ή τις αριθμομηχανές χειρός που μπορούν να χειριστούν αριθμούς καλύτερα από τους ανθρώπους. Αυτό οφείλεται εν μέρει στο γεγονός ότι η τεχνητή νοημοσύνη μπορεί να αφαιρέσει διάφορα καθήκοντα από τους ανθρώπους. Σε περιπτώσεις επαχθών, μη ελκυστικών καθηκόντων, αυτό θα μπορούσε να είναι κοινωνικά επωφελές, αν υποθέσουμε ότι κατανέμουμε δίκαια την εναπομένουσα εργασία. Τι γίνεται όμως όταν οι καπιταλιστικές προτεραιότητες επιβάλλουν κλιμακούμενη ανεργία; Το γεγονός ότι η OpenAI και άλλες καπιταλιστικές εταιρείες τεχνητής νοημοσύνης εκμεταλλεύονται φτηνά εργατικά χέρια από το εξωτερικό για να βάζουν ετικέτες σε εικόνες για την οπτική εκπαίδευση της τεχνητής νοημοσύνης δεν θα έπρεπε να μας εκπλήσσει. Αλλά ίσως εξίσου κοινωνικά σημαντικό, τι γίνεται με τις ψυχολογικές επιπτώσεις της ανάπτυξης της ΤΝ;
Καθώς οι μηχανές γίνονταν όλο και πιο ικανές να σηκώνουν για εμάς, οι άνθρωποι γίνονταν όλο και λιγότερο ικανοί να σηκώνουν. Καθώς οι μηχανές γίνονταν πιο ικανές να εκτελούν μαθηματικούς υπολογισμούς για εμάς, οι άνθρωποι γίνονταν λιγότερο ικανοί να εκτελούν μαθηματικούς υπολογισμούς. Η απώλεια κάποιας προσωπικής ικανότητας ή κλίσης να σηκώνουν ή να υπολογίζουν δεν ήταν κάτι το σπουδαίο. Τα οφέλη υπερέβαιναν τα ελλείμματα. Ακόμα και τα προγράμματα που κυριολεκτικά νίκησαν τους καλύτερους ανθρώπινους παίκτες στο σκάκι, το γκο, τα βιντεοπαιχνίδια και το πόκερ (αν και τα προγράμματα δεν παίζουν με τον τρόπο που παίζουν οι άνθρωποι), είχαν μόνο μια φευγαλέα ψυχολογική επίδραση. Οι άνθρωποι εξακολουθούν να κάνουν αυτά τα πολύ ανθρώπινα πράγματα. Οι άνθρωποι μαθαίνουν ακόμη και μελετώντας τα παιχνίδια που παίζουν τα προγράμματα – αν και όχι αρκετά ώστε να γίνουν τόσο καλοί όσο τα προγράμματα. Τι θα συμβεί όμως αν η τεχνητή νοημοσύνη γίνει ικανή να γράφει γράμματα καλύτερα από τους ανθρώπους, να γράφει δοκίμια καλύτερα, να συνθέτει μουσική καλύτερα, να σχεδιάζει ημερήσιες διατάξεις καλύτερα, να γράφει λογισμικό καλύτερα, να παράγει εικόνες καλύτερα, να απαντά σε ερωτήσεις καλύτερα, να κατασκευάζει ταινίες καλύτερα, να σχεδιάζει κτίρια καλύτερα, να διδάσκει καλύτερα, να συνομιλεί καλύτερα και ίσως ακόμη και να παρέχει φροντίδα ηλικιωμένων, φροντίδα παιδιών, ιατρικές διαγνώσεις, ακόμη και ψυχολογική συμβουλευτική καλύτερα – ή, σε κάθε περίπτωση, ξεχάστε ότι τα προγράμματα γίνονται καλύτερα από εμάς, τι θα συμβεί όταν τα προγράμματα λειτουργήσουν αρκετά καλά ώστε να είναι κερδοφόρα υποκατάστατα για να κάνουν οι άνθρωποι τέτοια πράγματα;
Δεν πρόκειται αποκλειστικά για την αύξηση της ανεργίας με όλες τις καταστροφικές της συνέπειες. Αυτό είναι αρκετά ανησυχητικό, αλλά ένα σημαντικό μέρος αυτού που κάνει τους ανθρώπους ανθρώπους ανθρώπους είναι να ασχολούνται με τη δημιουργική εργασία. Θα περιοριστεί η σφαίρα της διαθέσιμης δημιουργικής εργασίας από την τεχνητή νοημοσύνη, έτσι ώστε μόνο λίγες ιδιοφυΐες θα είναι σε θέση να την κάνουν, όταν η τεχνητή νοημοσύνη αναλάβει το μεγαλύτερο μέρος της συγγραφής, της θεραπείας, της σύνθεσης, του καθορισμού της ατζέντας κ.λπ. Είναι λάθος να σκεφτούμε ότι σε αυτή την περίπτωση αυτό από το οποίο θα παραμεριστούν οι άνθρωποι θα μπορούσε να αφήσει τους ανθρώπους λιγότερο ανθρώπινους;
Το Op Ed υποστηρίζει ότι η τεχνητή νοημοσύνη κάνει τώρα και ίσως πάντα θα κάνει πράγματα που προσδιορίζονται από τον άνθρωπο θεμελιωδώς διαφορετικά από ό,τι τα κάνει ο άνθρωπος. Αυτό όμως συνεπάγεται, όπως πιστεύουμε ότι πολλοί αναγνώστες των Times θα πιστεύουν, ότι οι τεχνητές νοημοσύνες δεν θα κάνουν τέτοια πράγματα το ίδιο καλά ή και καλύτερα από τους περισσότερους ή ίσως και από όλους τους ανθρώπους. Θα μπορέσουν οι τεχνητές νοημοσύνες να προσομοιώσουν τα ανθρώπινα συναισθήματα και την τόσο σημαντική ανθρώπινη αυθεντικότητα στα τραγούδια και τους πίνακες που φτιάχνουν; Ίσως όχι, αλλά ακόμη και αν αγνοήσουμε την πιθανότητα οι ΤΝ να χρησιμοποιηθούν ρητά για κακό, οι παραπάνω παρατηρήσεις δεν εγείρουν εξαιρετικά επακόλουθα και ακόμη και επείγοντα ερωτήματα; Θα έπρεπε να επιδιώκουμε την τεχνητή νοημοσύνη με τους σημερινούς ιλιγγιώδεις ρυθμούς μας;
Φυσικά, όταν οι ΤΝ χρησιμοποιούνται για να εξαπατούν και να χειραγωγούν, να διαπράττουν απάτες, να κατασκοπεύουν, να χακάρουν και να σκοτώνουν, μεταξύ άλλων κακόβουλων δυνατοτήτων, τόσο το χειρότερο. Για να μην αναφέρουμε, αν οι ΤΝ γίνουν αυτόνομες με αυτές τις αντικοινωνικές ατζέντες. Ακόμα και χωρίς να βλέπουμε καθηγητές να λένε ότι οι ΤΝ ήδη περνούν εξετάσεις μεταπτυχιακού επιπέδου, ακόμα και χωρίς να βλέπουμε προγραμματιστές να λένε ότι οι ΤΝ ήδη βγάζουν κώδικα γρηγορότερα και ακριβέστερα από ό,τι μπορούν αυτοί και οι προγραμματιστές φίλοι τους, και ακόμα και χωρίς να βλέπουμε ΤΝ να συνομιλούν ήδη ακουστικά με τους μηχανικούς τους για οτιδήποτε, συμπεριλαμβανομένων ακόμα και των “συναισθημάτων” και των “κινήτρων” τους, θα έπρεπε να είναι σαφές ότι η ΤΝ μπορεί να έχει πολύ ισχυρές κοινωνικές επιπτώσεις, ακόμα και αν οι μέθοδοί της ρίχνουν μηδενικό φως στον τρόπο λειτουργίας των ανθρώπων.
Μια άλλη παρατήρηση του Op Ed των Times είναι ότι οι τεχνητές νοημοσύνες του σημερινού είδους δεν έχουν καμία σχέση με την ανθρώπινη ηθική ικανότητα. Είναι αλήθεια, αλλά αυτό σημαίνει ότι δεν μπορούν να έχουν ηθικά καθοδηγούμενα αποτελέσματα; Θα στοιχηματίζαμε, αντίθετα, ότι τα προγράμματα ΤΝ μπορούν και σε πολλές περιπτώσεις ήδη ενσωματώνουν ηθικούς κανόνες και νόρμες. Αυτός είναι ο λόγος για τον οποίο οι φτωχοί πληθυσμοί εκμεταλλεύονται οικονομικά και ψυχολογικά για να χαρακτηρίσουν αμέτρητα παραδείγματα πορνό ως πορνό -εκμεταλλευτική ανηθικότητα στην υπηρεσία τίνος, της ηθικής ή απλώς της ψεύτικης ευπρέπειας; Το πρόβλημα είναι, ποιος καθορίζει ποιους ηθικούς κώδικες που θα ενσωματώσει η τεχνητή νοημοσύνη θα προωθήσει και θα εμποδίσει; Στις σημερινές ΤΝ, ένας τέτοιος κώδικας είτε θα είναι προγραμματισμένος είτε θα μαθαίνεται με εκπαίδευση σε ανθρώπινα παραδείγματα. Αν είναι προγραμματισμένος, ποιος θα αποφασίσει για το περιεχόμενό του; Αν μαθαίνεται από παραδείγματα, ποιος θα επιλέγει τα παραδείγματα; Επομένως, το ζήτημα δεν είναι ότι η τεχνητή νοημοσύνη δεν έχει αναπόφευκτα ηθική. Το ζήτημα είναι ότι η ΤΝ μπορεί να έχει κακή ηθική και να διαιωνίζει προκαταλήψεις όπως ο ρατσισμός, ο σεξισμός ή ο ταξισμός που μαθαίνονται είτε από τους προγραμματιστές είτε από παραδείγματα εκπαίδευσης.
Ακόμα και όσον αφορά μια γλωσσική σχολή, όπως αναφέρει το Op Ed σίγουρα δεν υπάρχει μια σαν τη δική μας στην τρέχουσα ΤΝ. Είναι όμως η δική μας το μόνο είδος σχολής που μπορεί να διατηρήσει τη χρήση της γλώσσας; Είτε η ανθρώπινη γλωσσική ικανότητα προέκυψε από ένα εκατομμύριο χρόνια αργής εξέλιξης, όπως πιστεύουν οι περισσότεροι που ακούνε γι’ αυτά τα πράγματα, είτε προέκυψε συντριπτικά σε πολύ σύντομο χρονικό διάστημα από μια τυχερή μετάλλαξη και στη συνέχεια υπέστη μόνο μια αρκετά μέτρια περαιτέρω εξέλιξη ενώ εξαπλώθηκε ευρέως, όπως υποστηρίζει πειστικά ο Τσόμσκι, σίγουρα υπάρχει. Και είναι σίγουρα θεμελιώδες για την ανθρώπινη γλώσσα. Γιατί όμως το πλήρως εκπαιδευμένο νευρωνικό δίκτυο μιας τεχνητής νοημοσύνης δεν είναι μια γλωσσική ικανότητα, έστω και διαφορετική από τη δική μας; Παράγει πρωτότυπο κείμενο. Απαντά σε ερωτήματα. Είναι γραμματικό. Σε λίγο καιρό (αν όχι ήδη) θα συνομιλεί καλύτερα από τους περισσότερους ανθρώπους. Μπορεί μάλιστα να τα κάνει όλα αυτά σε διάφορα στυλ. Απαντήστε στο ερώτημά μου σχετικά με την κβαντομηχανική ή τον ανταγωνισμό της αγοράς, παρακαλώ. Απαντήστε όπως ο Χέμινγουεϊ. Απαντήστε όπως ο Faulkner. Απαντήστε σαν τον Ντίλαν. Γιατί, λοιπόν, δεν είναι και αυτή μια γλωσσική σχολή -αν και σε αντίθεση με την ανθρώπινη και που παράγεται όχι από εκτεταμένη εξέλιξη ή από ραγδαία τύχη, αλλά από την εκπαίδευση ενός γλωσσικού μοντέλου νευρωνικού δικτύου;
Είναι αλήθεια ότι η σημερινή τεχνητή νοημοσύνη μπορεί να δουλέψει με ανθρώπινες γλώσσες και επίσης, αν υποθέσουμε ότι υπήρχαν επαρκή δεδομένα για την εκπαίδευσή της, με γλώσσες που η ανθρώπινη σχολή δεν μπορεί να καταλάβει. Είναι επίσης αλήθεια ότι μετά από εκπαίδευση, μια τεχνητή νοημοσύνη μπορεί από ορισμένες απόψεις να κάνει πράγματα που η ανθρώπινη γλωσσική ικανότητα δεν θα επέτρεπε. Αλλά γιατί το να μπορεί να εργαστεί με μη ανθρώπινες γλώσσες σημαίνει ότι μια τέτοια σχολή πρέπει να είναι φτωχή όσον αφορά το τι μπορεί να κάνει με τις ανθρώπινες γλώσσες; Η γλωσσική ικανότητα της τεχνητής νοημοσύνης δεν είναι μια απείρως εύπλαστη, άχρηστη λευκή πλάκα. Δεν μπορεί να δουλέψει με καμία γλώσσα στην οποία δεν έχει εκπαιδευτεί. Πράγματι, το μη εκπαιδευμένο νευρωνικό δίκτυο δεν μπορεί να συνομιλήσει σε μια ανθρώπινη γλώσσα ή σε μια μη ανθρώπινη γλώσσα. Αφού εκπαιδευτεί, ωστόσο, η διαφορετική ευελιξία του ως προς το τι καθιστά δυνατό και τι αποκλείει το καθιστά μη γλωσσική ικανότητα; Ή μήπως η διαφορετική ευελιξία του το καθιστά απλώς μη γλωσσική ικανότητα ανθρώπινου τύπου; Και μήπως αυτό έχει σημασία για τις κοινωνικές ανησυχίες σε αντίθεση με τις επιστημονικές;
Παρομοίως, δεν είναι μια ικανότητα της ΤΝ που μπορεί να κοιτάζει σκηνές και να διακρίνει και να περιγράφει τι υπάρχει σε αυτές και μπορεί ακόμη και να αναγνωρίζει αυτό που υπάρχει αλλά είναι εκτός τόπου και χρόνου να βρίσκεται εκεί, και που μπορεί να το κάνει με την ίδια ακρίβεια όπως οι άνθρωποι, ή ακόμη και με μεγαλύτερη ακρίβεια, μια οπτική ικανότητα, αν και πάλι, σίγουρα όχι το ίδιο με μια ανθρώπινη οπτική ικανότητα;
Και ομοίως για μια σχεδιαστική ικανότητα που σχεδιάζει, μια υπολογιστική ικανότητα που υπολογίζει, και ούτω καθεξής. Σίγουρα, παρά την έμπνευση από ανθρώπινες εμπειρίες και στοιχεία, όπως έχουν κάνει οι προγραμματιστές της τεχνητής νοημοσύνης, καμία από αυτές τις ικανότητες της τεχνητής νοημοσύνης δεν μοιάζει πολύ με τις ανθρώπινες εκδοχές. Δεν κάνουν αυτό που κάνουν με τον τρόπο που εμείς οι άνθρωποι κάνουμε αυτό που κάνουμε. Αλλά εκτός αν θέλουμε να πούμε ότι οι ενδεχόμενοι, ιστορικά τυχεροί ανθρώπινοι τρόποι επεξεργασίας πληροφοριών είναι οι μόνοι τρόποι επεξεργασίας πληροφοριών που μπορούν να χειριστούν τη γλώσσα τόσο έξυπνα όσο οι άνθρωποι, και είναι οι μόνοι τρόποι επεξεργασίας πληροφοριών που μπορούν όχι μόνο να παράγουν και να προβλέπουν αλλά και να εξηγούν, δεν βλέπουμε γιατί οι αληθινές παρατηρήσεις ότι η σημερινή ΤΝ δεν μας διδάσκει τίποτα για το πώς λειτουργούν οι άνθρωποι υπονοούν ότι η σημερινή ΤΝ δεν μπορεί σε δύο ή πέντε, ή δέκα ή είκοσι χρόνια να είναι διακριτή από την ανθρώπινη νοημοσύνη, αν και να προέρχεται διαφορετικά από την ανθρώπινη νοημοσύνη.
Επιπλέον, τι μετράει ως νοημοσύνη; Τι μετράει ως δημιουργικότητα και παροχή εξηγήσεων; Τι μετράει ως κατανόηση; Κοιτάζοντας τις τρέχουσες αναφορές, βίντεο κ.λπ., ακόμη και αν περιέχουν ένα σωρό διαφημιστικά μηνύματα που αποσκοπούν στο κέρδος, όπως είμαστε βέβαιοι ότι συμβαίνει, πιστεύουμε ότι τα προγράμματα τεχνητής νοημοσύνης σε ορισμένους τομείς (π.χ. παίζοντας πολύπλοκα παιχνίδια, αναδιπλώνοντας πρωτεΐνες και βρίσκοντας μοτίβα σε μάζες δεδομένων) τα καταφέρνουν ήδη καλύτερα από τους ανθρώπους που είναι καλύτεροι σε αυτές τις επιδιώξεις, και ήδη τα καταφέρνουν καλύτερα από τους περισσότερους ανθρώπους, σε πολλούς ακόμη τομείς.
Για παράδειγμα, πόσοι άνθρωποι μπορούν να παράγουν έργα τέχνης καλύτερα από τις σημερινές τεχνητές νοημοσύνες; Εμείς σίγουρα δεν μπορούμε. Πόσοι καλλιτέχνες μπορούν να το κάνουν αυτό ακόμη και σήμερα, πόσο μάλλον σε ένα χρόνο από τώρα; Ένας πανέξυπνος φίλος μου είπε μόλις χθες ότι έπρεπε να γράψει μια πολύπλοκη επιστολή για τη δουλειά του. Ζήτησε από το chatGPT να το κάνει. Μέσα σε ένα μακρύ ανοιγοκλείσιμο των ματιών το είχε. Είπε ότι ήταν άψογο και παραδέχτηκε ότι ήταν καλύτερο από ό,τι θα παρήγαγε ο ίδιος. Και αυτό συνέβη παρά το γεγονός ότι έχει γράψει εκατοντάδες επιστολές. Δεν είναι αυτό κοινωνικά πιο ανησυχητικό από ό,τι όταν πριν από δεκαετίες οι άνθρωποι χρησιμοποίησαν για πρώτη φορά μια φωτογραφική μηχανή, έναν επεξεργαστή κειμένου, ένα λογιστικό φύλλο ή έναν ορθογραφικό έλεγχο; Είναι αυτό απλώς ένα ακόμη παράδειγμα της τεχνολογίας που κάνει κάποιες εργασίες ευκολότερες; Οι Τεχνητές Νοημοσύνες που ήδη κάνουν ένα σωρό εργασίες που προηγουμένως θεωρούνταν καθαρά ανθρώπινες μετράνε ως απόδειξη ότι οι Τεχνητές Νοημοσύνες μπορούν να κάνουν τόσα πολλά και πιθανότατα πολύ περισσότερα; Ή, παραδόξως, αυτό που κάνουν μετράει ως απόδειξη ότι δεν θα μπορέσουν ποτέ να κάνουν τόσα πολλά ή περισσότερα;
Ανησυχούμε ότι το να απορρίπτουμε τη σημασία των σημερινών ΤΝ επειδή δεν ενσωματώνουν ανθρώπινους μηχανισμούς κινδυνεύει να συσκοτίσει ότι η ΤΝ έχει ήδη εκτεταμένες κοινωνικές επιπτώσεις που θα έπρεπε να μας απασχολούν για πρακτικούς, ψυχολογικούς και ίσως για λόγους ασφαλείας. Ανησυχούμε ότι μια τέτοια απόρριψη μπορεί να σημαίνει ότι οι ΤΝ δεν χρειάζονται πολύ ουσιαστική ρύθμιση. Είχαμε αποτελεσματικά μορατόριουμ για την κλωνοποίηση ανθρώπων, μεταξύ άλλων χρήσεων της τεχνολογίας. Το παράθυρο για τη ρύθμιση της ΤΝ, ωστόσο, κλείνει γρήγορα. Ανησυχούμε ότι το ζητούμενο δεν είναι τόσο να διαλύσουμε την υπερβολική διαφημιστική εκστρατεία για την ΤΝ όσο να αναγνωρίσουμε τις αυξανόμενες δυνατότητες της ΤΝ και να κατανοήσουμε όχι μόνο τα πιθανά οφέλη της αλλά και τους επικείμενους και μακροπρόθεσμους κινδύνους της, ώστε να μπορέσουμε να σκεφτούμε πώς θα τη ρυθμίσουμε αποτελεσματικά. Ανησυχούμε ότι το πραγματικά πιεστικό ρυθμιστικό έργο θα μπορούσε να υπονομευθεί με το να αποκαλείται αυτό που συμβαίνει “επιφανειακό και αμφίβολο” ή “λογοκλοπή υψηλής τεχνολογίας”, ώστε να αντιμετωπιστεί η διαφημιστική εκστρατεία.
Είναι επείγουσα η έξυπνη ρύθμιση; Για εμάς, είναι προφανές ότι είναι. Και βλέπουμε αντίθετα μια ιλιγγιώδη πρόοδο; Για εμάς, φαίνεται προφανές ότι το κάνουμε. Η ανθρώπινη εφευρετικότητα μπορεί να δημιουργήσει μεγάλα άλματα που μοιάζουν με μαγεία και ακόμη και να προκαλέσουν φαινομενικά θαύματα. Ο καπιταλισμός που δεν αντιστέκεται μπορεί να μετατρέψει ακόμα και μεγάλα άλματα σε πόνο και φρίκη. Για να το αποφύγουμε αυτό, χρειαζόμαστε σκέψη και ακτιβισμό που κερδίζει ρυθμίσεις.
Τεχνολογίες όπως το ChatGPT δεν υπάρχουν στο κενό. Υπάρχουν μέσα στις κοινωνίες και στους πολιτικούς, οικονομικούς, κοινοτικούς και συγγενικούς θεσμούς που τις καθορίζουν.
Οι ΗΠΑ βρίσκονται εν μέσω μιας κρίσης ψυχικής υγείας με σχεδόν όλες τις μετρήσεις της ψυχικής υγείας να έχουν ξεπεράσει κάθε όριο: Οι αυτοκτονίες και οι “θάνατοι από απελπισία” βρίσκονται σε ιστορικά επίπεδα. Η αποξένωση, το στρες, το άγχος και η μοναξιά είναι ανεξέλεγκτα. Σύμφωνα με το Stress in America της Αμερικανικής Ψυχολογικής Εταιρείας, οι πρωταρχικοί παράγοντες της κατάρρευσής μας είναι συστημικοί: οικονομικό άγχος, συστημικές καταπιέσεις, αποξένωση από τους πολιτικούς, οικονομικούς και κοινωνικούς μας θεσμούς. Ο καπιταλισμός μας ατομικοποιεί. Στη συνέχεια, εμπορευματοποιεί τις ουσιαστικές συνδέσεις σε ανούσιες.
Οι αλγόριθμοι των μέσων κοινωνικής δικτύωσης υπολογίζουν το σωστό χτύπημα που ποτέ δεν ικανοποιεί πραγματικά. Μας κρατούν να ψάχνουμε για περισσότερα. Με τον ίδιο τρόπο που τα Μέσα Κοινωνικής Δικτύωσης είναι σχεδιασμένα να προκαλούν εθισμό μέσω του περιεχομένου που δημιουργούν οι χρήστες, το γλωσσικό μοντέλο τεχνητής νοημοσύνης έχει τη δυνατότητα να είναι πολύ πιο εθιστικό και επιζήμιο. Ιδιαίτερα για ευάλωτους πληθυσμούς, η ΤΝ μπορεί να ρυθμιστεί ώστε να μαθαίνει και να εκμεταλλεύεται τα τρωτά σημεία του κάθε ατόμου – δημιουργώντας περιεχόμενο, ακόμη και στυλ παρουσίασης, ειδικά για να προσελκύσει τους χρήστες.
Σε μια κοινωνία με ανεξέλεγκτη αποξένωση, η ΤΝ μπορεί να εκμεταλλευτεί την ανάγκη μας για σύνδεση. Φανταστείτε εκατομμύρια ανθρώπους που είναι συνδεδεμένοι σε συνδρομητικές υπηρεσίες ΤΝ και αναζητούν απεγνωσμένα σύνδεση. Το κίνητρο του κέρδους θα δώσει κίνητρο στις εταιρείες ΤΝ όχι μόνο να προσελκύουν όλο και περισσότερους χρήστες, αλλά και να τους κρατούν να επιστρέφουν.
Μόλις συνδεθούν, οι δυνατότητες παραπληροφόρησης και προπαγάνδας ξεπερνούν κατά πολύ ακόμη και τα μέσα κοινωνικής δικτύωσης. Αν η τεχνητή νοημοσύνη αντικαταστήσει την ανθρώπινη εργασία σε τομείς που καθορίζονται από τον άνθρωπο, τι μένει τότε από το “να είσαι άνθρωπος”; Περιμένοντας την καθοδήγηση της ΤΝ; Να περιμένουμε εντολές της ΤΝ;
Η σαφήνεια σχετικά με το τι πρέπει να γίνει μπορεί να προκύψει μόνο από την περαιτέρω κατανόηση του τι συμβαίνει. Αλλά ακόμη και μετά από λίγους μήνες εμπειριών από την ΤΝ, οι προτάσεις για ελάχιστες ρυθμίσεις φαίνονται αρκετά εύκολα να προκύπτουν. Για παράδειγμα:
- Νομοθετήστε ότι όλα τα λογισμικά και οι αλγόριθμοι ΤΝ που έχουν δημόσιο αντίκτυπο πρέπει να είναι ανοικτού κώδικα, επιτρέποντας τον έλεγχο του πηγαίου τους κώδικα από το κοινό.
- Να δημιουργηθεί ένας νέος ρυθμιστικός φορέας, παρόμοιος με τον FDA, για το λογισμικό με δημόσιο αντίκτυπο.
- Νομοθετήστε ότι όλο το περιεχόμενο που παράγεται με τεχνητή νοημοσύνη, είτε πρόκειται για φωνή, συνομιλία, εικόνα, βίντεο κ.λπ., πρέπει να περιλαμβάνει ένα σαφώς ορατό/ακουστό, τυποποιημένο υδατογράφημα/φωνητικό σήμα που να δηλώνει ότι το περιεχόμενο παράγεται από τεχνητή νοημοσύνη, το οποίο ο χρήστης πρέπει να αναγνωρίσει.
- Νομοθετήστε ότι όλο το περιεχόμενο που παράγεται από ΤΝ πρέπει να παρέχει κατάλογο όλων των συγκεκριμένων πηγών που χρησιμοποιήθηκαν/μαθαίνουν για τη δημιουργία του συγκεκριμένου περιεχομένου, συμπεριλαμβανομένων των βαρών.
- Νομοθετήστε ότι κάθε επιχείρηση, οργανισμός ή άτομο που δημιουργεί και διανέμει σκόπιμα παραπλανητικό ή/και παραπλανητικό ψευδές περιεχόμενο που έχει δημιουργηθεί με τεχνητή νοημοσύνη θα υπόκειται σε αυστηρές κυρώσεις.
- Νομοθετήστε ότι καμία εταιρεία, δημόσια ή ιδιωτική, δεν μπορεί να αντικαταστήσει εργαζόμενους με ΤΝ εκτός εάν η κυβέρνηση εγκρίνει το βήμα ως σύμφωνο με τις ανθρώπινες προτεραιότητες (και όχι μόνο με την επιδίωξη κέρδους), το εργατικό δυναμικό του χώρου εργασίας ψηφίζει υπέρ της αλλαγής ως σύμφωνη με τις συνθήκες και τις επιθυμίες του εργατικού δυναμικού (και όχι μόνο με την επιδίωξη κέρδους) και οι αντικατασταθείσες εργαζόμενες συνεχίζουν να λαμβάνουν τον τρέχοντα μισθό τους από την παλιά τους εταιρεία μέχρι να προσληφθούν σε μια νέα εταιρεία.