Αναδημοσιεύουμε σε μετάφραση το εξαιρετικό κείμενο των Karen Hao και Charlie Warzel, για τις ραγδαίες εξελίξεις στην εταιρεία που έχει υπό την ιδιοκτησία της το Chat-GPT, διότι είναι χαρακτηριστικό για το ποιοι άνθρωποι και πώς, αποφασίζουν για τεχνολογικές εξελίξεις που θα επηρεάσουν το μέλλον ολόκληρης της ανθρωπότητας. Α.-Ρ.
Των Karen Hao και Charlie Warzel
Από το The Atlantic, 20 Νοεμβρίου 2023
Για να κατανοήσει κανείς πραγματικά τα γεγονότα του περασμένου Σαββατοκύριακου, τη σοκαριστική, αιφνίδια απομάκρυνση του διευθύνοντος συμβούλου της OpenAI Σαμ Άλτμαν (ίσως της πιο χαρακτηριστικής φιγούρας της Γενικής Τεχνητής Νοημοσύνης) που την διαδέχθηκαν αναφορές πως η εταιρεία βρίσκεται σε συζητήσεις για την επαναφορά του, και αποκαλύψεις ότι ο ίδιος ενδέχεται να ξεκινήσει μια νέα εταιρία ΤΝ υπό την αιγίδα της Microsoft, πρέπει να κατανοήσει πως η OpenAI δεν είναι μια εταιρεία τεχνολογίας. Τουλάχιστον, όχι όπως οι άλλες εμβληματικές εταιρείες της εποχής του διαδικτύου, όπως είναι η Meta (Facebook) και η Google.
Η OpenAI οργανώθηκε με τέτοιο τρόπο ώστε να σκόπιμα για να αντιπαλέψει τις αξίες που καθοδηγούν μεγάλο μέρος της βιομηχανίας των τεχνολογιών -ανελέητη επιδίωξη οικονομιών κλίμακας, και βιαστικό λανσάρισμα καταναλωτικών προϊόντων. Ιδρύθηκε το 2015 ως μια μη κερδοσκοπική εταιρεία αφιερωμένη στην ανάπτυξη της γενικής τεχνητής νοημοσύνης ή ΓΤΝ, με σκοπό «να ωφελήσει την ανθρωπότητα στο σύνολό της». (σύμφωνα με τα λεγόμενα της εταιρείας, ΓΤΝ θα είναι αρκετά προηγμένη ώστε να ξεπερνάει κάθε άνθρωπο στην «πιο πολύτιμη από οικονομική άποψη εργασία», επρόκειτο δηλαδή ακριβώς για το είδος της κατακλυσμιαίας ισχυρής τεχνολογίας που απαιτεί έναν εξαιρετικά υπεύθυνο διαχειριστή). Σε αυτή την κατεύθυνση, η OpenAI θα λειτουργούσε περισσότερο σαν ένα ερευνητικό ινστιτούτο ή μια δεξαμενή σκέψης. Το καταστατικό της εταιρείας δηλώνει ευθέως ότι η «πρωταρχικό καθήκον της OpenAI είναι προς την ανθρωπότητα», όχι προς τους επενδυτές, ούτε ακόμα στους εργαζόμενους.
Όμως αυτό το μοντέλο δεν άντεξε για πολύ. Το 2019, η OpenAI ίδρυσε μια θυγατρική εταιρεία «περιορισμένου κέρδους» που θα μπορούσε να συγκεντρώσει χρήματα, να προσελκύσει κορυφαία ταλέντα και αναπόφευκτα να κατασκευάσει εμπορικά προϊόντα. Αλλά το διοικητικό συμβούλιο της μη κερδοσκοπικής εταιρείας διατήρησε τον απόλυτο έλεγχο. Αυτή η εταιρική λεπτομέρεια είναι κεντρική στην ιστορία της ραγδαίας ανόδου της OpenAI και της συγκλονιστικής πτώσης του Altman. Η αποπομπή του Altman από το διοικητικό συμβούλιο της OpenAI την Παρασκευή ήταν το αποκορύφωμα μιας μάχης εξουσίας μεταξύ των δύο ιδεολογικών παρατάξεων που δρούσαν εντός της εταιρείας – μιας ομάδας που γεννήθηκε από την τεχνο-αισιοδοξία της Silicon Valley, και ισχυροποιήθηκε από την ταχεία εμπορευματοποίηση, και μια άλλη που διαπνέεται από φόβους ότι η τεχνητή νοημοσύνη αποτελεί υπαρξιακό κίνδυνο για την ανθρωπότητα και πρέπει να εξελίσσεται με τεράστια προσοχή. Επί χρόνια, οι δύο πλευρές κατόρθωσαν να συνυπάρξουν, παρά τις συγκρούσεις που προέκυπταν στην πορεία.
Αυτή η εύθραυστη ισορροπία έσπασε πριν από ένα χρόνο σχεδόν, σύμφωνα με νυν και πρώην εργαζόμενους, χάρη στην κυκλοφορία αυτού ακριβώς που έστρεψε το ενδιαφέρον όλου του πλανήτη στην OpenAI: του ChatGPT. Κοιτώντας τα πράγματα από έξω, το ChatGPT έμοιαζε με ένα από τα πιο επιτυχημένα λανσαρίσματα προϊόντων όλων των εποχών. Αναπτύχθηκε ταχύτερα από οποιαδήποτε άλλη καταναλωτική εφαρμογή στην ιστορία, και φάνηκε να επαναπροσδιορίζει μόνο του το πώς εκατομμύρια άνθρωποι κατανοούσαν την απειλή -και την υπόσχεση- της αυτοματοποίησης. Την ίδια στιγμή, όμως, στο εσωτερικό της OpenAI, η επιτυχία του λογισμικού έστειλε τις δύο αυτές παρατάξεις προς διαμετρικά αντίθετες κατευθύνσεις, διευρύνοντας και επιδεινώνοντας τα ήδη υφιστάμενα ιδεολογικά ρήγματα.
Το ChatGPT επιτάχυνε την κούρσα για τη δημιουργία προϊόντων με σκοπό το κέρδος, καθώς ταυτόχρονα συσσωρεύτηκε μια πρωτοφανής πίεση στις υποδομές της εταιρείας και στους υπαλλήλους που επικεντρώνονταν στην αξιολόγηση και τον μετριασμό των κινδύνων της τεχνολογίας. Αυτό επιβάρυνε την ήδη τεταμένη σχέση μεταξύ των παρατάξεων της OpenAI – που ο ίδιος ο Altman αποκάλεσε ως «φυλές», σε ένα email του προς το προσωπικό που έστειλε το 2019.
Από συνομιλίες που έγιναν μεταξύ του Atlantic και 10 νυν και πρώην εργαζομένων στην OpenAI, προέκυψε η εικόνα μιας μεταμόρφωσης της εταιρείας που δημιούργησε μια μη βιώσιμη διαίρεση στους κόλπους της διοίκησής της. (Συμφωνήσαμε να μην κατονομάσουμε κανέναν από τους υπαλλήλους – όλοι μας εξήγησαν ότι φοβούνται τις επιπτώσεις στην περίπτωση που μιλήσουν ανοιχτά στον Τύπο για τα εσωτερικά της OpenAI). Οι μαρτυρίες τους καταδεικνύουν πως η πίεση που ασκούσε η υπέρ της κερδοφορίας παράταξη για την εμπορευματοποίηση της εταιρείας αυξανόταν μέρα με την ημέρα και συγκρούστηκε με τη ρητή αποστολή της εταιρείας, μέχρι που φτάσαμε στο αποκορύφωμα με το λανσάρισμα του ChatGPT και των άλλων προϊόντων που ακολούθησαν σε σύντομο χρονικό διάστημα. «Μετά το ChatGPT, υπήρχε σαφής πορεία προς την μεγιστοποίηση των εσόδων, και των κερδών», μας είπε μια πηγή. «Δεν μπορούσες πλέον να υποστηρίξεις ότι είσαι ένα ιδεαλιστικό ερευνητικό εργαστήριο. Υπήρχαν πελάτες που ζητούσαν να εξυπηρετηθούν εδώ και τώρα».
Ακόμα δεν γνωρίζουμε γιατί ακριβώς απολύθηκε ο Altman, ενώ δεν απάντησε σε κανένα από τα αιτήματά μας για σχολιασμό. Το Συμβούλιο του ανακοίνωσε την Παρασκευή ότι «μια διαδικασία εξέτασης» διαπίστωσε ότι «δεν ήταν σταθερά ειλικρινής και ανοιχτός στις επικοινωνίες του με το Συμβούλιο», με αποτέλεσμα να χάσει την εμπιστοσύνη του από αυτό.
Ένα εσωτερικό υπόμνημα προς τους υπαλλήλους, επιβεβαιωμένο από εκπρόσωπο της OpenAI, ανέφερε στη συνέχεια ότι η απόλυση προέκυψε έπειτα από μια «διακοπή των επικοινωνιών μεταξύ» του Άλτμαν και του Διοικητικού Συμβουλίου, και όχι λόγω «κακών συμπεριφορών ή οτιδήποτε άλλου σχετιζόμενου με τις πρακτικές της εταιρείας ως προς την ασφάλεια, τα κέρδη ή την προστασία προσωπικών δεδομένων». Πιο συγκεκριμένες λεπτομέρειες, δεν δημοσιοποιήθηκαν. Εκείνο που γνωρίζουμε όμως είναι ότι η περασμένη χρονιά υπήρξε χαοτική για την Open AI, και καθορίστηκε σχεδόν αποκλειστικά από την εσωτερική διχογνωμία που επικρατούσε για την κατεύθυνση που πρέπει να λάβει η εταιρεία.
Το φθινόπωρο του 2022, πριν από την κυκλοφορία του ChatGPT, στην OpenAI δούλευαν πυρετωδώς για να προετοιμάσουν την κυκλοφορία του πιο ισχυρού Μεγάλου Γλωσσικού Μοντέλου (LLM) μέχρι σήμερα, του GPT-4. Οι εσωτερικές ομάδες πάσχιζαν για να βελτιστοποιήσουν την τεχνολογία του, μέσω της οποίας το GPT-4 μπορούσε να γράψει πεζό λόγο, και κώδικα, αλλά και να περιγράψει το περιεχόμενο εικόνων. Παράλληλα, εργαζόταν ώστε να προετοιμάσουν την απαραίτητη υποδομή για την υποστήριξη του προϊόντος και να βελτιστοποιήσουν τις προδιαγραφές που θα καθόριζαν ποιες συμπεριφορές χρηστών ήταν αποδεκτές και ποιες όχι για την χρήση του λογισμικού της εταιρείας.
Εν μέσω όλων αυτών, άρχισαν να διαδίδονται φήμες στην εταιρεία πως οι ανταγωνιστές της στην Anthropic ανέπτυσσαν ένα δικό τους chatbot. Η αντιπαλότητα είχε και μια προσωπική διάσταση: Η Anthropic είχε σχηματιστεί αφότου μια ομάδα εργαζομένων εγκατέλειψε την OpenAI το 2020 – σύμφωνα με πληροφορίες, λόγω ανησυχιών για το πόσο γρήγορα η εταιρεία λάνσαρε τα προϊόντα της. Σύμφωνα με μαρτυρίες από μέλη του προσωπικού που εργαζόταν εκείνη την εποχή στην εταιρεία, τον Νοέμβριο, η διοίκηση ανακοίνωσε στους εργαζόμενους πως θα έπρεπε να κυκλοφορήσουν κι εκείνοι ένα chatbot μέσα σε λίγες εβδομάδες. Για να επιτευχθεί κάτι τέτοιο, δόθηκε η εντολή στους υπαλλήλους να δημοσιευθεί ένα υπάρχον μοντέλο, το GPT-3.5, με ένα περιβάλλον χρήσης που να περιέχει ένα παράθυρο διαλόγου. Η διοίκηση φρόντισε να παρουσιάσει την πρωτοβουλία όχι ως κυκλοφορία ενός τελικού, αλλά ως μια «δοκιμαστική κυκλοφορία για ερευνητικούς σκοπούς». Θέτοντας το GPT-3.5 στα χέρια του κοινού, ισχυρίστηκαν ο Altman και άλλα στελέχη, η OpenAI θα μπορούσε να συλλέξει περισσότερα δεδομένα σχετικά με το πώς οι άνθρωποι θα χρησιμοποιούσαν και θα αλληλεπιδρούσαν με την τεχνητή νοημοσύνη, γεγονός που θα βοηθούσε την εταιρεία να βελτιστοποιήσει την ανάπτυξη του GPT-4. Η προσέγγιση αυτή ευθυγραμμιζόταν και με την ευρύτερη στρατηγική εφαρμογών που ακολουθούσε η εταιρεία, να ανοίγει σταδιακά τις τεχνολογίες της στο κοινό, ώστε αυτό να εξοικειώνεται σιγά-σιγά με την χρήση τους. Ορισμένα στελέχη, μεταξύ των οποίων και ο Altman, άρχισαν να παπαγαλίζουν τους ίδιους και τους ίδιους ισχυρισμούς: Η OpenAI είχε ανάγκη από την ελεύθερη ροή δεδομένων.
Λίγοι υπάλληλοι ήταν εκείνοι που εξέφρασαν δυσφορία για την εσπευσμένη κυκλοφορία αυτής της νέας εφαρμογής συνομιλιών. Η εταιρεία ήταν ήδη καταπονημένη από την προετοιμασία του GPT-4 και δεν ήταν σε θέση να χειριστεί ένα chatbot που θα μπορούσε να μεταβάλει ριζικά τον βαθμό έκθεσης στο ρίσκο. Μόλις λίγους μήνες νωρίτερα, η OpenAI είχε θέσει σε λειτουργία μια νέα εφαρμογή παρακολούθησης της επισκεψιμότητας, που ιχνηλατούσε βασικές συμπεριφορές των χρηστών. Το συγκεκριμένο εργαλείο ήταν ακόμα στο στάδιο επέκτασης των δυνατοτήτων του για την κατανόηση της χρήσης των προϊόντων της εταιρείας από το κοινό, πράγμα που θα επηρέαζε και τον τρόπο προσέγγισης επί των περιορισμών σε ό,τι αφορά στους πιθανούς κινδύνους και καταχρήσεις της. Άλλοι εργαζόμενοι θεώρησαν ότι η μετατροπή του GPT-3.5 σε chatbot δεν έκρυβε σημαντικούς κινδύνους, μιας και το ίδιο το μοντέλο είχε περάσει επαρκώς από διαδικασίας δοκιμασίας και επαλήθευσης.
Η εταιρεία πίεσε τα πράγματα, κι έτσι το ChatGPT κυκλοφόρησε στις 30 Νοεμβρίου. Ωστόσο, το λανσάρισμα έγινε σε τόσο χαμηλούς τόνους που αρκετοί εργαζόμενοι οι οποίοι δεν είχαν άμεση συμμετοχή, αλλά και εκείνοι που απασχολούνταν στα σχετιζόμενα με την ασφάλεια τμήματα, δεν συνειδητοποίησαν καν ότι είχε συμβεί. Άλλοι που γνώριζαν, σύμφωνα με μαρτυρίες, είχαν ξεκινήσει τα στοιχήματα για το πόσοι θα το χρησιμοποιούσαν μέσα σε μια εβδομάδα. Η πιο αισιόδοξη εκτίμηση μιλούσε για 100.000 χρήστες.
Πέντε μέρες μετά, ο πρόεδρος της OpenAI ανακοίνωνε στο τουΐτερ πως το εργαλείο έφτασε τους 1 εκατομμύριο χρήστες μέσα στις πρώτες πέντε ημέρες. Η φράση «δοκιμαστική κυκλοφορία για ερευνητικούς σκοπούς» έγινε αμέσως αντικείμενο διακωμώδησης μεταξύ των υπαλλήλων της εταιρείας.
Η αλματώδης επιτυχία της πλατφόρμας, επιβάρυνε εξαιρετικά τους πόρους της εταιρείας. Η υπολογιστική ισχύς των ερευνητικών της ομάδων ανακατευθύνθηκε προκειμένου να υποστηρίξει τις ανάγκες της κυκλοφορίας του. Καθώς εκείνη συνέχισε να αυξάνεται, οι διακομιστές της εταιρείες κατέρρευσαν επανειλημμένα· επίσης, και το εργαλείο παρακολούθησης της επισκεψιμότητας αντιμετώπιζε προβλήματα λειτουργίας. Ακόμα και όταν λειτουργούσε, όμως, οι εργαζόμενοι δυσκολευόταν να συναγάγουν τα συμπεράσματα που ήθελαν ως προς την συμπεριφορά και τις προτιμήσεις των χρηστών.
Οι ομάδες ασφαλείας της εταιρείας, πίεσαν ώστε να τα πράγματα να επιβραδυνθούν. Εργάστηκαν ώστε το ChatGPT να απορρίπτει ορισμένους τύπους καταχρηστικών αιτημάτων, και να απαντά σε άλλα με πιο κατάλληλους τρόπους. Άλλοι εντός της εταιρείας πάσχιζαν να δημιουργήσουν επιπρόσθετες δικλείδες, όπως μια αυτοματοποιημένη λειτουργία για την απαγόρευση εισόδου στην πλατφόρμα χρηστών που καταχράστηκαν επανειλημμένα τις δυνατότητές της. Από την άλλη πλευρά, έτερη παράταξη επιθυμούσε να κινηθεί γρηγορότερα και να αξιοποιήσει την δυναμική που είχε διαμορφωθεί, ώστε να διπλασιάσει την εμπορική αξιοποίηση της πλατφόρμας. Έτσι, εκατοντάδες επιπλέον εργαζόμενοι θα προσληφθούν για να αναπτύξουν με επιθετικό τρόπο τις προσφορές τις εταιρείας. Τον Φεβρουάριο, η OpenAI κυκλοφόρησε μια επί πληρωμή έκδοση του ChatGPT· τον Μάρτιο, ακολούθησε γρήγορα ένα εργαλείο API, ή αλλιώς διεπαφή προγραμματισμού εφαρμογών, που θα βοηθούσε τις επιχειρήσεις να ενσωματώσουν το ChatGPT στα προϊόντα τους. Δύο εβδομάδες αργότερα, κυκλοφόρησε και το GPT-4.
Η πληθώρα νέων προϊόντων επιδείνωσε τα πράγματα, σύμφωνα με τρεις υπαλλήλους που εργάζονταν στην εταιρεία εκείνη την εποχή. Η λειτουργικότητα του εργαλείου παρακολούθησης της κίνησης συνέχισε να υστερεί σημαντικά, παρέχοντας περιορισμένη ορατότητα σχετικά με το ποια κίνηση προερχόταν από ποια προϊόντα στα οποία ενσωματώνονταν το ChatGPT και το GPT-4, μέσω του νέου εργαλείου API, γεγονός που καθιστούσε ακόμα πιο δύσκολο τον εντοπισμό και την αντιμετώπιση των καταχρήσεων. Ταυτόχρονα, άρχισαν να εκδηλώνονται και απάτες, καθώς οι χρήστες δημιουργούσαν πολλαπλούς λογαριασμούς, για να εξαργυρώσουν μια πίστωση 20 δολαρίων
Ταυτόχρονα, η απάτη άρχισε να αυξάνεται στην πλατφόρμα API, καθώς οι χρήστες δημιουργούσαν λογαριασμούς σε κλίμακα, επιτρέποντάς τους να εξαργυρώσουν μια πίστωση 20 δολαρίων για την υπηρεσία pay-as-you-go που συνοδεύει κάθε νέο λογαριασμό. Η αντιμετώπιση της απάτης έγινε ύψιστη προτεραιότητα, ώστε να αναχαιτιστεί η απώλεια εσόδων.
Υπάλληλοι από τμήματα που σχετίζονται με την εμπιστοσύνη και την ασφάλεια, τα οποία ήταν ήδη υποστελεχωμένα, μετατάχθηκαν ώστε να επικεντρωθούν σε αυτό το θέμα. Κάτω από την αυξανόμενη πίεση, ορισμένοι εργαζόμενοι εκδήλωσαν προβλήματα ψυχικής υγείας. Η ποιότητα της επικοινωνίας ήταν κακή. Αρκετοί εργαζόμενοι θα μάθαιναν ότι διάφοροι συνάδελφοί τους απολύθηκαν, μόνον αφότου έκαναν καιρό να εμφανιστούν στο Slack (εσωτερική πλατφόρμα ψηφιακής επικοινωνίας) της εταιρείας.
Η κυκλοφορία του GPT-4 προκάλεσε και την απογοήτευση της ομάδας που ήταν επιφορτισμένη με την προδιαγραφοποίηση των προϊόντων, η οποία είχε επικεντρωθεί σε πιο προωθημένες προκλήσεις ασφάλειας της τεχνητής νοημοσύνης, όπως η ανάπτυξη διαφόρων τεχνικών που θα έκαναν το μοντέλο να ακολουθεί τις οδηγίες του χρήστη και θα το απέτρεπαν από το να εκτοξεύει τοξική ομιλία ή να μεταδίδει «παραισθήσεις» –παρουσιάζοντας με αυτοπεποίθηση ψευδή στοιχεία ως γεγονότα. Πολλά μέλη της ομάδας, συμπεριλαμβανομένης μιας αυξανόμενης μερίδας που φοβόταν τον υπαρξιακό κίνδυνο των πιο προηγμένων μοντέλων τεχνητής νοημοσύνης, ένιωθαν άβολα με το πόσο γρήγορα το GPT-4 είχε κυκλοφορήσει και ενσωματωθεί ευρέως σε άλλα προϊόντα. Πίστευαν ότι το έργο τους για την ασφάλεια της τεχνητής νοημοσύνης ήταν ανεπαρκές.
Οι εντάσεις κλιμακώθηκαν στα ανώτατα κλιμάκια της εταιρείας. Ο Altman και ο Πρόεδρος της OpenAI, Greg Brockman, πίεζαν ακόμα περισσότερο υπέρ της εμπορικής αξιοποίησης, ενώ ο επικεφαλής του επιστημονικού μάνατζμεντ της εταιρείας, Ilya Sutskever, ανησυχούσε περισσότερο για το εάν η OpenAI όντως τηρεί τους κανόνες που διέπουν την μη κερδοσκοπική αποστολή της να αναπτύξει την Γενική Τεχνική Νοημοσύνη κοινής ωφέλειας. Τα τελευταία χρόνια, η ταχεία ανάπτυξη των μεγάλων γλωσσικών μοντέλων του OpenAI, είχε κάνει τον Sutskever πιο σίγουρο ότι η επίτευξη της ΓΝΤ ήταν ζήτημα χρόνου, και ως εκ τούτου επικεντρωνόταν ολοένα και περισσότερο στην πρόληψη των πιθανών κινδύνων που έκρυβε.
(Ο Sutskever δεν ανταποκρίθηκε σε αίτημα σχολιασμού.)
Σύμφωνα με τρεις υπαλλήλους που δούλευαν μαζί του, προβλέποντας την άφιξη της παντοδύναμης τεχνολογίας, ο Sutskever άρχισε να συμπεριφέρεται σαν πνευματικός ηγέτης. Η συνεχής, ενθουσιώδης επωδός του ήταν «νιώστε την ΓΤΝ», μια αναφορά στην ιδέα ότι η εταιρεία ήταν στο κατώφλι του τελικού της στόχου. Στο εορταστικό πάρτι του OpenAI για το 2022, που πραγματοποιήθηκε στην Ακαδημία Επιστημών της Καλιφόρνιας, ο Sutskever κάλεσε τους υπαλλήλους να τον ακολουθήσουν σε ένα τραγούδι με ρεφρέν: «Νιώστε την ΓΤΝ!». Καθώς η φράση έγινε αρκετά δημοφιλής ώστε οι υπάλληλοι του δημιούργησαν και ένα ειδικό emoji αντίδρασης «Feel the AGI» στο Slack.
Όσο περισσότερο συνειδητοποιούσε τη δύναμη της τεχνολογίας της OpenAI, ο Sutskever, τόσο πιο πολύ συμμαχούσε με την παράταξη που επισήμαινε τον υπαρξιακό κίνδυνο που αντιπροσωπεύει η ΓΤΝ μέσα στην εταιρεία. Σε μια συνάντηση της διοίκησης, σύμφωνα με δύο παρευρισκόμενα άτομα, ο Sutskever έκαψε ένα ξύλινο ομοίωμα που είχε παραγγείλει από έναν τοπικό καλλιτέχνη και προοριζόταν να αναπαραστήσει μια «μη ευθυγραμμισμένη» τεχνητή νοημοσύνη, δηλαδή μια εκδοχή της που δεν ανταποκρίνεται στους στόχους που θέτει ο άνθρωπος για αυτήν. Η πράξη του, έγινε για να συμβολίσει τη δέσμευση της OpenAI στις ιδρυτικές αρχές της. Τον Ιούλιο, η Open AI ανακοίνωσε ότι θα δημιουργήσει μια ομάδα ‘υπερ-ευθυγράμμισης’ με τον Sutskever να αναλαμβάνει συν-επικεφαλής της έρευνας. Η OpenAI θα επεκτείνει την έρευνα της ομάδας ευθυγράμμισης για να αναπτύξει ανώτερες τεχνικές ασφάλειας της τεχνητής νοημοσύνης, που θα δεσμεύει το 20% της υπολογιστικής ισχύος της εταιρείας, στο πλαίσιο της προετοιμασίας της για την έλευση της ΓΤΝ εντός της δεκαετίας.
Εν τω μεταξύ, η υπόλοιπη εταιρεία συνέχισε να κυκλοφορεί νέα προϊόντα. Λίγο μετά το σχηματισμό της ομάδας superalignment, η OpenAI κυκλοφόρησε ένα ισχυρό πρόγραμμα κατασκευής, το DALL-E 3. Νωρίτερα μέσα στον Νοέμβριο, η εταιρεία πραγματοποίησε το πρώτο της «συνέδριο προγραμματιστών», όπου ο Altman παρουσίασε τα GPTs, που είναι προσαρμόσιμες εκδόσεις του ChatGPT που μπορούν να κατασκευαστούν χωρίς προγραμματισμό. Και πάλι, όμως, εμφανίστηκαν σημαντικά προβλήματα: Η OpenAI αντιμετώπισε μια σειρά από διακοπές λειτουργίας, συμπεριλαμβανομένης μιας μαζικής διακοπής σε όλο το ChatGPT και τα API της, σύμφωνα με τις ενημερώσεις της εταιρείας. Λίγες ημέρες μετά το συνέδριο προγραμματιστών, η Microsoft περιόρισε προσωρινά την πρόσβαση των εργαζομένων στο ChatGPT, λόγω ανησυχιών για την ασφάλεια, σύμφωνα με το CNBC.
Παρ’ όλα αυτά, ο Altman συνέχισε. Τις ημέρες πριν απολυθεί, ο ίδιος δημιουργούσε αρκετό θόρυβο για τη συνεχή πρόοδο στην OpenAI. Στους Financial Times, δήλωσε ότι η εταιρία του έχει αρχίζει ήδη να εργάζεται πάνω στο GPT-5, ενώ, λίγες μέρες αργότερα, στην συνδιάσκεψη κορυφής της Συνεργασίας Ασίας – Ειρηνικού, υπαινίχθηκε πως κάτι απίστευτο θα συνέβαινε με την νέα έκδοση της πλατφόρμας. «Μόλις τις τελευταίες δύο εβδομάδες, είχα την ευκαιρία να βρίσκομαι στο δωμάτιο, όπου κατά κάποιον τρόπο σπρώχνουμε το πέπλο της άγνοιας πίσω και τα σύνορα της ανακάλυψης μπροστά», είπε. [ ]
Σύμφωνα με δημοσιεύματα, ο Altman επεδίωξε επίσης να συγκεντρώσει δισεκατομμύρια δολάρια από τη Softbank και επενδυτές από τη Μέση Ανατολή για να δημιουργήσει μια εταιρεία τσιπ που θα ανταγωνιζόταν τη Nvidia και άλλους κατασκευαστές ημιαγωγών, προκειμένου να μειώσει το κόστος για το OpenAI. Μέσα σε ένα χρόνο, ο Altman είχε συμβάλει στην μετατροπή της OpenAI από μια υβριδική ερευνητική εταιρεία σε μια τεχνολογική εταιρεία της Silicon Valley σε πλήρη ανάπτυξη.
Σε αυτό το πλαίσιο, είναι εύκολο να καταλάβει κανείς πώς δημιουργήθηκαν οι εντάσεις. Ο καταστατικός χάρτης του OpenAI έθετε αρχές πάνω από κέρδη, μετόχους και μεμονωμένα άτομα. Η εταιρεία ιδρύθηκε εν μέρει από εκείνους που εκπροσωπεί τώρα ο Sutskever –αυτούς που φοβούνται τις δυνατότητες της τεχνητής νοημοσύνης, με πεποιθήσεις που κατά καιρούς φαίνονται να έχουν τις ρίζες τους στη σφαίρα της επιστημονικής φαντασίας– και που επίσης εκφράζονται από ένα μέρος του σημερινού διοικητικού συμβουλίου της OpenAI. Αλλά και ο Altman, επίσης, ισχυρίστηκε πως τα εμπορικά προϊόντα της OpenAI και οι προσπάθειες συγκέντρωσης κεφαλαίων θα λειτουργήσουν ως μέσο για την επίτευξη του τελικού στόχου της εταιρείας, που παραμένει ο ίδιος. Έτσι, θα πει στους υπαλλήλους ότι τα μοντέλα της εταιρείας βρίσκονταν ακόμη σε αρκετά πρώιμο στάδιο ανάπτυξης, και η OpenAI θα έπρεπε να τα εμπορευματοποιήσει και να δημιουργήσει αρκετά έσοδα ώστε να διασφαλίσει ότι θα μπορούσε να δαπανήσει χωρίς περιορισμούς για την ολοκλήτωσή τους, και την αντιμετώπιση της ανησυχίας για την ασφάλεια –σήμερα, η ChatGPT φέρεται να βγάζει περισσότερα από 1 δισ.$ ετησίως.
Η απόλυση του Altman μπορεί να θεωρηθεί ως ένα εντυπωσιακό πείραμα για την ασυνήθιστη δομή την OpenAI. Είναι πιθανόν αυτό το πείραμα να βάζει τέλος στην εταιρεία με την μορφή που την γνωρίζαμε, και να ταρακουνήσει μαζί της, και τις μελλοντικές κατεύθυνσεις της τεχνητής νοημοσύνης. Εάν ο Altman επιστρέψει στην εταιρεία μέσω της πίεσης των επενδυτών και της κατακραυγής των σημερινών εργαζομένων, η κίνηση αυτή θα λειτουργούσε ως μια εντυπωσιακή παγίωση της εξουσίας του. Κάτι που θα υποδήλωνε ότι, παρά τις υψηλές καταστατικές της αρχές, η OpenAI μεταβλήθηκε τελικώς σε μια κλασική εταιρεία τεχνολογίας.
Ακόμα και με τον Altman εκτός, όμως, αυτό το ταραχώδες Σαββατοκύριακο έδειξε πόσο λίγοι άνθρωποι έχουν λόγο στην εξέλιξη της πιο σημαντικής ίσως τεχνολογίας της εποχής μας. Το μέλλον της Τεχνητής Νοημοσύνης καθορίζεται από μια ιδεολογική σύγκρουση ανάμεσα σε πλούσιους τεχνοαισιόδοξους, φανατικούς καταστροφολόγους και εταιρείες πολλών δισεκατομμυρίων δολαρίων. Η μοίρα του OpenAI μπορεί να κρέμεται από μια κλωστή, αλλά ο ανοιχτός χαρακτήρας της εταιρείας, από τον οποίον πήρε και το όνομά της, έδειξε τα όριά της. Το μέλλον, όπως φαίνεται, θα αποφασιστεί πίσω από κλειστές πόρτες.