και γιατί η προσπάθεια της Ευρωπαϊκής Ένωσης για τον έλεγχό της Τεχνητής Νοημοσύνης πρέπει να στηριχθεί.
του Δημήτρη Μπουσμπουρα
Το πιο ανόητο τηλεπαιχνίδι στην ελληνική τηλεόραση έχει πολύ μακρά ιστορία. Ξεκίνησε με τον Βλάσση Μπονάτσο1 και συνεχίστηκε διαδοχικά με τον Σπύρο Παπαδόπουλο2, τον Χρήστο Φερεντίνο3 και σήμερα με τον Μάρκο Σεφερλή4. Οι παίκτες καλούνται να βρουν ποιες ήταν η απαντήσεις 100 ανθρώπων σε μια ερώτηση. Δεν είναι, δηλαδή, ένα παιχνίδι γνώσεων αλλά η προσπάθεια να μαντέψεις τις απαντήσεις της κοινής γνώμης. Μοιάζει σαν να μην αναζητείται η αλήθεια, αλλά ποια είναι η κοινή αίσθηση για το ερώτημα: «Ρωτήσαμε 100 ανθρώπους και ψάχνουμε τις δημοφιλέστερες απαντήσεις…»
Κάπως έτσι είναι ρυθμισμένο το chatGTP και οι συναφείς ψηφιακές «μηχανές». Η παραγωγική τεχνητή νοημοσύνη, όπως την ονομάζουν οι περισσότεροι, απαντάει σε ερωτήσεις ανθρώπων ή συνθέτει εικόνες, ήχο και λογισμικό. Στην πραγματικότητα είναι ένα γλωσσικό μοντέλο που συνθέτει, με τους κανόνες της γραμματικής και του συντακτικού, μια απάντηση βασιζόμενο σε αυτό που υπάρχει στο διαδίκτυο. Βάζει δηλαδή την μία λέξη μετά την άλλη με έναν λογικό συντακτικό τρόπο επεξεργαζόμενο τις πιθανότητες. Κατά τον ίδιο τρόπο μπορεί να παράγει μουσική μιμούμενη τον τρόπο του Μπετόβεν, έναν πίνακα ζωγραφικής μιμούμενη τον Βαν Γκογκ ή να φτιάξει μια φωτογραφία που να μοιάζει αληθινή. Αντλώντας την πληροφορία από το διαδίκτυο παράγει κάτι που φαίνεται αληθινό σύμφωνα με τα πρότυπα που θέτει η ερώτησή μας.
Κάθε φορά που θέτεις μια ερώτηση, η απάντηση θα είναι κάπως διαφορετική αλλά σε γενικές γραμμές θα ακολουθεί τα γλωσσικά μοτίβα και την εγκυκλοπαιδική γνώση αλλά άκριτα όπως στο τηλεπαιχνίδι που αναφέραμε. Δεν υπάρχει μηχανισμός ελέγχου της αλήθειας παρά μόνο ως προς τις πιθανότητες που προσδιορίζονται από αυτό που υπάρχει στο διαδίκτυο. Όταν χρησιμοποιείς μια μηχανή αναζήτησης, σαν την Google ή το Microsoft Edge, θα προκύψουν πολλές διαφορετικές αναρτήσεις στο διαδίκτυο και από αυτές προσπαθείς να μάθεις, να καταλάβεις και να συνθέσεις μια δική σου πρόταση. Για να το πούμε πιο απλά αν θέλεις να μαγειρέψεις στιφάδο μπορείς να δεις τις συνταγές που προτείνουν η Αργυρώ, ο Μαμαλάκης ή ο Πετρετζίκης και να φτιάξεις την δική σου. Στην περίπτωση αυτή δεν σε ενδιαφέρει η πηγή της πληροφορίας αλλά το αποτέλεσμα.
Τι γίνεται όμως στην περίπτωση που το ερώτημα είναι επιστημονικό ή τεχνολογικό και αναζητάς την επιστημονική τεκμηρίωση; Αν αναζητάς, δηλαδή, μια βιβλιογραφική τεκμηρίωση, π.χ. αναφορά σε άρθρο ενός επιστημονικού περιοδικού;
Αυτό μπορεί να το ελέγξει ο καθένας. Να η δική μου εμπειρία.
Αφού ρώτησα το chatGTP κάτι, σχετικά με την ορνιθοπανίδα και το περιβάλλον μου απάντησε σε γενικές γραμμές σωστά, αν και πολύ γενικά.
Όταν όμως ζήτησα να παραθέσει την σχετική βιβλιογραφία, εφηύρε κάποιες δημοσιεύσεις που δεν υπάρχουν!
Ρωτώντας κάτι πολύ συγκεκριμένο, έδινε κάθε φορά διαφορετικές αναφορές που δεν υπάρχουν στην πραγματικότητα.
– Την μία ήταν στο Journal of Wildlife Management, το 2018.
– Την άλλη στο Bird, τo 2019
– Και την άλλη στο International Journal of Avian Science, το 2019.
Το chatGPT έβαλε στην σειρά τις λέξεις αναζητώντας στο διαδίκτυο και απάντησε σε γενικές γραμμές σωστά. Όταν ζήτησα βιβλιογραφικές πηγές έβαλε κάποια σχετικά ονόματα που έχουν ασχοληθεί με το θέμα και σχετικά περιοδικά και μου απάντησε.
Αλλά αυτή η αναφορά δεν υπάρχει (δεν είναι σχήμα λόγου – δεν υπάρχει καθόλου).
Θα μπορούσα συνεπώς να γράψω μια έκθεση με βάση τις απαντήσεις του chatGTP, ή ακόμα και να παραθέσω την απάντηση αυτούσια. Κατά πάσα πιθανότητα αυτή θα ήταν σωστή αν το ερώτημα είναι γενικό και κάπως τεχνικό. Είναι σίγουρο όμως ότι δεν θα μπορούσε να μου απαντήσει σε κάτι πολύ λεπτομερές και εξειδικευμένο, ειδικά αν πρόκειται για κάποιο ειδικό πρόβλημα που πρέπει να επινοηθούν λύσεις.
Τεχνητή νοημοσύνη;
Λέγεται ότι μπορεί να κάνει μια σωστή ιατρική διάγνωση και να προτείνει την κατάλληλη θεραπεία. Αυτό είναι πολύ πιθανό, αλλά νομίζω ότι πρέπει οπωσδήποτε να ελεγχθεί από κάποιον γιατρό πριν να συμμορφωθεί κάποιος με την πρόταση της τεχνητής «νοημοσύνης». Ο όρος νοημοσύνη που περιλαμβάνεται σε κάθε αναφορά σε αυτά τα συστήματα είναι νομίζω λανθασμένος και πολύ γενικός. Πρόκειται για μια δύσκολη έννοια5 που καταχρηστικά δίνεται σε συσκευές με δυνατότητα επιλογής λειτουργιών χωρίς την ανθρώπινη επέμβαση.
Ένας ορισμός της «τεχνητής νοημοσύνης» μπορεί να είναι ο εξής: «είναι ο τομέας της επιστήμης των υπολογιστών που ασχολείται με την σχεδίαση και την υλοποίηση προγραμμάτων τα οποία είναι ικανά να μιμηθούν τις ανθρώπινες γνωστικές ικανότητες, εμφανίζοντας έτσι χαρακτηριστικά που αποδίδουμε συνήθως σε ανθρώπινη συμπεριφορά, όπως η επίλυση προβλημάτων, η αντίληψη μέσω της όρασης, η μάθηση, η εξαγωγή συμπερασμάτων, η κατανόηση της φυσικής γλώσσας, κλπ» Προσεγγίζει με αλγορίθμους και συστήματα που βασίζονται στην γνώση χρησιμοποιώντας σύμβολα.
Τα συστήματα αυτά εξαρτώνται λιγότερο από τον προγραμματιστή και περισσότερο από την ικανότητά τους να μαθαίνουν αλληλεπιδρώντας με το περιβάλλον. Μπορεί δηλαδή στο μέλλον να υπάρχει ένα ρομπότ – αγρότης πού να κάνει τις δουλειές στο χωράφι ή ένα ρομπότ – νοικοκυρά που θα κάνει όλες τις δουλειές στο σπίτι. Αυτό όμως δεν θα είναι άνθρωπος με ελεύθερη βούληση, όπως κατανοούμε τον όλο άνθρωπο, αλλά θα μπορεί να παίρνει αποφάσεις. Το ζήτημα είναι ποιες αποφάσεις θα εκχωρήσουμε σε αυτά τα συστήματα.
Ας επανέλθουμε όμως στο chatGTP.
Ήδη το χρησιμοποιούν πολλοί σε μελέτες, ιατρικές διαγνώσεις και δικαστικές υποθέσεις. Μια πρόσφατη περίπτωση σε δικαστική υπόθεση, στις ΗΠΑ6, έδειξε ότι το περιεχόμενο της απάντησης του chatGTP μπορεί να είναι ψευδές. Ένας δικηγόρος κατέθεσε ένα 10σέλιδο δικόγραφο με επιχειρήματα που παρέπεμπε σε έξη δικαστικές αποφάσεις. Κανένας όμως δεν βρήκε αυτές τις δικαστικές αποφάσεις όταν τις αναζήτησε, παρά το ότι παρέπεμπαν σε αξιόπιστες νομικές βάσεις δεδομένων. Είναι προφανές ότι το chatGTP «επινόησε» αυτές τις αποφάσεις. Όπως επινόησε και τις ψευδείς βιβλιογραφικές πηγές που ανέφερα παραπάνω.
Από αυτά γίνεται κατανοητό ότι οι μηχανές παραγωγικής «τεχνητής νοημοσύνης» μπορούν να χρησιμοποιηθούν για μια γρήγορη γενική αναζήτηση, αλλά θα πρέπει να είμαστε πολύ επιφυλακτικοί. Η προσπάθεια της Ευρωπαϊκής Ένωσης για τον έλεγχό της7, για σαφή αναφορά – σήμανση σε κείμενο, εικόνα ή οτιδήποτε άλλο παράγεται με τεχνητή νοημοσύνη, η διασφάλιση της δημοκρατίας και θέσπιση ασφαλιστικών δικλείδων για την ανθρωποκεντρική χρήση της, θα πρέπει να στηριχθεί. Αλλιώς δεν θα αποφύγουμε την εκχώρηση αποφάσεων που αφορούν την ανθρώπινη κοινωνία.
Παραπομπές
1 Κόντρες
2 Κόντρα πλακέ
3 Άκου τι είπαν
4 5Χ5
5 νοημοσύνη σύμφωνα με το λεξικό του Μπαμπινιώτη (δεν υπάρχει ορισμός στο φιλοσοφικό λεξικό του Cambridge)
1. (α) ο βαθμός (επίπεδο) ανάπτυξης των νοητικών λειτουργιών, όπως εκφράζεται από μετρήσεις με τα λεγόμενα τεστ νοημοσύνης ή τις κλίμακες νοημοσύνης και με δείκτες νοημοσύνης (το νοητικό πηλίκο και τη νοητική ηλικία)· χαρακτηρίζει τους ανθρώπους και αποδίδεται σε ορισμένα ανώτερα θηλαστικά (π.χ. τα δελφίνια)
(β) γλωσσική νοημοσύνη η ικανότητα λογικής επεξεργασίας γλωσσικών ερεθισμάτων
(γ) πρακτική νοημοσύνη η ικανότητα λογικής επεξεργασίας οπτικών ερεθισμάτων
(δ) συναισθηματική νοημοσύνη
(ε) τεχνητή νοημοσύνη κλάδος της πληροφορικής επιστήμης, που στοχεύει στην κατασκευή μηχανών (ρομπότ ή υπολογιστών), οι οποίες μπορούν να μιμηθούν τη συμπεριφορά τού ανθρώπου, τον τρόπο σκέψης, τη διαδικασία αντίληψης και απόκτησης γνώσης και γενικά την ανθρώπινη ευφυΐα
(στ) δείκτης νοημοσύνης
2. (καθημ.) η εξυπνάδα που διαθέτει κανείς: και στοιχειώδη ~ να διαθέτεις, καταλαβαίνεις ότι είναι ανόητο αυτό που λέει ΣΥΝ. μυαλό ΑΝΤ. ανοησία
3. (καταχρ.) (για ηλεκτρικές συσκευές, ηλεκτρονικά συστήματα κ.λπ.) η δυνατότητα επιλογής λειτουργιών χωρίς την ανθρώπινη παρέμβαση.
6 ΗΠΑ: Δικηγόρος χρησιμοποίησε ανύπαρκτες παραπομπές από το ChatGPT. Εφημερίδα Καθημερινή 29/5/2023
7 Δημοσθένης Γκαβέας. Το μεγάλο στοίχημα της Ε.Ε. με την Τεχνητή Νοημοσύνη. Στον ιστότοπο www.huffingtonpost.gr 18/6/2023