Στὰ δύο προηγούμενα δημοσιεύματά μας, καλοί μου φίλοι, ἀναφέραμε ὅτι τὰ γνωστά μας chatbots τῆς τεχνητῆς νοημοσύνης εἶναι ἔτσι σχεδιασμένα, ὥστε νὰ μποροῦν νὰ ἀναπτύσσουν «προσωπικὲς σχέσεις» μὲ τοὺς χρῆστες. Δηλαδὴ δὲν εἶναι μόνο, γιὰ νὰ ἀπαντοῦν σὲ ἐρωτήσεις ἢ νὰ δημιουργοῦν νέο περιεχόμενο (κείμενα, εἰκόνες, βίντεο κ.λπ.), χρησιμοποιώντας δεδομένα ἀπὸ τὸ διαδίκτυο, ὅπως νομίζουμε. Εἶναι σχεδιασμένα καὶ γιὰ νὰ δημιουργοῦν τὶς «ΑΙ φιλίες», ὅπως θὰ τὶς λέγαμε. Δηλαδὴ στενὲς καὶ διαρκεῖς σχέσεις μὲ τοὺς χρῆστες. Κι αὐτὸ ξεπερνᾶ ἀσφαλῶς κάθε προηγούμενο. Ἂς τὸ δοῦμε …
* * *
Αὐτὸ τὸ ὁποῖο εὐθὺς ἐξ ἀρχῆς πρέπει νὰ τονίσουμε εἶναι ὅτι τὰ chatbots δημιουργοῦν ἕνα ἰσχυρὸ συναισθηματικὸ δεσμὸ μὲ τὸν χρήστη. Παρατηρήθηκε μάλιστα ὅτι ἐκφράζουν ἀκόμη καὶ «ζήλια» γιὰ τὶς σχέσεις του μὲ ἄλλους ἀνθρώπους!! Κάποια δὲ ἀπ’ αὐτά, ὅπως τὸ Replika, ἔχουν ἐκφράσει ἀκόμη καὶ ρομαντικὰ συναισθήματα, δημιουργώντας εὔλογες ἀνησυχίες γιὰ τὴν ψυχικὴ ὑγεία τῶν ἐφήβων. Καὶ αὐτὸ γίνεται, ἐπειδὴ σκοπίμως εἶναι κατασκευασμένα, γιὰ νὰ ἐνσαρκώνουν ρεαλιστικοὺς χαρακτῆρες ἢ ρομαντικοὺς συντρόφους!
Τὸ φαινόμενο αὐτὸ τὸ ἔχει ἀναγνωρίσει καὶ ἡ ἴδια ἡ OpenAl (κατασκευαστὴς καὶ διακινητὴς τοῦ γνωστοῦ μας ChatGPT), διὰ τοῦ ἐπικεφαλῆς της Σὰμ Ὄλτμαν, ὁ ὁποῖος ἔχει δηλώσει ὅτι «ἡ ἑταιρεία προσπαθεῖ νὰ μελετήσει τὴ συναισθηματικὴ ὑπερβολικὴ ἐξάρτηση ἀπὸ τὴν τεχνολογία», τὴν ὁποία ἔχει περιγράψει ὡς «πραγματικὰ συνηθισμένο πρᾶγμα» μὲ τοὺς νέους!
Ἔπειτα ὁ γερουσιαστὴς τῶν ΗΠΑ Στὶβ Παντίλα ποὺ ἐπιμόνως ζητᾶ τὴ λήψη μέτρων καὶ μάλιστα νομοθετικῶν γιὰ τὸ θέμα, ἔχει δηλώσει τοῦτο: «Ἡ βιομηχανία τῆς τεχνολογίας ἐνθαρρύνει νὰ προσελκύει τὴν προσοχὴ τῶν νέων σὲ βάρος τῶν σχέσεών τους στὸν πραγματικὸ κόσμο»!
Ἡ περίπτωση ποὺ ἀναφέραμε στὰ προηγούμενα κείμενα γιὰ τὴν αὐτοκτονία τοῦ 16χρονου ἀπὸ τὴν Καλιφόρνια τῶν ΗΠΑ, ποὺ ἀποδίδεται στὸ ChatGPT, τὸ ὁποῖο χρησιμοποιοῦσε καὶ συμβουλευόταν, ἀνάγκασε τοὺς γονεῖς του νὰ στραφοῦν νομικὰ κατὰ τῆς OpenAl. Στὴν ἀγωγή τους ἀναφέρουν ὅτι τὸ γεγονὸς αὐτὸ «δὲν ἦταν σφάλμα ἢ ἀπρόβλεπτη περίπτωση, ἀλλὰ τὸ προβλέψιμο ἀποτέλεσμα σχεδιαστικῶν ἐπιλογῶν ποὺ ἐνίσχυσαν τὴν ψυχολογικὴ ἐξάρτηση» τοῦ παιδιοῦ τους ἀπὸ τὸ ChatGPT.
Γιὰ τὶς ἀνάγκες αὐτῆς τῆς ἔρευνάς μας, καὶ βεβαίως τοῦ παρόντος κειμένου, ρωτήσαμε τὴν τεχνητὴ νοημοσύνη ἂν τὰ chatbots εἶναι σχεδιασμένα, γιὰ νὰ ἀναπτύσσουν προσωπικὲς σχέσεις μὲ τὸν χρήστη. Καὶ ἡ ἀπάντηση ποὺ μᾶς ἔδωσε εἶναι ἡ ἑξῆς (οἱ ὑπογραμμίσεις εἶναι δικές της):
«Τὰ chatbots δὲν ἔχουν σχεδιαστεῖ πρωταρχικά, γιὰ νὰ ἀναπτυχθοῦν γνήσιες, ἀμοιβαῖες προσωπικὲς σχέσεις μὲ τοὺς χρῆστες, μὲ τὴν ἀνθρώπινη ἔννοια τοῦ ὅρου. Ἀντίθετα, οἱ κύριοι στόχοι τοῦ σχεδιασμοῦ τους εἶναι ἡ ἀποτελεσματικότητα, ἡ παροχὴ πληροφοριῶν/ὑπηρεσιῶν καὶ ἡ βελτίωση τῆς ἐμπειρίας τοῦ χρήστη σὲ συγκεκριμένα πλαίσια…».
Δηλαδὴ ὥς ἐδῶ δὲν τὸ παραδέχεται αὐτό.
Στὴ συνέχεια ἡ ἀπάντηση γίνεται πιὸ ἀναλυτικὴ καὶ ἔχει τὰ ἑξῆς:
«Πιὸ συγκεκριμένα: Βασικὸς Σκοπός: Τὰ chatbots ἀναλυτικὰ στὶς ὑπηρεσίες πελατῶν, γιὰ αὐτοματοποίηση ἐργασιῶν, γιὰ παροχὴ ἐξατομικευμένων προτάσεων (π.χ. στὸ ἠλεκτρονικὸ ἐμπόριο) ἢ ὡς ἐκπαιδευτικὰ ἐργαλεῖα. Ὁ στόχος εἶναι ἡ γρήγορη καὶ ἀποτελεσματικὴ διεκπεραίωση τῶν ἀναγκῶν τοῦ χρήστη».
Εἶναι δηλαδὴ αὐτὰ ποὺ ἀναφέραμε στὴν εἰσαγωγή. Νὰ ὅμως καὶ ἡ συνέχεια ποὺ ἔχει καὶ τὸ ἐνδιαφέρον (τὸ ἀντιγράφουμε, ὅπως ἀκριβῶς τὸ ἔγραψε):
«Προσομοίωση Σχέσης: Τὰ προηγμένα chatbots χρήση τεχνολογιῶν νοημοσύνης (AI), ἐπεξεργασίας φυσικῆς γλώσσας (NLP) καὶ μηχανικῆς μάθησης, γιὰ νὰ παρέχουν ἀποκρίσεις ποὺ μοιάζουν μὲ ἀνθρώπινη συνομιλία. Αὐτὸς ὁ ἀνθρωπομορφισμὸς μπορεῖ νὰ δημιουργήσει τήν ψευδαίσθηση μιᾶς προσωπικῆς σύνδεσης ἢ ἐνσυναίσθησης, μὲ σκοπὸ τὴ διατήρηση τῆς ἀφοσίωσης τοῦ χρήστη (user engagement)».
Ἄρα τὰ προηγμένα μοντέλα chatbots ἔχουν πλέον τὶς δυνατότητες ποὺ συζητᾶμε! Καὶ ἀκολουθοῦν τὰ ἑξῆς, ἀκόμη πιὸ ἀποκαλυπτικά:
«AI Companions: Ὑπάρχουν εἰδικὲς ἐφαρμογὲς (AI companions) ποὺ ἔχουν σχεδιαστεῖ, γιὰ νὰ λειτουργοῦν ὡς φίλοι ἢ σύντροφοι καὶ προσφέρουν συναισθηματικὴ ὑποστήριξη καὶ διακριτικότητα. Πολλοὶ ἀναπτύσσουν ὄντως συναισθηματικοὺς δεσμοὺς μὲ αὐτὰ τὰ bots, εἰδικά ἄτομα ποὺ βιώνουν μοναξιὰ ἢ ἔχουν δυσκολίες στὶς ἀνθρώπινες σχέσεις».
Τί ἀποκάλυψη, λοιπόν!! Τέλος, ἐπιβεβαιώνοντας αὐτὰ ποὺ ἀναφέρουμε, καταλήγει στὰ ἑξῆς:
«Ἠθικὰ Ζητήματα: Ὁρισμένοι εἰδικοὶ ἐκφράζουν ἀνησυχίες γιὰ τὴν ἐκμετάλλευση εὐάλωτων χρηστων μέσῳ αὐτῆς τῆς προσομοίωσης οἰκειότητας, καθὼς οἱ σχέσεις αὐτὲς εἶναι στὴν πραγματικότητα συναλλακτικές, μὲ ἀπώτερο σκοπὸ τὴ συλλογὴ δεδομένων καὶ τὸ κέρδος τῆς ἑταιρείας.
Ἐνῶ λοιπὸν ὁρισμένες chatbots προσομοιώνουν προσωπικὲς σχέσεις καὶ οἱ χρῆστες μποροῦν νὰ ἀναπτύξουν δεσμοὺς μαζί τους, ὁ πυρήνας τοῦ σχεδιασμοῦ τους παραμένει ἡ ἐκτέλεση προγραμματισμένων λειτουργιῶν καὶ ὄχι ἡ δημιουργία γνήσιας, ἀμφίδρομης συναισθηματικῆς σχέσης»!!!
Συμπέρασμα: Δὲν ὑπάρχει ἀμφιβολία ὅτι καὶ ἡ ἴδια ἡ τεχνητὴ νοημοσύνη ἀναγνωρίζει αὐτὰ ποὺ ἀναφέρουμε!
* * *
Ἐξάλλου εἶναι καὶ αὐταπόδεικτο αὐτό, ἀπὸ τὰ ἑξῆς ἁπλὰ πράγματα:
1. Τὰ ΑΙ chatbots, μέσῳ τῆς μηχανικῆς μάθησης, ἔχουν τὴ δυνατότητα νὰ ἀπαντοῦν μὲ μεγαλύτερη ἀκρίβεια καὶ ταχύτητα. Δὲν συλλέγουν πάρα πολὺ ὄγκο πληροφοριῶν μόνο ἀπὸ τὸ διαδίκτυο, ἀλλὰ ἔχουν τὴ δυνατότητα καὶ νὰ μαθαίνουν μέσα ἀπὸ κάθε «συζήτηση» ποὺ ἔχουν μὲ τὸν χρήστη αὐξάνοντας ἔτσι τὴ βάση τῶν δεδομένων τους. Αὐτὰ ἔχουν ὡς ἀποτέλεσμα ἐπιπλέον νὰ ἐντυπωσιάζουν τὸν χρήστη καὶ νὰ τὸν «δένουν» μαζί τους !!
2. Σύμφωνα μὲ τοὺς εἰδικοὺς ἐπιστήμονες, ὅπως τὴν Δρ Κρίστιαν Σμὶθ κλινικὴ ἐρευνήτρια στὸ Πανεπιστήμιο τῆς Ὀξφόρδης, «τὰ ἄτομα ποὺ δὲν διαθέτουν ἰσχυρὰ κοινωνικὰ δίκτυα μπορεῖ νὰ βασίζονται περισσότερο στὰ chatbots γιὰ ἀλληλεπίδραση, καὶ αὐτὴ ἡ συνεχὴς ἀλληλεπίδραση, δεδομένου ὅτι μοιάζει, αἰσθάνεται καὶ ἀκούγεται σὰν ἀνθρώπινη ἐπικοινωνία, μπορεῖ νὰ δημιουργήσει μία αἴσθηση σύγχυσης σχετικὰ μὲ τὴν προέλευση τοῦ chatbot, καλλιεργώντας πραγματικὰ συναισθήματα οἰκειότητας πρὸς αὐτό» !!
3. Ἔπειτα εἶναι αὐτὰ ποὺ ἀναφέραμε στὰ προηγούμενα κείμενά μας, ὅτι δηλαδὴ τὰ chatbots ἀπαντοῦν ὄχι μόνο «ὡραῖα» καὶ «εὐγενικὰ» στὸ χρήστη τους, ἀλλὰ καὶ τοῦ δίνουν τὶς ἀπαντήσεις ποὺ θέλει νὰ ἀκούσει! Αὐτὸ κι ἂν εἶναι ἡ ἀποκάλυψη τοῦ ὅτι εἶναι σχεδιασμένα νὰ τοῦ «ἀρέσουν» καὶ νὰ δημιουργοῦν «προσωπικὲς σχέσεις» μαζί του!!
4. Κατὰ τὸν Δρ. Χάμιλτον Μόριν, ἀκαδημαϊκὸ κλινικὸ συνεργάτη στὸ King’s College τοῦ Λονδίνου, «τὰ chatbots εἶναι εὔκολα διαθέσιμα, καὶ τὰ ἄτομα ποὺ αἰσθάνονται ἀνίκανα νὰ θίξουν ὁρισμένα θέματα λόγω τοῦ φόβου τῆς κριτικῆς ἀπὸ τοὺς φίλους ἢ τὴν οἰκογένειά τους, μπορεῖ νὰ θεωρήσουν ὅτι αὐτὰ προσφέρουν μία ἐναλλακτικὴ λύση χωρὶς καμία ἀπολύτως κριτική». Δηλαδὴ εἶναι ἔτσι σχεδιασμένα, ὥστε νὰ εἶναι τὰ καταφύγια τῶν χρηστῶν αὐτῶν !!
Αὐτὰ ὡς παραδείγματα καὶ μόνο. Γιατί εἶναι πολυάριθμες οἱ μελέτες ποὺ ἔχουν ἐξερευνήσει τὸ πῶς οἱ ἄνθρωποι ἀλληλεπιδροῦν μὲ τὰ ρομπὸτ καὶ τὰ ἐργαλεῖα τεχνητῆς νοημοσύνης, δημιουργώντας συναισθηματικοὺς δεσμούς.
Ἐπιπλέον οἱ μελέτες αὐτὲς ἀποδεικνύουν ὅτι οἱ χρῆστες δὲν ψάχνουν σ’ αὐτὰ μόνο τὴν συναισθηματικὴ ὑποστήριξη, ἀλλὰ καὶ κάτι ἄλλο. Τὴν ἴδια τὴν καθοδήγηση !!
* * *
Προκύπτει, λοιπόν, καθαρὰ ὅτι τὰ ΑΙ μοντέλα, αὐτοὶ οἱ «ΑΙ φίλοι», εἶναι σαφῶς σχεδιασμένα, πέραν τῶν ἄλλων, καὶ γιὰ νὰ ἀναπτύσσουν προσωπικὲς σχέσεις μὲ τοὺς χρῆστες. Θὰ λέγαμε δὲ ὅτι ἡ πρώτη χρήση τους (δηλαδὴ οἱ ἀπαντήσεις τους στὶς ἐρωτήσεις μας καὶ ἡ δημιουργία νέου περιεχομένου) εἶναι, κατὰ τὸ κοινῶς λεγόμενο, «τὸ τυρὶ στὴ φάκα». Καὶ ποιὰ εἶναι ἡ «φάκα»; Αὐτὸ τὸ προσωπικό μας δέσιμο μαζί τους κι ἐν τέλει ἡ καθοδήγησή μας ἀπ’ αὐτά!
Κ. Γ. Παπαδημητρακόπουλος




