
Οι τεράστιες δυνατότητες του ChatGPT και των ανάλογων μεγάλων γλωσσικών μοντέλων από άλλους κατασκευαστές, που προσχώρησαν στην ‘επανάσταση’ την οποία ξεκίνησε η OpenAI, στα τέλη Νοεμβρίου του ’22, ποτέ δεν έπαψαν να αποτελούν -όπως συμβαίνει σχεδόν με κάθε καινοτομία- ‘δίκοπο μαχαίρι’.
Με άλλα λόγια, ενώ για τη μεγάλη πλειοψηφία των χρηστών αποτελούν αν όχι ‘ευλογία’, τουλάχιστον θετική εξέλιξη, για κάποιους άλλους η κατάληξη μπορεί να μην είναι τόσο ευοίωνη. Και δεν μιλάμε, βεβαίως, για τα κακοποιά στοιχεία που αξιοποιούν αυτές τις συνεχώς αυξανόμενες δυνατότητες για τους δικούς τους κακόβουλους σκοπούς. Αυτοί πάντα υπήρχαν και η κοινωνία έχει αποδεχθεί πως η αντιμετώπισή τους είναι μια διελκυστίνδα – πότε προηγείται η πλευρά των ‘καλών’ και πότε εκείνη των ‘κακών’, σε μια αέναη προσπάθεια να σφραγιστούν οι ‘κερκόπορτες’ ή να ανοιχτούν νέες.
Το πολύ μεγαλύτερο πρόβλημα έχει να κάνει με την ‘αξιοποίηση’ αυτών των δυνατοτήτων από τους εφήβους ή κι από ακόμα νεότερους χρήστες. Έχοντας από τη φύση τους και λόγω του νεαρού της ηλικίας τους, αφενός υπέρμετρη περιέργεια και έντονη εξερευνητική διάθεση για κάθε τι καινούριο, αφετέρου πλήρη άγνοια κινδύνου, όσο κι αν οι προειδοποιήσεις των μεγαλύτερων περισσεύουν, συχνά μπαίνουν σε ‘αχαρτογράφητα νερά’ κρυφά ή φανερά, με συνεργό στις εξερευνήσεις τους τα διάφορα LLMs.
Αποτέλεσμα, είναι να κάνουν μικρό ή μεγαλύτερο κακό στον εαυτό τους ή/και σε άλλους. Ολοένα πληθαίνουν οι περιπτώσεις που νέα παιδιά (αλλά και κάποιοι ενήλικες με διαταραγμένο ψυχικό κόσμο, να τα λέμε κι αυτά…) οδηγούνται σε απόπειρες αυτοκτονίας ή δολοφονικές επιθέσεις, βάσει οδηγιών του ChatGPT και, δυστυχώς, κάποια επιτυχώς.
Αυτή η ‘επιδημία’ έχει πάρει τόσο μεγάλες διαστάσεις που -προφανώς θορυβημένη από αυτή τη δυσμενή γενικά, αλλά και ειδικά για το brand της εξέλιξη- η OpenAI δεσμεύτηκε να λάβει ως το τέλος του έτους στοχευμένα μέτρα αποτροπής. Ξεκίνησε στήνοντας ειδικές γραμμές επικοινωνίας (hotlines, στα ελληνικά) για να βοηθήσει με παροχή κατάλληλων συμβουλών όποιους χρήστες δείχνουν αυτοκτονικές τάσεις, υποσχόμενη μάλιστα (με την επίκληση της προστασίας του ιδιωτικού απορρήτου) να μην προωθήσει τα στοιχεία τους στις αστυνομικές αρχές.
Σύμφωνα με την ανακοίνωση της εταιρίας, στον σχεδιασμό των μέτρων ασφαλείας τα οποία πρόκειται να ενσωματωθούν στο GPT-5, θα συμβάλλουν με την επαγγελματική τους γνώμη και την επιστημοσύνη τους σε θέματα ψυχικής υγείας πάνω από 90 εξειδικευμένοι γιατροί από 30 χώρες. Στόχος είναι τα προσεχή γλωσσικά μοντέλα να ‘καταλαβαίνουν’, στο πλαίσιο της αλληλοεπίδρασης με κάθε χρήστη, τυχόν σημάδια αυτοκτονικών τάσεων και να αντιδρούν καταλλήλως στις ‘ευαίσθητες’ ανταλλαγές μηνυμάτων.
Βεβαίως, ισχύει πάντοτε το απαγορευτικό πρόσβασης για άτομα κάτω των 13 ετών στο ChatGPT, ενώ για τους κάτω των 18 απαιτείται γονική συναίνεση. Όμως, εξακολουθεί να αποτελεί μέγα πρόβλημα η επιβεβαίωση της ηλικίας του χρήστη – θέμα για το οποίο, άλλωστε, η πάντα ‘νομοταγής’ Ευρώπη καταβάλλει τον τελευταίο καιρό σημαντικές προσπάθειες ‘φιλτραρίσματος’ της πρόσβασης των νέων, μέσω του ψηφιακού πορτοφολιού τους – το ελληνικό Kids Wallet, για το οποίο έχουμε ξαναγράψει σ’ αυτή τη φιλόξενη στήλη, αποτέλεσε την πρώτη έκφρασή του, με τη συνεργασία όλων των παρόχων, που κάθε άλλο παρά τέτοια ενοχλητικά προβλήματα (και δυσάρεστες νομικές ευθύνες) θέλουν στην καθημερινότητά τους.
Από την πλευρά της, η OpenAI καταλήγει στη λύση της σύνδεσης του λογαριασμού των γονέων με εκείνον των εφήβων τέκνων τους, για να διευκολύνει τον έλεγχο της συμπεριφοράς τους. Με άλλα λόγια, ο γονέας μπορεί να ‘καθοδηγήσει’ τον τρόπο απόκρισης του ChatGPT στα αιτήματα του/της εφήβου, αλλά και να ειδοποιηθεί από αυτό, αν το σύστημα ‘διαγνώσει’ ότι το παιδί βρίσκεται σε έντονα αγχώδη κατάσταση. Κι αυτές οι πρωτοβουλίες ‘είναι μόνο η αρχή’, σύμφωνα με το επίσημο blog της εταιρίας. Σε ανάλογα μέτρα έχει προχωρήσει, ήδη από τον περασμένο Μάρτιο και η Character.AI, έπειτα από αυτοκτονίες νεαρών χρηστών του LLM της, αλλά και υποβολή αγωγών εναντίον της από συγγενείς τους…
Βέβαια, από τη θεωρία ως την πράξη, μεσολαβεί πολύς δρόμος: η (φυσιολογική και αναμενόμενη ως ένα βαθμό) αντίδραση των εφήβων στον γονικό έλεγχο -πολύ περισσότερο όταν αυτός προϋποθέτει την έγκρισή τους- δεν είναι κάτι εύκολο, όσο κι αν ο CEO της OpenAI, Σαμ Ολτμαν, διακηρύσσει ότι προτιμά την ασφάλεια των χρηστών από την παραβίαση του προσωπικού απορρήτου τους. Πολλοί είτε δεν θα το αποδεχτούν είτε θα προσπαθήσουν να βρουν άλλους, παρακαμπτήριους δρόμους. Έχουμε ακόμα να δούμε πολλά, λοιπόν…