«Η τεχνητή νοημοσύνη έχει τη δυνατότητα να βελτιώσει σχεδόν όλες τις πλευρές της ζωής μας, αλλά προκαλεί και σοβαρούς κινδύνους». Η φράση αυτή δεν ανήκει σε κάποιον πολέμιο της συγκεκριμένης τεχνολογίας αλλά στον εφευρέτη του ChatGPT, Σαμ Άλτμαν, ο οποίος δεν δίστασε να παραδεχθεί, ενώπιον αμερικανικής κοινοβουλευτικής επιτροπής, πως παρότι η τεχνητή νοημοσύνη έχει ανοίξει νέους δρόμους, υπάρχει κίνδυνος να…πάρει λάθος δρόμο, γι’ αυτό χρειάζεται συντονισμένος και οργανωμένος έλεγχος.
Ο Σαμ Άλτμαν, ο πρόεδρος και διευθύνων σύμβουλος της OpenAI, του ομίλου που ανέπτυξε την Τεχνητή Νοημοσύνη στο σημερινό της επίπεδο, κλήθηκε να καταθέσει στην Γερουσία, ακριβώς για τις ανησυχίες που συζητούνται ευρέως πλέον σε όλον τον κόσμο για το μέχρι πού μπορεί να φτάσει η Τεχνητή Νοημοσύνη. Και δεν έκρυψε τα λόγια του, εκφράζοντας σοβαρότατες ανησυχίες για τις αρνητικές επιπτώσεις που μπορεί να έχει στη ζωή του ανθρώπου.
Ένας από τους προβληματισμούς του, είναι τι μπορεί να κάνει η τεχνητή νοημοσύνη με τις εκλογές και τα αποτελέσματά τους. «Νομίζω ότι χρειαζόμαστε επίσης κανόνες, κατευθυντήριες γραμμές, για το τι αναμένεται από την άποψη της αποκάλυψης από μια εταιρεία που παρέχει ένα μοντέλο», είπε ο Sam Altman ειδικά για τις εκλογές και την τεχνητή νοημοσύνη. Και πρόσθεσε: «Είμαι νευρικός γι’ αυτό». Η παρέμβαση των κυβερνήσεων για να ρυθμιστεί η ανάπτυξη και η χρήση της τεχνητής νοημοσύνης θα είναι “καθοριστική”, “προκειμένου να περιοριστούν οι κίνδυνοι” που αντιπροσωπεύει η τεχνολογία αυτή, δήλωσε ο Άλτμαν.
“Είναι σημαντικό η πιο ισχυρή τεχνητή νοημοσύνη να αναπτυχθεί με δημοκρατικές αξίες”, εκτίμησε ο νεαρός επιχειρηματίας, “που σημαίνει ότι η ηγεσία των ΗΠΑ είναι καθοριστική”, δήλωσε κατά την ακρόασή του από την επιτροπή του Κογκρέσου στην οποία εμφανίστηκε για πρώτη φορά.
Η διάθεση του ChatGPT στο Διαδίκτυο τον Νοέμβριο πολλαπλασίασε το ενδιαφέρον του κοινού, αλλά και των επιχειρήσεων, για τη λεγόμενη παραγωγική τεχνητή νοημοσύνη, δηλαδή την τεχνολογία που είναι ικανή να δημιουργεί περιεχόμενο, κείμενο, εικόνες, ήχους ή βίντεο, αφού αντλήσει υλικό από τεράστιες βάσεις δεδομένων. Η παραγωγική τεχνητή νοημοσύνη απελευθερώνει τα πάθη και πολλοί ανησυχούν για την εν δυνάμει επίδρασή της σε μια σειρά επαγγελμάτων, με πιθανές μαζικές καταργήσεις θέσεων εργασίας αλλά και ευρύτερα σε όλη την κοινωνία.
“Η τεχνητή νοημοσύνη έχει τη δυνατότητα να βελτιώσει σχεδόν όλες τις πλευρές της ζωής μας, αλλά δημιουργεί και σοβαρούς κινδύνους“, παραδέχθηκε ο Σαμ Άτμαν, κατά τη διάρκεια της ακρόασής του από την υποεπιτροπή της Γερουσίας για την προστασία της ιδιωτικής ζωής, την τεχνολογία και το δίκαιο.
“Ένας από τους μεγαλύτερους φόβους μου, είναι ότι εμείς, αυτή η βιομηχανία, αυτή η τεχνολογία, μήπως προκαλέσουμε σημαντικές ζημιές στην κοινωνία“, δήλωσε ο Άλτμαν. “Αν αυτή η τεχνολογία πάει στραβά, μπορεί να πάει πολύ στραβά… Και εμείς θέλουμε να εργαστούμε μαζί με την κυβέρνηση για να το εμποδίσουμε να συμβεί”. Οι εκλογές είναι ένας “σημαντικός τομέας ανησυχίας” και “κάποια ρύθμιση θα ήταν αρκετά σοφή”, τόνισε.
Η αλήθεια είναι ότι το μόνο που δεν είπε ήταν η φράση: «Φτιάξαμε ένα τέρας και οι κυβερνήσεις τώρα πρέπει να το ελέγξουν». Επανέλαβε ωστόσο πολλές φορές, ότι είναι στην διάθεση των αρχών για να βοηθήσει στη δημιουργία ρυθμιστικού πλαισίου που θα βάλει κανόνες λειτουργίας της τεχνητής νοημοσύνης.
Ο 30χρονος προγραμματιστής και επενδυτής υπενθύμισε πως αν και η OpenAI LP, η οντότητα που ανέπτυξε το ChatGPT, είναι μια νεοφυής ιδιωτική εταιρεία, ελέγχεται από έναν μη κερδοσκοπικό οργανισμό “που μας επιβάλλει να εργαστούμε προς την ευρεία διανομή των οφελών της τεχνητής νοημοσύνης και να μεγιστοποιήσουμε την ασφάλεια των συστημάτων που βασίζονται στην τεχνητή νοημοσύνη”.
Ο Σαμ Άλτμαν δηλώνει συχνά ότι τάσσεται υπέρ της θέσπισης ενός κανονιστικού πλαισίου για την τεχνητή νοημοσύνη, κατά προτίμηση σε διεθνές επίπεδο. “Ξέρω ότι φαίνεται αφελές να προτείνω κάτι τέτοιο, μοιάζει πολύ δύσκολο” να επιτευχθεί, αλλά “υπάρχουν προηγούμενα” εξήγησε, αναφέροντας το παράδειγμα του Διεθνούς Οργανισμού Ατομικής Ενέργειας (ΙΑΕΑ).
Αξίζει να σημειωθεί ότι στέλεχος της Open AI έχει δηλώσει, σύμφωνα με το πρακτορείο Reuters ότι πρέπει να ιδρυθεί ειδική Υπηρεσία που θα εκδίδει άδειες λειτουργίας την τεχνητή Νοημοσύνη, κι έχει προτείνει και το όνομα της Υπηρεσίας : Office for AI Safety and Infrastructure Security, με τα αρχικά OASIS.
“Καμπανάκι” και από τον ΠΟΥ για τεχνητή νοημοσύνη
Ο Παγκόσμιος Οργανισμός Υγείας προειδοποίησε σήμερα ότι η τεχνητή νοημοσύνη (Artificial Intelligence — ΑΙ) στη δημόσια υγεία, μπορεί να έχει δραματικές επιπτώσεις, καθώς τα δεδομένα που χρησιμοποιεί, προκειμένου να καταλήξει σε αποφάσεις μπορεί να είναι μεροληπτικά ή να χρησιμοποιούνται λανθασμένα.
Ο Π.Ο.Υ. δηλώνει ενθουσιασμένος με τις δυνατότητες της AI, όμως διατυπώνει ανησυχίες σχετικά με το πώς θα χρησιμοποιηθεί, ώστε να βελτιώσει την πρόσβαση σε πληροφορίες υγείας, ως ένα εργαλείο υποστήριξης των αποφάσεων και για τη βελτίωση της ικανότητας διάγνωσης, ώστε να προστατευθεί η ανθρώπινη υγεία και να μειωθούν οι ανισότητες.
Ο Παγκόσμιος Οργανισμός Υγείας ανέφερε ότι τα δεδομένα που χρησιμοποιούνται για την εκπαίδευση της ΑΙ μπορεί να είναι μεροληπτικά και να παράγουν παραπλανητικές ή ανακριβείς πληροφορίες που μπορεί να δημιουργούν απειλές για την υγεία, την ισότητα και τη συμπεριληπτικότητα. Ανέφερε επίσης πως τα μοντέλα μπορεί να χρησιμοποιηθούν λανθασμένα, με αποτέλεσμα να παράγουν και να διασπείρουν, με πολύ πειστικό τρόπο, παραπληροφόρηση με τη μορφή κειμένου, ηχητικού μηνύματος ή βίντεο, τα οποία το κοινό είναι δύσκολο να ξεχωρίσει από ένα αξιόπιστο περιεχόμενο, ειδικά για ένα τόσο πολύπλοκο ζήτημα όσο η υγεία.
Είναι “επιτακτική ανάγκη” να αποτιμηθούν οι κίνδυνοι από τη χρησιμοποίηση μεγάλων γλωσσικών μοντέλων (LLMs), όπως το ChatGPT, ώστε να προστατευθεί και να προωθηθεί η ανθρώπινη ευημερία, ανέφερε ο οργανισμός του ΟΗΕ για την υγεία.
Η προειδοποίησή του έρχεται καθώς οι εφαρμογές τεχνητής νοημοσύνης αποκτούν πολύ γρήγορα αποδοχή, υπογραμμίζοντας μια τεχνολογία που θα μπορούσε να ανατρέψει τον τρόπο που λειτουργούν οι επιχειρήσεις και η κοινωνία.
Η παραίτηση του Τζέφρι Χίντον και οι προειδοποιήσεις για την τεχνητή νοημοσύνη
Στις αρχές του μήνα αίσθηση είχε προκαλέσει η είδηση της παραίτησης του Τζέφρι Χίντον που θεωρείται «νονός» της Τεχνητής Νοημοσύνης (AI), από την Google, καθώς συνοδεύτηκε με προειδοποιήσεις για τους κινδύνους της AI.
Ο 75χρονος επιστήμονας, πρωτοπόρος της Τεχνητής Νοημοσύνης είπε ότι παραιτήθηκε ώστε να μπορεί να μιλάει ελεύθερα σχετικά με τους κινδύνους που ενέχει η τεχνολογία αυτή έχοντας συνειδητοποιήσει ότι οι υπολογιστές μπορεί να γίνουν εξυπνότεροι από τον άνθρωπο πολύ νωρίτερα από ότι ο ίδιος και άλλοι ειδικοί ανέμεναν.
«Παραιτήθηκα ώστε να μπορώ να μιλάω για τους κινδύνους από την AI χωρίς να πρέπει να σκεφτώ με ποιον τρόπο αυτό θα επηρεάσει την Google», έγραψε στο Twitter ο Τζέφρι Χίντον.
Σε συνέντευξή του στην εφημερίδα Τhe New York Times, ο Χίντον εξέφρασε την ανησυχία του σχετικά με την ικανότητα της τεχνητής νοημοσύνης να δημιουργεί πειστικές ψευδείς εικόνες και κείμενα συνθέτοντας έναν κόσμο όπου οι άνθρωποι «δεν θα μπορούν πλέον να γνωρίζουν τι είναι αληθινό». «Είναι δύσκολο να δει κάποιος πώς μπορεί να εμποδίσει τους κακόβουλους χρήστες από το να τη χρησιμοποιήσουν για αρνητικούς λόγους», σχολίασε.
«Η ιδέα ότι αυτό το πράγμα θα μπορούσε ουσιαστικά να γίνει εξυπνότερο από τον άνθρωπο…λίγοι το πίστευαν. Αλλά οι περισσότεροι θεωρούσαν ότι ήταν μακρινό. Νόμιζα ότι θα γινόταν σε 30 με 50 χρόνια, ίσως και περισσότερα. Προφανώς πλέον δεν πιστεύω κάτι τέτοιο, είναι τρομακτικό», είπε ο Χίντον στους New York Times.
Εξηγώντας, στο BBC γιατί παραιτήθηκε είπε ότι «το θέμα είναι ότι ανακαλύψαμε πως η Τεχνητή Νοημοσύνη λειτουργεί καλύτερα από ότι περιμέναμε πριν από μερικά χρόνια. Τι κάνουμε για να μετριάζουμε τους μακροπρόθεσμους κινδύνους που θα προκύψουν αν κάτι πιο έξυπνο από εμάς να πάρει τον έλεγχο;
Πολλοί έχουν πει πολλά για το θέμα, όπως το να μπορείς να φτιάχνει άφθονο κείμενο αυτομάτως. Που σημαίνει ότι μπορείς έτσι να έχεις πολλά και πολύ αποτελεσματικά ρομπότ που θα κάνουν ότι θέλουν ή ότι θέλουν κακόβουλοι άνθρωποι. Αυτό θα μπορούσε να καταλήξει σε αυταρχικούς ηγέτες να χειραγωγούν το εκλογικό κοινό με ψεύτικα κείμενα ή ομιλίες.
Αλλά αυτό που θέλω βασικά να τονίσω είναι κάτι άλλο. Ο υπαρκτός κίνδυνος του τι γίνεται όταν αυτές οι μηχανές γίνουν πιο έξυπνες από εμάς. Πολύ πρόσφατα κατέληξα στο συμπέρασμα ότι το είδος της πληροφορίας που αναπτύσσουμε είναι πολύ διαφορετικό από την πληροφορία που ήδη έχουμε.
Εμείς οι άνθρωποι είμαστε βιολογικά συστήματα. Αυτές οι μηχανές είναι ψηφιακά συστήματα. Η μεγάλη διαφορά με τα ψηφιακά συστήματα είναι ότι έχεις πολλά αντίγραφα με το ίδιο σύνολο βάρους πληροφορίας , με το ίδιο μοντέλο του κόσμου. Όλα αυτά τα αντίγραφα μπορούν να μάθουν χωριστά, αλλά μοιράζονται στιγμιαία την γνώση τους».
Η παραίτηση του Χίντον ακολούθησε έναν αυξανόμενο αριθμό εμπειρογνωμόνων που έχουν προειδοποιήσει ότι η τεχνητή νοημοσύνη θα μπορούσε να προκαλέσει σημαντική βλάβη χωρίς την κατάλληλη εποπτεία και ρύθμιση. Ο Έλον Μασκ και περισσότερες από 1.000 άλλες εξέχουσες προσωπικότητες στον τομέα της τεχνητής νοημοσύνης ζήτησαν εξάμηνη παύση στην ανάπτυξη προηγμένης τεχνητής νοημοσύνης, επικαλούμενοι τους πιθανούς «βαθύτατους κινδύνους για την κοινωνία και την ανθρωπότητα».