Η αξιοποίηση της Τεχνητής Νοημοσύνης (ΑΙ) μετασχηματίζεται από επιλογή σε αναγκαιότητα, με ευρεία κλιμάκωση της υιοθέτησης αλγορίθμων και εφαρμογών ΑΙ, καθώς μπορεί να ενισχύσει καθοριστικά την ανθρώπινη ευημερία. Με διττή επιδίωξη, αφενός την καινοτομία και ανάπτυξη -δίχως αποκλεισμούς- και αφετέρου την προστασία των ανθρωπίνων δικαιωμάτων και θεμελιωδών ελευθεριών, η ενσωμάτωση της επιτάσσει ανθρωποκεντρικό και ασφαλή σχεδιασμό
Το παρόν άρθρο έχει ενημερωτικό χαρακτήρα με αναφορά σε βασικές έννοιες και ζητήματα της ΑΙ ώστε να κατανοήσουμε τη συνύπαρξη των δυο άλφα (2Α) ήτοι, Αισιοδοξία αλλά και Ανησυχία για την εντεινόμενη αξιοποίηση της.
Γιατί η τεχνητή νοημοσύνη είναι σημαντική και με ποιο τρόπο μπορεί να συμβάλει στην κοινωνία και οικονομία; Η απάντηση αφορά στην σχεδόν καθολική επίδραση στα εξής:
• επίλυση πολύπλοκων προβλημάτων διότι οι αλγόριθμοι ΤΝ μπορούν να επεξεργάζονται μεγάλο όγκο δεδομένων και να λαμβάνουν αποφάσεις σε περιβάλλον υψηλής αβεβαιότητας, βοηθώντας στην επίλυση προβλημάτων που είναι δύσκολο ή αδύνατο να επιλυθούν από τον άνθρωπο.
• επίλυση πολύπλοκων προβλημάτων διότι οι αλγόριθμοι ΑΙ μπορούν να επεξεργάζονται πολύπλοκες πληροφορίες.
• βελτίωση της απόδοσης και ποιότητας αποτελεσμάτων σε πλήθος δραστηριοτήτων.
• συμβολή στην καινοτομία και επιστημονική έρευνα, με την ανάπτυξη νέων τεχνολογιών και λύσεων, όπως στην ιατρική, ρομποτική, ενέργεια, κλιματική αλλαγή.
• βελτίωση δημοσίων υπηρεσιών, όπως υγεία, εκπαίδευση, ασφάλεια και μεταφορές, και συνεισφορά στην εξάλειψη των ανισοτήτων.
• ενίσχυση της πρόσβαση όλων στην ψηφιακή τεχνολογία και υπηρεσίες, ενθαρρύνοντας την απόκτηση νέων δεξιοτήτων.
Είναι προφανές λοιπόν ότι η συγκρότηση Συμβουλευτικής Επιτροπής υπό τον Πρωθυπουργό, με αντικείμενο την προετοιμασία της χώρας για τις εξελίξεις στις εφαρμογές ΑΙ είναι εξαιρετικά επίκαιρη και καθοριστικής σημασίας. Η δε πρωτοβουλία του Υπουργείου Ψηφιακής Διακυβέρνησης για ενσωμάτωση της τεχνητής νοημοσύνης στο Gov.gr αποτελεί την απαρχή νέων δράσεων που θα βελτιώσουν τόσο το επίπεδο εξυπηρέτησης του πολίτη όσο και την αποδοτικότητα της Δημόσιας Διοίκησης.
Καθώς η τεχνητή νοημοσύνη ήδη αποτελεί βασικό εργαλείο ανάπτυξης, είναι σημαντικό να διασφαλιστεί η υπεύθυνη χρήση της, λαμβάνοντας υπόψη ηθικά και κοινωνικά ζητήματα. Είναι κρίσιμο να υφίστανται οι κατάλληλοι ηθικοί, νομικοί και τεχνολογικοί όροι ώστε η εξέλιξη της να συμβαδίζει με το κοινό καλό και την ασφάλεια της ανθρωπότητας.
Το μείζον αυτό ζήτημα επισημάνθηκε και με την υπογραφή της πρόσφατης διακήρυξης στο Bletchley κατά τη διάρκεια της Συνόδου Κορυφής για την Ασφάλεια της AI. Η συλλογική συναίνεση 28 χωρών, σκιαγράφησε το κοινό όραμα για την προώθηση της ασφάλειας και των ηθικών κριτηρίων στην ανάπτυξη της τεχνητής νοημοσύνης. Κράτη, όπως οι ΗΠΑ, ΕΕ και Κίνα που πρωτοπορούν και ανταγωνίζονται στον χώρο της ΑΙ δίχως ισχυρούς προβληματισμούς έως σήμερα, κοινά δήλωσαν την πρόθεσή τους περί συνεργατικής προσπάθειας για την αντιμετώπιση της εν δυνάμει καταστροφικής δύναμης της ΑΙ. Κορυφαίοι δε προγραμματιστές ΑΙ συμφώνησαν να συνεργαστούν με τις κυβερνήσεις για τη δοκιμή νέων μοντέλων πριν από την κυκλοφορία τους, ώστε να βοηθήσουν στη διαχείριση των κινδύνων της ταχέως αναπτυσσόμενης τεχνολογίας.
Γιατί όμως η τεχνητή νοημοσύνη είναι πιθανό να έχει και καταστροφική δύναμη; Η απάντηση αφορά σε ζητήματα όπως:
• αυτονομία και αυτοεξέλιξη, καθώς η ΑΙ μπορεί να αποκτήσει αυτονομία και δυνατότητα να εξελίσσεται χωρίς ανθρώπινη παρέμβαση. Αυτό μπορεί να οδηγήσει σε απρόβλεπτες καταστάσεις και συνεπώς δράσεις αντίθετες προς τα συμφέροντα της ανθρωπότητας.
• έλλειψη ηθικών κανονισμών, καθώς τα συστήματα ΑΙ λειτουργούν βάσει αλγορίθμων και δεδομένων χωρίς ηθικά πρότυπα.
• ανεπαρκή κατανόηση ανθρώπινου συναισθηματικού κόσμου, ώστε να λαμβάνονται αποφάσεις σύμφωνα με ανθρώπινες ανάγκες και αξίες.
• καταχρηστική χρήση, καθώς μπορεί να χρησιμοποιηθεί για αρνητικούς σκοπούς, όπως κυβερνοεπιθέσεις, παρακολούθηση πολιτών ή κατασκευή αυτόνομων όπλων.
Τα παραπάνω εισάγουν το ζήτημα του ελέγχου των αλγορίθμων ΑΙ, καθώς οι αποφάσεις λαμβάνονται με βάση τους αλγορίθμους. Η συζήτηση για την ανάγκη ελέγχου τους είναι ένα μείζον και διεθνές θέμα για τους παρακάτω λόγους:
• αδιαφάνεια: οι περίπλοκοι αλγόριθμοι είναι δυσνόητοι και συχνά δημιουργούνται από την ίδια την ΑΙ και όχι από ανθρώπους, οδηγώντας σε έλλειψη διαφάνειας για τον τρόπο λήψης αποφάσεων. Θέσπιση διεθνών προτύπων και σύμπραξη δυνάμεων μπορούν να συμβάλουν στη αντιμετώπιση των ζητημάτων που ανακύπτουν.
• κίνδυνος διακριτικής χρήσης: χώρες ή οργανισμοί μπορεί να χρησιμοποιήσουν ΑΙ με σκοπό που θέτει σε κίνδυνο την ασφάλεια ή δικαιώματα πολιτών. Διεθνείς κανονισμοί και εργαλεία έμπρακτης εφαρμογής τους μπορούν να λειτουργήσουν αποτρεπτικά.
Οι προσπάθειες, ωστόσο, για διεθνή ρύθμιση πρέπει να λαμβάνουν υπόψη τις νομικές, πολιτιστικές και ηθικές διαφορές μεταξύ των χωρών. Επιπλέον, είναι κρίσιμο κανονιστικές ρυθμίσεις να μην λειτουργήσουν ασφυκτικά για την καινοτομία και την ανάπτυξη της ΑΙ. Και αυτό είναι το μείζον: Η προώθηση της καινοτομίας, με ταυτόχρονη μέριμνα για την προστασία των προσωπικών δεδομένων. Είναι συνεπώς απαραίτητη αλλά και κρίσιμη η διεθνής συνεργασία για τον έλεγχο των αλγορίθμων προκειμένου να μην έχουν επικίνδυνες συνέπειες για την ανθρωπότητα.
Ο έλεγχος των αλγορίθμων με διακρατική συνεργασία είναι μια πρόκληση που απαιτεί συντονισμένες προσπάθειες από χώρες και φορείς. Τρόποι που μπορεί να επιτευχθεί είναι:
• θέσπιση διεθνών προτύπων και κανονισμών από οργανισμούς όπως ΕΕ, ΟΗΕ και ΟΟΣΑ.
• ανταλλαγή βέλτιστων πρακτικών από τα κράτη σχετικά με τον έλεγχο των αλγορίθμων.
• κοινή έρευνα σε προγράμματα ανάπτυξης αλγορίθμων που πληρούν υψηλά πρότυπα διαφάνειας, δικαιοσύνης και ασφάλειας.
• διαλειτουργικότητα και συμβατότητα, ώστε οι αλγόριθμοι που αναπτύσσονται σε επιμέρους χώρες και φορείς είναι διαλειτουργικοί, ώστε να διευκολύνεται η εποπτεία και ο έλεγχος.
• συμμετοχή των πολιτών στην ανάπτυξη, έλεγχο και χρήση των αλγορίθμων
*Το άρθρο αυτό για την ΑΙ συντάχθηκε με τη συμβολή εργαλείων ΑΙ. Μια ακόμα δυνατότητα της, αλλά και εστία προβληματισμού για τα όρια της ακαδημαϊκής λογοκλοπής