«Η τεχνητή νοημοσύνη πρέπει να ευθυγραμμίζεται με τις θεμελιώδεις αξίες μας»
Η κύρια πρόκληση της τεχνητής νοημοσύνης είναι ότι τα αποτελέσματά της είναι τόσο απρόβλεπτα, δηλώνει στη συνέντευξη που παραχώρησε στο «Βήμα» ο Στίβεν Κέιβ, εκτελεστικός διευθυντής του Leverhulme Centre for the Future of Intelligence στο Πανεπιστήμιο του Κέιμπριτζ, ο οποίος ήταν ένας εκ των πλέον προβεβλημένων συμμετεχόντων και ομιλητών στο εφετινό «Nostos Conference» που διοργάνωσε στις 26 και 27 Αυγούστου το Ιδρυμα Σταύρος Νιάρχος με θέμα «Ανθρωπότητα και τεχνητή νοημοσύνη». Ο κ. Κέιβ τονίζει ότι σημείο-«κλειδί» είναι οι μεταβολές που θα φέρει η τεχνητή νοημοσύνη να ευθυγραμμίζονται με τις θεμελιώδεις αξίες των κοινωνιών μας, ενώ απορρίπτει τη θεώρηση «μιας κούρσας εξοπλισμών» γύρω από τις νέες τεχνολογίες, όπως αυτή εκδηλώνεται κυρίως μεταξύ ΗΠΑ και Κίνας.
Αντιλαμβάνομαι ότι ίσως η ερώτησή μου ακουστεί απλοϊκή, αλλά αν κάποιος σας ζητούσε να ξεχωρίζατε τη βασική πρόκληση που θέτει η τεχνητή νοημοσύνη, ποια θα επιλέγατε;
«Η κύρια πρόκληση της τεχνητής νοημοσύνης είναι ότι τα αποτελέσματά της είναι τόσο απρόβλεπτα. Θα επηρεάσει τόσο πολλούς τομείς στις ζωές μας – αλλά σε ποιους από αυτούς θα πυροδοτήσει κομβικές εξελίξεις, σε ποιους θα μεταβάλει τα πράγματα πέρα από το σημείο που μπορούμε σήμερα να φανταστούμε; Είναι πολύ δύσκολο να δούμε εκ των προτέρων τέτοιες μεταβολές. Οταν ο καπνός από τις πρώτες μηχανές που λειτουργούσαν με κάρβουνο χάθηκε στην απεραντοσύνη του ουρανού, κανείς δεν θα μπορούσε να είχε μαντέψει ότι η καύση ορυκτών καυσίμων θα άλλαζε μια μέρα το κλίμα σε ολόκληρο τον πλανήτη. Ποιος θα μπορούσε να είχε προβλέψει τον ρόλο που οι σιδηρόδρομοι θα διαδραμάτιζαν στην επέκταση της αποικιοκρατικής ισχύος ή τον ρόλο του ραδιοφώνου στη διασπορά του φασισμού; Οπως και με άλλες τεχνολογίες μετασχηματισμού, η αληθινή πρόκληση της τεχνητής νοημοσύνης είναι να εντοπίσουμε όλους τους πιθανούς τρόπους με τους οποίους μπορεί να μετατοπίσει τα θεμέλια της κοινωνίας μας και να προσπαθήσουμε να διασφαλίσουμε ότι αυτές οι μετατοπίσεις θα ευθυγραμμίζονται με τις θεμελιώδεις αξίες μας».
Πώς η τεχνητή νοημοσύνη μεταβάλλει την καθημερινή μας ζωή, τόσο την προσωπική όσο και την εργασιακή καθημερινότητά μας; Διακρίνετε κάποια συσχέτιση μεταξύ τεχνητής νοημοσύνης και της πανδημίας COVID-19 και πώς θα μπορούσαν να μεταβληθούν οι ζωές μας στο μεσοπρόθεσμο και μακροπρόθεσμο μέλλον;
«Ενας από τους πολλούς τρόπους με τους οποίους η τεχνητή νοημοσύνη θα αλλάξει την καθημερινή μας ζωή είναι η προσφορά προσωποποιημένων υπηρεσιών. Το βλέπουμε ήδη αυτό σε σχέση με εφαρμογές (apps) και με ιστοσελίδες που προτείνουν βιβλία για να διαβάσουμε και ταινίες για να παρακολουθήσουμε. Αυτό πλέον επεκτείνεται σε τομείς όπως η υγεία και η εκπαίδευση. Αυτό θα φέρει θαυμάσια οφέλη, όπως μάθηση παγκοσμίου επιπέδου ή ιατρικές διαγνώσεις κατευθείαν στους φορητούς υπολογιστές μας. Καθώς όμως η COVID-19 έχει ως αποτέλεσμα όλο και περισσότεροι άνθρωποι να μένουν στο σπίτι, φέρνει μαζί της και έναν κίνδυνο. Μας κάνει να αγωνιούμε να συναντήσουμε άλλους ανθρώπους και η τεχνητή νοημοσύνη σημαίνει ότι θα έχουμε λιγότερη ανάγκη να το κάνουμε. Συγγραφείς όπως ο Ε.Μ. Φόρστερ στο «Machine Stops» και ο Ισαάκ Ασίμοφ στο «The Naked Sun» έχουν ήδη περιγράψει έναν κόσμο υλικής άνεσης αλλά κοινωνικής απομόνωσης».
Θα μπορούσαν να τεθούν κανόνες για την εξέλιξη και ανάπτυξη της τεχνητής νοημοσύνης; Πώς θα έμοιαζαν και σε ποιους τομείς θα μπορούσαν να εφαρμοστούν;
«Μπορούμε να αναπτύξουμε κανόνες. Η Ευρωπαϊκή Ενωση δείχνει τον δρόμο σε αυτόν τον τομέα. Η Επιτροπή δημοσίευσε πρόσφατα ένα προσχέδιο κανονισμού για την τεχνητή νοημοσύνη που θα είναι το πρώτο στο είδος του στον κόσμο. Αυτή η νομοθετική πρωτοβουλία προτείνει την πλήρη απαγόρευση ορισμένων χρήσεων της τεχνητής νοημοσύνης, καθώς παραβιάζουν θεμελιώδη δικαιώματα. Αυτό περιλαμβάνει, π.χ., υποσυνείδητες τεχνικές καθοδήγησης της ανθρώπινης συμπεριφοράς. Σε ένα ευρύ φάσμα άλλων τομέων, συμπεριλαμβανομένων της εκπαίδευσης, των ανθρώπινων πόρων και της επιβολής του νόμου, η χρήση της τεχνητής νοημοσύνης θα έπρεπε να θεωρηθεί «υψηλού κινδύνου» και να υποβληθεί σε εκτίμηση και παρακολούθηση. Αυτή είναι μια εξαιρετική αρχή, αλλά υπάρχουν ακόμη πολλά που δεν καταλαβαίνουμε για το πώς αυτές οι τεχνολογίες θα επιδράσουν στα θεμελιώδη δικαιώματα και αξίες. Τούτο θα καταστήσει την εκτίμηση και την παρακολούθηση δύσκολες».
Οι κανόνες επί της τεχνητής νοημοσύνης ταυτίζονται με αυτό που ονομάζεται «Ηθική της τεχνητής νοημοσύνης (Ethics of Artificial Intelligence)»; Αν όχι, ποιες είναι οι διαφορές; Πόσο εύκολο είναι να υπάρξει μια ηθική σε μια τόσο ραγδαία αναπτυσσόμενη τεχνολογία;
«Η ηθική της τεχνητής νοημοσύνης είναι ένας ευρύς όρος, ο οποίος σημαίνει τον συλλογισμό για τον τρόπο με τον οποίο εμείς ως κοινωνία μπορούμε να αναπτύξουμε τέτοια συστήματα με σεβασμό στις αξίες μας. Νομοθετικές πρωτοβουλίες όπως αυτή της ΕΕ αντανακλούν μέρος αυτού – μια προσπάθεια να καταστήσουμε ένα σημαντικό κομμάτι της ηθικής μας εφαρμοστέο. Θα χρειαστεί να συνεχίσουμε να σκεπτόμαστε για την ηθική της τεχνητής νοημοσύνης, ακόμη και αν περάσει ένας νόμος, για διάφορους λόγους: πρώτον, πρέπει να κατανοήσουμε πότε ένα σύστημα τεχνητής νοημοσύνης απειλεί τα δικαιώματά μας. Πρόκειται για περίπλοκο ηθικό ερώτημα. Δεύτερον, ένα νομικό πλαίσιο σημαίνει ότι αυτοί που αναπτύσσουν τεχνολογίες ήσσονος κινδύνου υιοθετούν κανόνες συμπεριφοράς, δηλαδή άτυπους κανόνες για «ηθική» χρήση των συστημάτων τους. Τρίτον, οι νόμοι δεν είναι πάντα ορθοί – πρέπει να υπόκεινται σε αναθεώρηση, όπως και η ηθική μας».
Βλέπετε σύνδεση μεταξύ τεχνητής νοημοσύνης, μέσων κοινωνικής δικτύωσης και δημοκρατίας; Είναι αυτή η σύνδεση απειλητική για τις δημοκρατίες μας, πιθανόν μέσω της διασποράς ακραίας ρητορικής και παραπληροφόρησης;
«Οντως, η τεχνητή νοημοσύνη απειλεί να αυξήσει τους κινδύνους από τα μέσα κοινωνικής δικτύωσης. Καθιστά ευκολότερο για εταιρείες και πολιτικές ομάδες να βρουν ποιος είναι περισσότερο επιρρεπής στα μηνύματά τους και κατόπιν να στοχεύσουν αυτά τα μηνύματα ώστε να είναι αποτελεσματικότερα. Η τεχνητή νοημοσύνη μπορεί να χρησιμοποιηθεί για τη δημιουργία των επονομαζόμενων «deep fakes», στα οποία κάποιος φαίνεται ότι λέει ή κάνει κάτι που στην πραγματικότητα δεν έχει συμβεί. Φυσικά, η προπαγάνδα υπήρχε πάντοτε ανάμεσά μας. Αλλά αυτές οι τεχνολογίες την προσαρμόζουν εντυπωσιακά και είναι δύσκολο να εντοπιστεί. Αυτό θα μπορούσε πραγματικά να αποτελέσει απειλή για τη δημοκρατία».
Πώς θα μετασχηματίσει η τεχνητή νοημοσύνη τον γεωπολιτικό ανταγωνισμό; Φαίνεται να υπάρχουν δύο παράμετροι, αν μπορώ να το θέσω έτσι, μία εσωτερική και μία εξωτερική. Η πρώτη αφορά το πιθανό τέλος της ιδιωτικότητας λόγω της τεχνητής νοημοσύνης. Η δεύτερη αφορά έναν νέο τύπο κούρσας εξοπλισμών. Ποια είναι η άποψή σας;
«Θα ήθελα να εστιάσω στο δεύτερο σημείο, στην κούρσα εξοπλισμών. Διεξάγεται μεγάλη συζήτηση για την κούρσα ανάπτυξης της τεχνητής νοημοσύνης – μεγάλο μέρος αυτής προέρχεται από τις ΗΠΑ, όπου υπάρχει αγωνία για τον ανταγωνισμό με την Κίνα. Αυτή η ρητορική όμως είναι επικίνδυνη: η πεποίθηση ότι υπάρχει μια κούρσα που πρέπει να κερδίσουμε με κάθε κόστος υποβαθμίζει την ιδέα ότι θα έπρεπε να αναπτύξουμε αυτή την τεχνολογία αργά, προσεκτικά και υπεύθυνα. Στην πραγματικότητα, η ιδέα της κούρσας είναι άνευ νοήματος: δεν υπάρχει δρόμος να ακολουθήσουμε, ούτε γραμμή τερματισμού. Ολες οι κοινωνίες θα πρέπει να δοκιμάσουν να υιοθετήσουν την τεχνητή νοημοσύνη ώστε να μας βοηθήσει να αντιμετωπίσουμε αληθινές προκλήσεις, όπως η COVID-19 και η κλιματική αλλαγή, σε ένα πνεύμα διεθνούς συνεργασίας».
Δεν υπάρχουν σχόλια