ΟΗΕ: Δεν επήλθε συμφωνία για τα «ρομπότ - δολοφόνους»
Έχετε ακουστά τα αυτόνομα killer robots; Πρόκειται για αυτόνομα οπλικά συστήματα – γνωστά ως ρομπότ δολοφόνοι – τα οποία, όπως αναφέρει πρόσφατη έρευνα του Συμβουλίου Ασφαλείας των Ηνωμένων Εθνών, χρησιμοποιήθηκαν πέρυσι στον εμφύλιο πόλεμο στη Λιβύη και έκαναν πράξη τον σκοπό της ύπαρξης τους.
Η Σύμβαση για Συγκεκριμένα Συμβατικά Όπλα των Ηνωμένων Εθνών που ιδρύθηκε το 1983 ενημερώνεται ανά τακτά χρονικά διαστήματα για τον περιορισμό των πιο σκληρών όπλων παγκοσμίως. Ωστόσο, στη διάσκεψη που έλαβε χώρα στη Γενεύη στις 13-17 Δεκεμβρίου το ζήτημα της απαγόρευσης των αυτόνομων όπλων δεν κατέληξε σε κοινή συμφωνία. Το ζήτημα παραμένει ακόμα «ανοικτό» και σύμφωνα με τα πρακτικά, μπορεί να τεθεί θέμα αναθεώρησης σε πέντε χρόνια από τώρα.
Τα αυτόνομα killer robots μπορούν να λειτουργούν ανεξάρτητα, επιλέγοντας στόχους χωρίς να χρειαστεί να πάρει την σκληρή απόφαση ένας άνθρωπος. Σύμφωνα με τον James Dawes, καθηγητή Αγγλικών στο Macalester College, υπάρχουν τέσσερις επιτακτικοί κίνδυνοι με τα αυτόνομα killer robots.
Το πρώτο είναι το πρόβλημα της εσφαλμένης αναγνώρισης. Κατά την επιλογή ενός στόχου, τα αυτόνομα όπλα θα μπορούν να διακρίνουν μεταξύ εχθρικών στρατιωτών και 12χρονων που παίζουν με όπλα;
Επί της ουσίας, ο Dawes αναφέρει ότι η διαφορά μεταξύ ανθρώπινου και αλγοριθμικού λάθους είναι σαν τη διαφορά μεταξύ της αποστολής μιας επιστολής και ενός tweet. Η κλίμακα, το εύρος και η ταχύτητα των συστημάτων των αυτόνομων killers robots – που διέπονται από έναν αλγόριθμο στόχευσης - θα μπορούσε κάλλιστα να κάνει τις εσφαλμένες αναγνωρίσεις στόχων σε μεμονωμένους ανθρώπους να φαίνονται σαν απλά σφάλματα.
Όπως έχουν δείξει πολλές μελέτες για τα αλγοριθμικά σφάλματα σε όλους τους κλάδους, οι καλύτεροι αλγόριθμοι μπορούν να δίνουν σωστά αποτελέσματα στις εσωτερικές δοκιμές, αλλά τρομερά σφάλματα όταν προχωρά η εφαρμογή τους στην πράξη σε μεγάλους πληθυσμούς.
Αυτομάτως λοιπόν προκύπτει ο δεύτερος κίνδυνος, καθώς όταν τα συστήματα τεχνητής νοημοσύνης κάνουν λάθη, τα λάθη είναι μαζικά. Και όταν κάνουν λάθος, ούτε οι κατασκευαστές τους δεν μπορούν να διακρίνουν τις αιτίες, ούτε να προσδιορίσουν τρόπους διόρθωσης.
Οι επόμενοι δύο κίνδυνοι είναι τα προβλήματα του χαμηλού και υψηλού επιπέδου διάδοσης. O Dawes, δηλαδή, εξηγεί ότι ακόμη και οι στρατοί που αναπτύσσουν αυτού του είδους τα όπλα λειτουργούν με το σκεπτικό ότι θα συγκρατήσουν και θα ελέγξουν τη χρήση των αυτόνομων όπλων. Αλλά, εάν έχουμε διδαχθεί κάτι στην ιστορία της τεχνολογίας των όπλων είναι ότι τα όπλα εξαπλώνονται.
Στην περίπτωση δε που η εξάπλωση των αυτόνομων όπλων γίνει με γρήγορους ρυθμούς, μπορούμε εύκολα να φανταστούμε μέχρι πού θα είναι διατεθειμένα τα έθνη να φτάσουν για να υπερισχύσουν. Τα έθνη θα μπορούσαν να ανταγωνιστούν για την ανάπτυξη ολοένα και πιο καταστροφικών αυτόνομων όπλων (χημικά, βιολογικά, ραδιολογικά και πυρηνικά όπλα). Επομένως, το συμπέρασμα είναι ένα: περισσότερα αυτόνομα όπλα, περισσότεροι πόλεμοι.
Τέλος, τα αυτόνομα όπλα θα υπονόμευαν εν τέλει τους διεθνείς νόμους του πολέμου, αυτούς που θεωρητικά κρατούν τους ανθρώπους μακριά από φρικαλεότητες και εγκλήματα πολέμου. Βάσει αυτών των νόμων, οι άνθρωποι λογοδοτούν για τις πράξεις τους ακόμη και σε καιρό πολέμου – το δικαίωμα να σκοτώσουν άλλους στρατιώτες κατά τη διάρκεια μιας μάχης, δεν δίνει το δικαίωμα δολοφονίας άμαχου πληθυσμού.
Και εδώ εγείρονται τα εξής ερωτήματα: Σε ποιον μπορούν να λογοδοτήσουν τα αυτόνομα όπλα; Ποιος ευθύνεται για ένα ρομπότ που διαπράττει εγκλήματα πολέμου; Ποιος θα δικαζόταν;
Η ύπαρξη των νόμων του πολέμου θα αποδυναμωθεί σημαντικά. Σαν να ξεκινάει ένας πόλεμος και όλοι οι στρατιώτες, αντάρτες, διεθνείς και εγχώριοι τρομοκράτες να διαθέτουν απεριόριστη θανατηφόρα δύναμη με μηδενικό κίνδυνο σε τόπους και ανθρώπους της επιλογής τους, χωρίς να προκύπτει καμία νομική ευθύνη.
Δεν υπάρχουν σχόλια