Google/ Η ιστορική ανατροπή από το “Μην Κάνεις Κακό” στην χρήση τεχνητής νοημοσύνης ακόμα και στους πολέμους!- Τι αλλάζει
![Google/ Η ιστορική ανατροπή από το “Μην Κάνεις Κακό” στην χρήση τεχνητής νοημοσύνης ακόμα και στους πολέμους!- Τι αλλάζει](https://www.libre.gr/wp-content/uploads/2025/02/istockphoto-1452604857-612x612-1-jpg.webp)
Istockphotos
Η εποχή του «Don’t Be Evil» της Google αποτελεί πιά παρελθόν. Η φιλοσοφία, δηλαδή, ότι η τεχνητή νοημοσύνη δεν πρέπει να χρησιμοποιείται για σκοπούς που μπορούν να βλάψουν, μεταξύ αυτών και οι στρατιωτικοί. Το “Μην είσαι/κάνεις Κακό” δίνει, τώρα, τη θέση της στο “Κάνε το Σωστό” (ποιός το αξιολογεί;) και η μητρική της Google αναμένεται να διαθέσει πλέον την τεχνολογία του AI ακόμα και για τέτοιους σκοπούς. Η τεχνητή νοημοσύνη στην υπηρεσία του πολέμου, ίσως ακόμα και της καταστρατήγησης ανθρωπίνων- δημοκρατικών δικαιωμάτων.
Έχοντας αντικαταστήσει αυτό το σύνθημα το 2018 με το πιο ήπιο «Κάνε το σωστό», η ηγεσία της μητρικής εταιρείας Alphabet Inc. έχει πλέον ανατρέψει μια από τις πιο σημαντικές ηθικές θέσεις της εταιρείας, σχετικά με τη χρήση της τεχνητής νοημοσύνης της από τον στρατό, αναφέρει σχετικά το πρακτορείο Bloomberg.
Αυτή την εβδομάδα, η εταιρεία διέγραψε τη δέσμευσή της να μην χρησιμοποιήσει την τεχνητή νοημοσύνη για όπλα ή επιτήρηση, μια υπόσχεση που είχε τεθεί σε ισχύ από το 2018. Οι αρχές της «Υπεύθυνης τεχνητής νοημοσύνης» δεν περιλαμβάνουν πλέον την υπόσχεση και ο επικεφαλής τεχνητής νοημοσύνης της εταιρείας, Ντέμης Χασάμπης, δημοσίευσε μια ανάρτηση ιστολογίου εξηγώντας την αλλαγή, χαρακτηρίζοντάς την ως αναπόφευκτο συμβιβασμό.
«Η [AI] γίνεται τόσο διάχυτη όσο τα κινητά τηλέφωνα», έγραψε ο Hassabis. Έχει «εξελιχθεί γρήγορα».
Όμως, η αντίληψη ότι οι ηθικές αρχές πρέπει επίσης να «εξελίσσονται» με την αγορά είναι εσφαλμένη. Ναι, ζούμε σε ένα ολοένα και πιο περίπλοκο γεωπολιτικό τοπίο, όπως το περιγράφει ο Hassabis, αλλά η εγκατάλειψη ενός κώδικα δεοντολογίας για τον πόλεμο θα μπορούσε να έχει συνέπειες που ξεφεύγουν από τον έλεγχο.
Ένας νέος εφιαλτικός κόσμος;
Φέρτε την τεχνητή νοημοσύνη στο πεδίο της μάχης και θα μπορούσατε να αποκτήσετε αυτοματοποιημένα συστήματα που ανταποκρίνονται το ένα στο άλλο με ταχύτητα μηχανής, χωρίς να χρειάζεται χρόνος για διπλωματία. Ο πόλεμος θα μπορούσε να γίνει πιο θανατηφόρος, καθώς οι συγκρούσεις κλιμακώνονται πριν προλάβουν οι άνθρωποι να επέμβουν. Και η ιδέα της «καθαρής» αυτοματοποιημένης μάχης θα μπορούσε να αναγκάσει περισσότερους στρατιωτικούς ηγέτες να αναλάβουν δράση, παρόλο που τα συστήματα τεχνητής νοημοσύνης κάνουν πολλά λάθη και θα μπορούσαν επίσης να δημιουργήσουν απώλειες αμάχων.
Η αυτοματοποιημένη λήψη αποφάσεων είναι το πραγματικό πρόβλημα εδώ. Σε αντίθεση με την προηγούμενη τεχνολογία που έκανε τους στρατούς πιο αποτελεσματικούς ή ισχυρούς, τα συστήματα τεχνητής νοημοσύνης μπορούν να αλλάξουν θεμελιωδώς ποιος (ή τι) παίρνει την απόφαση να αφαιρέσει ανθρώπινη ζωή.
Είναι επίσης ανησυχητικό ότι ο Χασάμπις, από όλους, έχει το όνομά του στην προσεκτικά διατυπωμένη αιτιολόγηση της Google . Άλλα έλεγε το 2018, όταν η εταιρεία καθιέρωσε τις αρχές της για την τεχνητή νοημοσύνη και ένωσε περισσότερα από 2.400 άτομα στην τεχνητή νοημοσύνη για να δεσμευτούν ότι δεν θα εργαστούν σε πολεμικά συστήματα.
Λιγότερο από μια δεκαετία αργότερα, αυτή η υπόσχεση δεν μετράει πολύ, επισημαίνει σε εκτενές ρεπορτάζ του το Bloomberg. Ο William Fitzgerald, πρώην μέλος της ομάδας πολιτικής της Google και συνιδρυτής της Worker Agency, μιας εταιρείας πολιτικών και επικοινωνιών, λέει ότι η Google υφίστατο έντονες πιέσεις εδώ και χρόνια για να συνάψει στρατιωτικές συμβάσεις.
Θυμήθηκε τον πρώην αναπληρωτή υπουργό Άμυνας των ΗΠΑ Πάτρικ Σάναχαν που επισκέφτηκε το Sunnyvale της Καλιφόρνια, την έδρα της επιχείρησης cloud της Google το 2017, ενώ το προσωπικό της μονάδας έφτιαχνε την απαραίτητη υποδομή για να εργαστεί σε άκρως απόρρητα στρατιωτικά έργα με το Πεντάγωνο. Η ελπίδα για συμβόλαια ήταν ισχυρή.
Ο Φιτζέραλντ βοήθησε να σταματήσει αυτό. Συνδιοργάνωσε τις διαμαρτυρίες της εταιρείας για το Project Maven, μια συμφωνία που έκανε η Google με το Υπουργείο Άμυνας για την ανάπτυξη τεχνητής νοημοσύνης για την ανάλυση βίντεο από drone, που οι υπάλληλοι της Google φοβήθηκαν ότι θα μπορούσε να οδηγήσει σε αυτοματοποιημένη στόχευση. Περίπου 4.000 εργαζόμενοι υπέγραψαν μια αναφορά που έλεγε: «Η Google δεν πρέπει να ασχολείται με τον πόλεμο» και περίπου δώδεκα παραιτήθηκαν σε ένδειξη διαμαρτυρίας. Η Google τελικά υποχώρησε και δεν ανανέωσε το συμβόλαιο.
Τώρα, όπως φαίνεται, όλα μπορεί να αλλάξουν.