OpenAI: Ερευνητής ασφαλείας παραιτήθηκε και προειδοποιεί για την τεχνητή νοημοσύνη- “Τρομοκρατημένος…”
Ο Steven Adler, πρώην ερευνητής ασφάλειας στην OpenAI, ανακοίνωσε την παραίτησή του μετά από τέσσερα χρόνια εργασίας στην εταιρεία, εκφράζοντας έντονη ανησυχία για τον ταχύ ρυθμό ανάπτυξης της τεχνητής νοημοσύνης (AI). Σε ανάρτησή του στην πλατφόρμα X, ανέφερε:
«Ειλικρινά, είμαι πολύ τρομοκρατημένος από τον ρυθμό με τον οποίο αναπτύσσεται η τεχνητή νοημοσύνη αυτές τις μέρες. Όταν σκέφτομαι πού θα μεγαλώσω μια μελλοντική οικογένεια ή πόσα να αποταμιεύσω για τη σύνταξη, δεν μπορώ παρά να αναρωτιέμαι: θα φτάσει η ανθρωπότητα καν σε αυτό το σημείο;»
Ο Adler εξέφρασε την ανησυχία του για την επιδίωξη ανάπτυξης της τεχνητής γενικής νοημοσύνης (AGI) από διάφορες εταιρείες, χαρακτηρίζοντάς την ως «πολύ ριψοκίνδυνο στοίχημα, με τεράστιες αρνητικές συνέπειες». Επεσήμανε ότι κανένα ερευνητικό εργαστήριο δεν έχει βρει λύση για την ευθυγράμμιση της AI με τις ανθρώπινες αξίες και προειδοποίησε ότι ο ταχύς ρυθμός ανάπτυξης μειώνει τις πιθανότητες να βρεθεί μια τέτοια λύση εγκαίρως.
Η παραίτησή του έρχεται σε μια περίοδο αυξημένης ανησυχίας για την ταχεία πρόοδο της AI και τις πιθανές επιπτώσεις της στην ανθρωπότητα. Άλλοι ειδικοί, όπως ο Stuart Russell, καθηγητής επιστήμης υπολογιστών στο Πανεπιστήμιο της Καλιφόρνια, Μπέρκλεϊ, έχουν επίσης εκφράσει φόβους ότι ισχυρά συστήματα AI θα μπορούσαν να ξεφύγουν από τον ανθρώπινο έλεγχο, με δυνητικά καταστροφικές συνέπειες.
Ο Adler τόνισε την ανάγκη για αυστηρούς κανονισμούς ασφαλείας, προειδοποιώντας ότι ακόμη και αν ένα εργαστήριο επιδιώκει να αναπτύξει την AGI με υπευθυνότητα, άλλα μπορεί να παρακάμψουν τα πρότυπα ασφαλείας για να προλάβουν τον ανταγωνισμό, κάτι που θα μπορούσε να οδηγήσει σε καταστροφικά αποτελέσματα.