Έλον Μασκ και Στηβ Βόζνιακ υπογράφουν αίτημα για παύση στην ανάπτυξη τεχνητής νοημοσύνης

Newsroom
Viber Whatsapp Μοιράσου το
Έλον Μασκ και Στηβ Βόζνιακ υπογράφουν αίτημα για παύση στην ανάπτυξη τεχνητής νοημοσύνης
«Πρέπει όντως να αναπτύξουμε μη ανθρώπινα μυαλά που ίσως μπορέσουν τελικά να μας ξεπεράσουν σε αριθμό, σε ευφυία, να μας κάνουν ξεπερασμένους και να μας αντικαταστήσουν;»

«Πρέπει όντως να αναπτύξουμε μη ανθρώπινα μυαλά που ίσως μπορέσουν τελικά να μας ξεπεράσουν σε αριθμό, σε ευφυία, να μας κάνουν ξεπερασμένους και να μας αντικαταστήσουν; Πρέπει όντως να διακινδυνεύσουμε να χάσουμε τον έλεγχο του πολιτισμού μας;»

Αυτό το ερώτημα περιλαμβάνεται σε ένα αίτημα που καλεί τους προγραμματιστές της τεχνολογίας τεχνητής νοημοσύνης να σταματήσουν τις προσπάθειές τους για έξι μήνες.

Μεταξύ των επιφανών ονομάτων που έχουν ήδη υπογράψει το αίτημα είναι τα μεγαθήρια του τεχνολογικού κόσμου Elon Musk και Steve Wozniak αλλά και ο πρώην υποψήφιος για την προεδρία των ΗΠΑ Andrew Yang.

Η λίστα υποηγραφών είναι έργο του Ινστιτούτου Future of Life Institute, ενός οργανισμού που αναφέρει ότι η αποστολή του είναι «να κατευθύνει τις μετασχηματιστικές τεχνολογίες μακριά από ακραίους, μεγάλης κλίμακας κινδύνους και προς όφελος της ζωής».

Βέβαια, το αίτημα περιγράφει ένα τρομακτικό μέλλον αν επιτραπεί στους προγραμματιστές τεχνητής νοημοσύνης, όπως αυτοί που βρίσκονται πίσω από την τεχνολογία ChatGPT, να συνεχίσουν ανεξέλεγκτα την πορεία τους. Όπως αναφέρεται, «τους τελευταίους μήνες τα εργαστήρια τεχνητής νοημοσύνης έχουν εγκλωβιστεί σε έναν ανεξέλεγκτο αγώνα δρόμου για την ανάπτυξη και λειτουργία ολοένα και πιο ισχυρών ψηφιακών μυαλών που κανείς -ούτε καν οι δημιουργοί τους- δεν μπορεί να κατανοήσει, να προβλέψει ή να ελέγξει αξιόπιστα».

Η ομάδα του Future of Life Institute δεν ζητά να μπει οριστικό τέλος στην ανάπτυξη της τεχνητής νοημοσύνης. Αντίθετα, το αίτημα υπαγορεύει ένα διάλειμμα έξι μηνών, το οποίο θα επιτρέψει στα εργαστήρια τεχνητής νοημοσύνης και στους ανεξάρτητους εμπειρογνώμονες «να αναπτύξουν και να εφαρμόσουν από κοινού ένα σύνολο κοινών πρωτοκόλλων ασφαλείας για τον σχεδιασμό και την ανάπτυξη προηγμένης τεχνητής νοημοσύνης... Τα πρωτόκολλα αυτά θα πρέπει να διασφαλίζουν ότι τα συστήματα που τα τηρούν είναι ασφαλή πέρα από κάθε λογική αμφιβολία».

Εν τέλει, το Ινστιτούτο αποκαλεί ένα τέτοιο διάλειμμα το «καλοκαίρι της τεχνητής νοημοσύνης» κατά το οποίο «θα... σχεδιάσουμε αυτά τα συστήματα για το ξεκάθαρο όφελος όλων και θα δώσουμε στην κοινωνία την ευκαιρία να προσαρμοστεί».

Ακολουθήστε το insider.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις από την Ελλάδα και τον κόσμο.

gazzetta
gazzetta reader insider insider