
Vitaly Sosnovskiy/Shutterstock Steve Jurvetson/Flickr (CC BY SA 2.0) (Αδειούχος) remix από τον Jason Reed
Οι τιτάνες της τεχνολογίας ζητούν 6μηνη παύση της τεχνητής νοημοσύνης για να καταλάβουν τι είδους τέρας εξαπέλυσαν
Θέλουν να θεωρείται ασφαλές πέρα από «εύλογη αμφιβολία».
Μια ανοιχτή επιστολή που υπογράφεται από μερικά από τα μεγαλύτερα ονόματα στον κόσμο της τεχνολογίας ζητά να σταματήσει η ανάπτυξη της τεχνητής νοημοσύνης (AI) λόγω των φόβων ότι η τεχνολογία θα μπορούσε να δημιουργήσει «βαθούς κινδύνους για την κοινωνία και την ανθρωπότητα».
Δημοσιεύτηκε από το Future of Life Institute, έναν οργανισμό του οποίου ο δηλωμένος στόχος είναι «να κατευθύνει τις μετασχηματιστικές τεχνολογίες μακριά από ακραίους, μεγάλης κλίμακας κινδύνους», η επιστολή κατάφερε να προσελκύσει περισσότερες από 1.100 υπογραφές από τον CEO του Twitter, Elon Musk και την Apple. -ιδρυτής Steve Wozniak.
Συγκεκριμένα, η επιστολή καλεί όλα τα εργαστήρια τεχνητής νοημοσύνης σε όλο τον κόσμο «να σταματήσουν αμέσως για τουλάχιστον 6 μήνες την εκπαίδευση συστημάτων τεχνητής νοημοσύνης πιο ισχυρών από το GPT-4», το μεγάλο πολυτροπικό μοντέλο γλώσσας που ενημερώθηκε πρόσφατα και κυκλοφόρησε από την εταιρεία OpenAI.
«Ισχυρά συστήματα τεχνητής νοημοσύνης θα πρέπει να αναπτυχθούν μόνο όταν είμαστε σίγουροι ότι τα αποτελέσματά τους θα είναι θετικά και οι κίνδυνοι τους θα είναι διαχειρίσιμοι», αναφέρει η επιστολή. «Αυτή η εμπιστοσύνη πρέπει να αιτιολογείται επαρκώς και να αυξάνεται με το μέγεθος της πιθανής επίδρασης ενός συστήματος».
Εάν μια τέτοια παύση δεν μπορεί να επιτευχθεί, συνεχίζει η επιστολή, «οι κυβερνήσεις θα πρέπει να παρέμβουν και να θεσπίσουν μορατόριουμ».
Άλλοι εξέχοντες υπογράφοντες είναι ο πρώην υποψήφιος για την προεδρία Andrew Yang, ο συνιδρυτής του Skype Jaan Tallinn, καθώς και πολλοί ειδικοί στον τομέα της έρευνας AI. Δεδομένου ότι η επιστολή είναι δημόσια ανοιχτή σε υπογραφές, ωστόσο, οι χρήστες καλούνται να αντιμετωπίζουν τη λίστα με τα ονόματα με προσοχή.
Όπως αναφέρεται στην επιστολή, Το OpenAI συμφώνησε πρόσφατα ότι πιθανότατα θα ήταν σημαντικό κάποια στιγμή να λάβετε ανεξάρτητη επανεξέταση πριν από την εκπαίδευση μελλοντικών συστημάτων. Η εταιρεία τεχνητής νοημοσύνης πρότεινε επίσης ότι μπορεί να χρειαστεί να συμφωνηθεί ένα όριο σχετικά με «τον ρυθμό ανάπτυξης των υπολογιστών που χρησιμοποιούνται για τη δημιουργία νέων μοντέλων».
Το Ινστιτούτο Future of Life υποστηρίζει ότι η ώρα για τέτοια μέτρα είναι τώρα.
«Τα εργαστήρια AI και οι ανεξάρτητοι εμπειρογνώμονες θα πρέπει να χρησιμοποιήσουν αυτή την παύση για να αναπτύξουν και να εφαρμόσουν από κοινού ένα σύνολο κοινών πρωτοκόλλων ασφάλειας για προηγμένο σχεδιασμό και ανάπτυξη τεχνητής νοημοσύνης που ελέγχονται αυστηρά και επιβλέπονται από ανεξάρτητους εξωτερικούς ειδικούς», συνεχίζει η επιστολή. «Αυτά τα πρωτόκολλα θα πρέπει να διασφαλίζουν ότι τα συστήματα που τα τηρούν είναι ασφαλή πέρα από εύλογη αμφιβολία».
Ο Μασκ, ο οποίος είναι εξωτερικός σύμβουλος του Ινστιτούτου Future of Life, βοήθησε στην ίδρυση του OpenAI πριν παραιτηθεί από το διοικητικό συμβούλιο της εταιρείας λόγω διαφωνιών με την κατεύθυνση της εταιρείας.
«Το OpenAI δημιουργήθηκε ως ανοιχτού κώδικα (για αυτό το λόγο το ονόμασα «Open» AI), μη κερδοσκοπική εταιρεία για να χρησιμεύσει ως αντίβαρο στην Google, αλλά τώρα έχει γίνει μια εταιρεία κλειστού κώδικα, μέγιστου κέρδους που ελέγχεται ουσιαστικά από τη Microsoft », Μασκ ανέβασε στο Twitter τον προηγούμενο μήνα. «Καθόλου αυτό που είχα σκοπό».
Η επιστολή είναι απίθανο να έχει σημαντική επίδραση, τουλάχιστον προς το παρόν, στην ανάπτυξη της τεχνητής νοημοσύνης, καθώς οι μεγάλες εταιρείες τεχνολογίας φωνάζουν να ανταγωνιστούν το OpenAI και το ChatGPT.

