Κυριακή, Φεβρουαρίου 9

Πρώην ερευνητής ασφαλείας της OpenAI: «Είμαι τρομοκρατημένος από τον ρυθμό ανάπτυξης της τεχνητής νοημοσύνης»

Ο πρώην ερευνητής ασφάλειας στο OpenAI, Στίβεν Άντλερ, λέει ότι ο αγώνας AGI δεν είναι απλώς επικίνδυνος, αλλά έχει και ένα «τεράστιο μειονέκτημα».

Ο ερευνητής ασφάλειας της OpenAI, Στίβεν Άντλερ, ανακοίνωσε ότι τα εργαστήρια AI παίζουν ένα «πολύ επικίνδυνο στοίχημα» και ότι είναι «τρομοκρατημένος από τον ρυθμό ανάπτυξης της AI».

«Ειλικρινά, είμαι πολύ τρομοκρατημένος από τον ρυθμό ανάπτυξης της τεχνητής νοημοσύνης αυτές τις μέρες. Όταν σκέφτομαι πού θα μεγαλώσω μια μελλοντική οικογένεια ή πόσα χρήματα θα αποταμιεύσω για τη σύνταξη, δεν μπορώ παρά να αναρωτιέμαι: Θα φτάσει η ανθρωπότητα σε αυτό το σημείο;» πρόσθεσε.

Στις επόμενες αναρτήσεις, πρόσθεσε ότι «ο αγώνας AGI είναι ένα πολύ επικίνδυνο στοίχημα, με τεράστιο μειονέκτημα». Δημοσίευσε ότι κανένα εργαστήριο στον κόσμο δεν έχει λύση για την ευθυγράμμιση της τεχνητής νοημοσύνης, προσθέτοντας ότι φαίνεται ότι οι άνθρωποι έχουν κολλήσει σε μια «πραγματικά κακή ισορροπία».

«Όσο για το τι ακολουθεί, απολαμβάνω ένα διάλειμμα για λίγο, αλλά είμαι περίεργος: ποιες θεωρείτε τις πιο σημαντικές και παραμελημένες ιδέες στην ασφάλεια/πολιτική της τεχνητής νοημοσύνης; Είμαι ιδιαίτερα ενθουσιασμένος για τις μεθόδους ελέγχου, την ανίχνευση μεθόδων και τις περιπτώσεις ασφαλείας», δημοσίευσε στο X.

photo: pixabay

 el.gr

 

 .triklopodia.gr

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου

Οιοσδήποτε θίγεται από άρθρο ή σχόλιο που έχει αναρτηθεί στο oxafies.com , μπορεί να μας ενημερώσει, στο oxafies@gmail.com ώστε να το αφαιρέσουμε άμεσα. Ομοίως και για φωτογραφίες που υπόκεινται σε πνευματικά δικαιώματα.

Στo oxafies.com ακούγονται όλες οι απόψεις . Αυτό δε σημαίνει ότι τις υιοθετούμε η ότι συμπίπτουν με τις δικές μας .