Ο Ίλον Μασκ είναι σίγουρος ότι η τεχνητή νοημοσύνη αξίζει τον κίνδυνο, ακόμα κι αν υπάρχει 1 στις 5 πιθανότητες η τεχνολογία να στραφεί εναντίον των ανθρώπων.
Μιλώντας στο συνέδριο «Great AI Debate» νωρίτερα αυτόν τον μήνα, ο Μασκ επανυπολόγισε την προηγούμενη εκτίμηση του για τον κίνδυνο της τεχνολογίας, λέγοντας: «Νομίζω ότι υπάρχει κάποια πιθανότητα να τελειώσει την ανθρωπότητα. Μάλλον συμφωνώ με τον Τζόφ Χίντον (Βρετανοκαναδός επιστήμονας υπολογιστών) ότι είναι περίπου 10% ή 20% ή κάτι τέτοιο».
Αλλά, πρόσθεσε: «Νομίζω ότι το πιθανό θετικό σενάριο υπερτερεί του αρνητικού σεναρίου».
Ο Μασκ δεν ανέφερε πώς υπολόγισε τον κίνδυνο.
Ο μεγιστάνας εκτίμησε ότι η ψηφιακή νοημοσύνη θα ξεπεράσει όλη την ανθρώπινη νοημοσύνη έως το 2030. Ενώ διατηρεί τα πιθανά θετικά στοιχεία υπερτερούν των αρνητικών, ο Μασκ αναγνώρισε τον κίνδυνο για την ανθρωπότητα η ανάπτυξη της AI συνεχίσει στην τρέχουσα τροχιά της σε ορισμένες από τις σημερινές χρήσεις.
«Μεγαλώνεις ένα AGI (τεχνητή γενική νοημοσύνη - η τεχνητή γενική νοημοσύνη είναι ένας τύπος τεχνητής νοημοσύνης που μπορεί να αποδώσει εξίσου καλά ή καλύτερα από τους ανθρώπους σε ένα ευρύ φάσμα γνωστικών εργασιών) . Είναι σχεδόν σαν να μεγαλώνεις ένα παιδί, αλλά σαν μια σούπερ ιδιοφυΐα, σαν ένα παιδί με νοημοσύνη σαν Θεού — και έχει σημασία πώς μεγαλώνεις το παιδί» σημείωσε Ο μασκ στην εκδήλωση της Silicon Valley το Μάρτιο. «Ένα από τα πράγματα που πιστεύω ότι είναι απίστευτα σημαντικό για την ασφάλεια της τεχνητής νοημοσύνης είναι να έχουμε ένα μέγιστο είδος τεχνητής νοημοσύνης που αναζητά την αλήθεια και έχει περιέργεια».
Ο Μασκ είπε ότι το τελικό συμπέρασμά του σχετικά με τον καλύτερο τρόπο για την επίτευξη ασφάλειας στην τεχνητή νοημοσύνη είναι να αναπτύξουμε την τεχνητή νοημοσύνη με τρόπο που την αναγκάζει να είναι αληθινή.
«Μην το αναγκάζετε να λέει ψέματα, ακόμα κι αν η αλήθεια είναι δυσάρεστη», ανέφερε ο Μασκ εξηγώντας τον καλύτερο τρόπο για να κρατηθούν οι άνθρωποι ασφαλείς από την τεχνολογία. «Είναι πολύ σημαντικό. Μην κάνετε την τεχνητή νοημοσύνη να ψεύδεται».
«Συντηρητική η εκτίμηση του Μασκ»
Ο Ρόμαν Γιαμπόλσκι, ερευνητής ασφάλειας τεχνητής νοημοσύνης και διευθυντής του Εργαστηρίου Κυβερνοασφάλειας στο Πανεπιστήμιο του Λούισβιλ, είπε στο Business Insider ότι ο Μασκ έχει δίκιο όταν λέει ότι η τεχνητή νοημοσύνη θα μπορούσε να αποτελέσει υπαρξιακό κίνδυνο για την ανθρωπότητα, αλλά πρόσθεσε «αν μη τι άλλο, είναι μάλλον συντηρητικός στην εκτίμησή του».
«Το πραγματικό «p(doom)» είναι πολύ υψηλότερο κατά τη γνώμη μου» σχολίασε ο Γιαμπόλσκι, εννοώντας την «πιθανότητα καταστροφής» (probability of doom) ή την πιθανότητα η τεχνητή νοημοσύνη να αναλάβει τον έλεγχο της ανθρωπότητας ή να προκαλέσει ένα συμβάν που θα καταστρέψει την ανθρωπότητα, όπως με τη δημιουργία ενός νέου βιολογικού όπλου ή με κοινωνική κατάρρευση λόγω μεγάλης κλίμακας κυβερνοεπίθεσης ή πυρηνικού πολέμου.
Οι New York Times χαρακτήρισαν το (p)doom «το νοσηρό νέο στατιστικό στοιχείο που σαρώνει τη Silicon Valley», με διάφορα στελέχη τεχνολογίας που αναφέρει το πρακτορείο να κάνουν εκτιμήσεις που κυμαίνονται από 5 έως 50% για μια Αποκάλυψη που βασίζεται στην τεχνητή νοημοσύνη. Ο Γιαμπόλσκι τοποθετεί τον κίνδυνο στο 99,999999%.
Ο επιστήμονας επισήμανε ότι επειδή θα ήταν αδύνατο να ελέγξουμε την προηγμένη τεχνητή νοημοσύνη, η μόνη μας ελπίδα είναι να μην τη φτιάξουμε εξαρχής.
«Δεν είμαι σίγουρος γιατί πιστεύει ότι είναι καλή ιδέα να συνεχίσουμε να αναπτύσσουμε αυτή την τεχνολογία ούτως ή άλλως» πρόσθεσε ο Γιαμπόλσκι. «Αν ανησυχεί ότι οι ανταγωνιστές θα φτάσουν ‘’εκεί’’ πρώτοι, δεν έχει σημασία, καθώς η ανεξέλεγκτη υπερευφυΐα είναι εξίσου κακή, ανεξάρτητα από το ποιος τη θα δημιουργήσει».
Διαβάστε τις Ειδήσεις σήμερα και ενημερωθείτε για τα πρόσφατα νέα.
Ακολουθήστε το Skai.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις.