Γιατί τα Super Intelligent AIs δεν θα καταστρέψουν τους ανθρώπους ανά πάσα στιγμή

Συγγραφέας: Roger Morrison
Ημερομηνία Δημιουργίας: 1 Σεπτέμβριος 2021
Ημερομηνία Ενημέρωσης: 1 Ιούλιος 2024
Anonim
Lotus-Born Master: The Shambhala Access Code || Guru Padmasambhava, Guru Rinpoche ||
Βίντεο: Lotus-Born Master: The Shambhala Access Code || Guru Padmasambhava, Guru Rinpoche ||

Περιεχόμενο


Πηγή: Willyambradberry / Dreamstime.com

Πάρε μακριά:

Παρά τις μερικές από τις μεγάλες sci-fi που έχει εμπνεύσει, οι ειδικοί εξηγούν ότι η AI πιθανώς δεν θα μας απειλήσει άμεσα από την άποψη της διανοητικής υπεροχής.

Αν δίνετε προσοχή σε αυτό που οι άνθρωποι μιλάνε στον χώρο της τεχνολογίας, μπορεί να έχετε ακούσει κάποια εκδοχή των ανησυχιών του Elon Musk, του Bill Gates και άλλων σχετικά με τις τεχνολογίες υπερσύγχρονης AI - αν και οι πρόσφατες αναφορές δείχνουν ότι ο Gates έχει κρυώσει λίγο σε όλα αυτά τα πράγματα της Κασσάνδρας, εξακολουθεί να υπάρχει άφθονη ανησυχία και συλλογιστική πίσω από αυτό.

Ερωτήσεις αφθονούν: Τα ρομπότ θα γίνουν πιο έξυπνα από τον άνθρωπο; Η AI θα αναλάβει τις δουλειές μας και τη ζωή μας; Θα αρχίσει η τεχνολογία να ελέγχει τον άνθρωπο και τα προβλήματα με την κακή χρήση του AI θα οδηγήσουν σε βία και καταστροφή;

Για πολλούς ειδικούς, η απάντηση είναι ένα ηχηρό "όχι" με βάση τους πραγματικούς τρόπους με τους οποίους αναπτύσσουμε τις σημερινές τεχνολογίες. Οι περισσότεροι θα συμφωνούσαν ότι χρειαζόμαστε ηθικά, εύχρηστα πλαίσια για να κατευθύνουμε τις τεχνολογίες AI και ML - αλλά δεν συμφωνούν ότι οι κυρίαρχοι ρομπότ είναι ένα δεδομένο αποτέλεσμα.


Ας ρίξουμε μια ματιά σε μια συζήτηση γύρω από την υπερευρυσία και να δούμε γιατί πολλοί τεχνολόγοι είναι βέβαιοι ότι οι άνθρωποι θα κρατήσουν ακόμα τα ηνία σε μερικές εκατοντάδες χρόνια.

Οι άνθρωποι παίρνουν το μόλυβδο

Όταν εξετάζετε τις αναφορές γύρω από τις ανησυχίες για το ΑΙ, ένα όνομα που έρχεται αρκετά είναι το Grady Booch. Η Booch πρωτοστάτησε στην Unified Modeling Language (UML) και εργάστηκε σε βασικές τεχνολογίες για την IBM στις αρχές της χιλιετίας.

Μια ομιλία του TED από τον Booch δείχνει κάποια από την αισιοδοξία του σχετικά με τους τύπους AI που θεωρούσαμε ως επιστημονική φαντασία.

Πρώτον, υποστηρίζει, η ανθρώπινη κατάρτιση θα επηρεάσει τη δική της ηθική και τους κανόνες της στη λειτουργία των συστημάτων ΑΙ.

"Αν θέλω να δημιουργήσω έναν τεχνητά νοήμονα νομικό βοηθό, θα του διδάξω ένα σώμα νόμου αλλά ταυτόχρονα συγχωνεύω μαζί του την αίσθηση του ελέους και της δικαιοσύνης που αποτελεί μέρος αυτού του νόμου", λέει ο Booch. "Από επιστημονική άποψη, αυτό είναι αυτό που ονομάζουμε αλήθεια εδάφους, και εδώ είναι το σημαντικό σημείο: Κατά την παραγωγή αυτών των μηχανών, τους δίνουμε λοιπόν μια αίσθηση των αξιών μας. Για το σκοπό αυτό, εμπιστεύομαι την ίδια τεχνητή νοημοσύνη, αν όχι περισσότερο, ως άνθρωπο που είναι καλά εκπαιδευμένο. »(Για περισσότερα σχετικά με το μέλλον (και το παρελθόν) του AI, ελέγξτε το Thinking Machines: The Artificial Intelligence Debate.


No Bugs, No Stress - Ο οδηγός σας βήμα προς βήμα για τη δημιουργία λογισμικού που αλλάζει τη ζωή χωρίς να καταστρέφει τη ζωή σας

Δεν μπορείτε να βελτιώσετε τις δεξιότητες προγραμματισμού σας όταν κανείς δεν ενδιαφέρεται για την ποιότητα του λογισμικού.

Αργότερα στη συζήτηση, ο Booch παρουσιάζει ένα άλλο πολύ διαφορετικό επιχείρημα για το λόγο ότι δεν χρειάζεται να φοβόμαστε την εξαγορά από τις τεχνολογίες.

"(Μια υπαρξιακή απειλή για την ανθρωπότητα από την τεχνολογία) θα έπρεπε να είναι με ένα superintelligence", λέει ο Booch. "Θα έπρεπε να κυριαρχήσει σε όλο τον κόσμο μας. Αυτή είναι η ουσία του Skynet από την ταινία «Ο Τερμινιστής», στην οποία είχαμε μια υπερευρυσία που διέταξε την ανθρώπινη βούληση, που κατευθύνει κάθε συσκευή που ήταν σε κάθε γωνιά του κόσμου. Πρακτικά, δεν πρόκειται να συμβεί. Δεν χτίζουμε AIs που ελέγχουν τον καιρό, που κατευθύνει τις παλίρροιες, που μας καθοδηγούν ιδιόρρυθμους, χαοτικούς ανθρώπους. Επιπλέον, εάν υπήρχε τέτοια τεχνητή νοημοσύνη, θα έπρεπε να ανταγωνιστεί με τις ανθρώπινες οικονομίες και επομένως να ανταγωνιστεί για πόρους μαζί μας ... στο τέλος (μην το πεις στο Siri) μπορούμε πάντα να τις αποσυνδέουμε ».

Οι εγκέφαλοί μας, τα σώματά μας

Ένα άλλο σημαντικό επιχείρημα για την υπεροχή της ανθρώπινης γνώσης πάνω στην τεχνολογία σχετίζεται με την εξερεύνηση του ανθρώπινου εγκεφάλου.

Αν πάτε στο YouTube και ακούσετε τον τελευταίο διάσημο μηχανικό Marvin Minsky, έναν πρωτοπόρο ML και ένα παράδειγμα για τον Ray Kurzweil και άλλους γκουρού του AI, μπορείτε να τον ακούσετε να μιλάει για τον ανθρώπινο εγκέφαλο. Ο Μίνσκι τονίζει ότι η πραγματική ανθρώπινη νοημοσύνη δεν είναι ένας ισχυρός υπερυπολογιστής, αλλά εκατοντάδες διαφορετικοί υπολογιστές αλληλοσυνδέονται με πολύπλοκο τρόπο. Το AI, εξηγεί, μπορεί να αναπαράγει μερικές από αυτές τις μηχανές, αλλά δεν είναι πουθενά κοντά σε όλες τις αναπαραγωγές.

Σε πολλούς ειδικούς της τεχνολογίας, το AI δεν θα μπορέσει ποτέ να μιμηθεί πραγματικά την πολυπλοκότητα του ανθρώπινου εγκεφάλου και συνεπώς θα είναι πάντα εγγενώς λιγότερο ισχυρό.

"Οι AIs συνήθως δεν έχουν σχεδιαστεί για να επιβιώσουν, αλλά για να λύσουν πολύ συγκεκριμένα και ανθρωποκεντρικά προβλήματα όπως το να παίζουν σκάκι», έγραψε ο Luc Claustres, Ph.D. στα τέλη του περασμένου έτους. "Ως τέτοιοι, δεν μπορούν να προσαρμοστούν σε ελαφρές αλλαγές στο περιβάλλον τους χωρίς να τους επαναπρογραμματίζουν, ενώ οι άνθρωποι διαχειρίζονται ανακριβή ή αλλάζουν εύκολα τους κανόνες".

AI και διαίσθηση

Υπάρχει επίσης ένα επιχείρημα το οποίο βασίζεται σε αυτό που θα μπορούσατε να ονομάσετε το «πρόβλημα διασταύρωσης φρουρών» - εξηγεί τα όρια του τι μπορεί να κάνει η τεχνητή νοημοσύνη. Το AI και το ML είναι εξαιρετικά ελκυστικές από μια ποικιλία δεδομένων - αλλά δεν είναι καλοί στη διαίσθηση, κάτι για το οποίο είναι γνωστοί οι άνθρωποι. Με άλλα λόγια, εάν προσλάβατε έναν υπολογιστή ως φρουρά διασταύρωσης, ίσως έχετε κάποια λειτουργικότητα - αλλά πιθανόν να έχετε μερικά αρκετά επικίνδυνα κενά - που δεν θα εμπιστευθήκατε στα παιδιά σας! (Για περισσότερες πληροφορίες σχετικά με τις δυνατότητες της AI για ανθρώπινη σκέψη, ανατρέξτε στην ενότητα Η δημιουργικότητα μπορεί να εφαρμοστεί σε AI;)

Ως εκ τούτου, τα προγράμματα ηλεκτρονικών υπολογιστών δεν μπορούν να κατανοήσουν τις ανθρώπινες ιδιαιτερότητες και ιδιαιτερότητες με τους τρόπους με τους οποίους επικοινωνούμε και τους τρόπους με τους οποίους ζούμε - έτσι είναι ένας άλλος βασικός περιορισμός.

Για περισσότερες πληροφορίες σχετικά με το γιατί οι ανησυχίες σχετικά με τη σούπερ-νοημοσύνη μπορεί να υπερδιπλασιαστούν, ένα άρθρο ενσύρματο από τον Kevin Kelly περνάει μερικές υποθέσεις που θα πρέπει να ισχύουν για το AI να αναλάβει πραγματικά με οποιοδήποτε πρακτικό τρόπο. Αυτά περιλαμβάνουν τα ακόλουθα:

  • Αυτή η τεχνητή νοημοσύνη ήδη υπερβάζει την ανθρώπινη γνώση
  • Αυτή η νοημοσύνη μπορεί να επεκταθεί χωρίς περιορισμούς
  • Αυτή η έξοχη νοημοσύνη μπορεί να λύσει τα περισσότερα από τα προβλήματα που αντιμετωπίζουν οι άνθρωποι

Διαβάζοντας μέσα από το άρθρο, βλέπετε ότι όλες αυτές οι υποθέσεις εξερράγησαν και αντιμετωπίστηκαν για να δείξουν, και πάλι, γιατί η ανθρώπινη γνώση είναι τόσο ξεχωριστή.

Δεν είναι ότι η τεχνολογία δεν θα γίνει ισχυρή - θα το κάνει. Είναι μια ερώτηση για όλες τις διαφορετικές διαστάσεις που πρέπει να κατακτηθούν για να γίνει το AI πιο ισχυρό από τον άνθρωπο. Οι άνθρωποι εξελίχθηκαν για εκατομμύρια και εκατομμύρια χρόνια - η τεχνητή νοημοσύνη ήταν εδώ και περίπου 20 χρόνια και παρόλο που έχει σημειώσει τεράστιες προόδους, οι άνθρωποι εξακολουθούν να έχουν το πάνω χέρι και μάλλον θα συνεχίσουν.

Αν διαβάσετε ξανά κάποιους από αυτούς τους συνδέσμους και δείτε τι λένε οι άνθρωποι, αυτό που πραγματικά πρέπει να ανησυχούμε περισσότερο είναι οι ίδιοι. Υπάρχει η αφθονία των δυνατοτήτων για τους ανθρώπους να κάνουν κατάχρηση της τεχνολογίας - στην πραγματικότητα, πολλοί από εμάς θα λέγαμε ότι καταχρώνται ήδη πολλές από τις τεχνολογίες που διαθέτουμε. Έτσι, αυτό μπορεί να είναι πραγματικά ένα καλύτερο μέρος για να θέσει το άγχος κάποιου και τη δράση κάποιου όταν πρόκειται για τη δημιουργία ηθικής AI.