11 αποσπάσματα σχετικά με το AI που θα σας κάνει να σκεφτείτε

Συγγραφέας: Laura McKinney
Ημερομηνία Δημιουργίας: 3 Απρίλιος 2021
Ημερομηνία Ενημέρωσης: 26 Ιούνιος 2024
Anonim
I was 11 and in the school library when the Great East Japan Earthquake Hit [with the subtitles]
Βίντεο: I was 11 and in the school library when the Great East Japan Earthquake Hit [with the subtitles]

Περιεχόμενο


Πηγή: Lin Shao Hua / Dreamstime.com

Πάρε μακριά:

Η πρόοδος του AI είναι αναπόφευκτη και αυτό που μεταφράζεται για την ανθρωπότητα δεν είναι καθόλου σαφές. Ορισμένοι πιστεύουν ότι μπορούμε να προσβλέπουμε σε ένα θαυμάσιο μέλλον, ενώ άλλοι πιστεύουν ότι αυτό σημαίνει ότι είμαστε στην πορεία προς την αντικατάστασή μας από τους ρομποτικούς υπερασπιστές μας. Η τρίτη προοπτική είναι αυτή που γνωρίζει τους κινδύνους αλλά θεωρεί ότι είναι διαχειρίσιμοι.

Ακούμε πολλά για το AI και το μετασχηματιστικό του δυναμικό. Αυτό όμως που σημαίνει για το μέλλον της ανθρωπότητας δεν είναι εντελώς σαφές. Ορισμένοι φουτουριστές πιστεύουν ότι η ζωή θα βελτιωθεί, ενώ άλλοι πιστεύουν ότι απειλείται σοβαρά. Υπάρχει επίσης ένα φάσμα θέσεων στη μέση. Εδώ είναι μια σειρά από παίρνει από 11 εμπειρογνώμονες.

1. "Μέχρι στιγμής, ο μεγαλύτερος κίνδυνος της Τεχνητής Νοημοσύνης είναι ότι οι άνθρωποι καταλήγουν πολύ νωρίς ότι το καταλαβαίνουν". - Ελιέζερ Γουούντσοσκι


Αυτή είναι η πρώτη πρόταση στην έκθεση του Yudkowsy του 2002 με τίτλο "Η Τεχνητή Νοημοσύνη ως Θετικός και Αρνητικός Παράγοντας σε Παγκόσμιο Κίνδυνο" για το Ινστιτούτο Έρευνας Πληροφοριακών Μηχανών (MIRI). Παρόλο που ο όρος AI δεν περιπλέκεται τόσο πολύ όσο είναι τώρα, εξακολουθεί να υπάρχει ένα πρόβλημα έλλειψης κατανόησης σχετικά με τις δυνατότητες και τα όρια της τεχνολογίας. Στην πραγματικότητα, τα τελευταία δύο χρόνια, έχει υπάρξει περισσότερη ώθηση για να γίνει το AI όχι μόνο κατανοητό, αλλά εξηγείται.

2. "Αυτό που είναι ζωτικής σημασίας είναι να κάνουμε τίποτα για το AI εύλογο, δίκαιο, ασφαλές και με γενεαλογία, που σημαίνει ότι ο καθένας θα μπορούσε να δει πολύ απλά να δει πώς αναπτύχθηκε οποιαδήποτε εφαρμογή του AI και γιατί". - Γκίνι Ρομέτι

Ο Διευθύνων Σύμβουλος της IBM προέβη στη δήλωση αυτή κατά τη διάρκεια της ομιλίας της στο CES στις 9 Ιανουαρίου 2019. Το ιστορικό της επιβεβαίωσης της ανάγκης για επεξηγηματικό AI είναι ότι η διατήρηση του ως σφραγισμένου μαύρου κουτιού καθιστά αδύνατο τον έλεγχο και τη διόρθωση προκαταλήψεων ή άλλων προβλημάτων στον προγραμματισμό. Η IBM έχει βρεθεί στο στρατόπεδο εργασίας για την επίλυση αυτού του προβλήματος, όχι μόνο προσφέροντας υπηρεσίες πληροφορικής για εταιρείες, αλλά και διαβουλεύσεις για τη μείωση της μεροληψίας για όσους κατασκευάζουν μηχανικά συστήματα μάθησης. (Μάθετε περισσότερα σχετικά με την επεξηγηματική AI στο AI's Got Some Explaining to Do.)


No Bugs, No Stress - Ο οδηγός σας βήμα προς βήμα για τη δημιουργία λογισμικού που αλλάζει τη ζωή χωρίς να καταστρέφει τη ζωή σας

Δεν μπορείτε να βελτιώσετε τις δεξιότητες προγραμματισμού σας όταν κανείς δεν ενδιαφέρεται για την ποιότητα του λογισμικού.

3. "Ο απόλυτος μηχανή αναζήτησης, η οποία θα καταλάβει, ακριβώς, τι θέλατε όταν πληκτρολογήσατε ένα ερώτημα και θα σας έδινε ακριβώς το σωστό πράγμα, επιστήμη των υπολογιστών λέμε ότι η τεχνητή νοημοσύνη. Αυτό σημαίνει ότι θα ήταν έξυπνο και είμαστε μακρινοί τρόποι από τη χρήση έξυπνων υπολογιστών. " - Larry Page

Ο συνιδρυτής και διευθύνων σύμβουλος της Google δήλωσε την ίδια στιγμή τον Νοέμβριο του 2002 κατά τη διάρκεια ενός τμήματος PBS NewsHour με τίτλο "Google: Η μηχανή αναζήτησης που θα μπορούσε". Ο οικοδεσπότης άνοιξε με προβληματισμό για την αυξανόμενη δημοτικότητα της Google κατά το έτος κατά το οποίο ο αμερικανικός διάλογος Η κοινωνία το κατέταξε ως το πιο χρήσιμο ρήμα που πρέπει να προστεθεί στη χρήση, αν και θα χρειαστούν άλλα λίγα χρόνια για να αναγνωριστεί από τους ομοειδείς Merriam-Webster. Αλλά ακόμη και νωρίς, η εταιρεία σηματοδότησε το ενδιαφέρον της για τη χρήση του AI.

4. "Αποφύγετε σε ΟΛΕΣ ΤΙΣ ΔΑΠΑΝΕΣ οποιαδήποτε αναφορά ή έμφαση σε AI. Το οπλοποιημένο AI είναι ίσως ένα από τα πιο ευαισθητοποιημένα θέματα του AI - αν όχι το μεγαλύτερο. Αυτό είναι κόκκινο κρέας στα μέσα μαζικής ενημέρωσης για να βρούμε όλους τους τρόπους για να βλάψει το Google. " - Fei Fei Li, πρωτοπόρος της AI στην Google, σε μία συναδέλφους για τη συμμετοχή της εταιρείας στο Project Maven

Το Google διαπίστωσε ότι η ύπαρξη σημαντικού παίκτη στο AI μπορεί να έχει αρνητικό αντίκτυπο. Τον Ιούλιο του 2017, το Τμήμα Άμυνας παρουσίασε τους στόχους του για το Project Maven. Ο Στρατηγός Drew Cukor, επικεφαλής της ομάδας Cross-Function Algorithmic Warfare στη Διεύθυνση Επιχειρησιακών Πληροφοριών, Επιτήρησης και Αναγνωστικών Δραστηριοτήτων, υποστηρίζει την υποστήριξη του Warfighter στο Γραφείο του Υφυπουργού Άμυνας για τη Νοημοσύνη σχετικά με το δηλωμένο στόχο τους για το έτος: "Άνθρωποι και οι υπολογιστές θα λειτουργήσουν συμβιωτικά για να αυξήσουν την ικανότητα των συστημάτων όπλων να ανιχνεύουν αντικείμενα. "

Η Google ήταν συνεργάτης σε αυτό το εγχείρημα, αλλά - όπως δείχνει το παραπάνω απόσπασμα - οι υπάλληλοι της Google δεν το άρεσαν. Τελικά, η εταιρεία υπέκυψε στην πίεση και τον Ιούνιο του 2018 ανακοίνωσε ότι δεν θα ανανεώσει τη σύμβασή της με το Τμήμα Άμυνας. Όπως ανέφερε ο Τομής:

Η Google αντιμετώπισε αυξανόμενη πίεση από τότε που η σύμβαση αποκαλύφθηκε από το Gizmodo και το The Intercept τον Μάρτιο. Σχεδόν δώδεκα υπάλληλοι παραιτήθηκαν σε ένδειξη διαμαρτυρίας και αρκετές χιλιάδες υπέγραψαν μια ανοικτή επιστολή, δηλώνοντας ότι "η Google δεν πρέπει να είναι σε επιχείρηση πολέμου". Περισσότεροι από 700 ακαδημαϊκοί υπέγραψαν επίσης μια επιστολή απαιτώντας "το Google να τερματίσει τη σύμβασή του με το DoD και Η Google και η μητρική εταιρεία Alphabet δεσμεύονται να μην αναπτύξουν στρατιωτικές τεχνολογίες και να μην χρησιμοποιούν τα προσωπικά δεδομένα που συλλέγουν για στρατιωτικούς σκοπούς. "

5. "Η τεχνητή νοημοσύνη θα φτάσει τα ανθρώπινα επίπεδα γύρω στο 2029. Ακολούθησε το 2045, θα πολλαπλασιάσουμε τη νοημοσύνη, την ανθρώπινη βιολογική μηχανική νοημοσύνη του πολιτισμού μας, ένα δισεκατομμύριο φορές". - Ray Kurzweil

Ο φουτουριστής και εφευρέτης το είπε σε μια συνέντευξη του 2012, στην οποία μίλησε για την επίτευξη της αθανασίας μέσω της υπολογιστικής ισχύος. Επιβεβαίωσε την εικόνα του «δισεκατομμυρίου» και το εξήγησε ως εξής: «Αυτή είναι μια τόσο μοναδική αλλαγή που δανείζουμε αυτή τη μεταφορά από τη φυσική και την αποκαλούμε μοναδικότητα, μια βαθιά αναταραχή στην ανθρώπινη ιστορία. Η σκέψη μας θα γίνει ένα υβρίδιο βιολογικής και μη βιολογικής σκέψης. "Είναι προφανές ότι είναι ένας από τους αισιόδοξους φουτουριστές, που απεικονίζουν μια αποδιοργανωτική αλλαγή που θα έχει μεγάλο όφελος. Εξήγησε επίσης γιατί πιστεύει ότι η αθανασία είναι εφικτή: "Θα προσθέτουμε πάνω από ένα χρόνο κάθε χρόνο στο υπόλοιπο προσδόκιμο ζωής σας, όπου η άμμος του χρόνου τρέχει παρά να εξαντληθεί, όπου το υπόλοιπο προσδόκιμο ζωής σας απλώνεται ο χρόνος περνάει."

6. "Το μεγαλύτερο όφελος από την άφιξη της τεχνητής νοημοσύνης είναι ότι οι AIs θα βοηθήσουν στον καθορισμό της ανθρωπότητας. Χρειαζόμαστε AI για να μας πείτε ποιοι είμαστε. " - Κέβιν Κέλι

Ο συνιδρυτής του Wired έγραψε αυτόν τον σαρωτικό ισχυρισμό στο βιβλίο του του 2016, "Το αναπόφευκτο: Η κατανόηση των 12 τεχνολογικών δυνάμεων που θα διαμορφώσουν το μέλλον μας". Όπως οραματίζεται η αύξηση της αυτοματοποίησης και των θέσεων εργασίας που λαμβάνονται από τα ρομπότ, θα είναι ένας επαναλαμβανόμενος κύκλος άρνησης, αλλά η πρόοδος είναι αναπόφευκτη και θα πρέπει να προσαρμοστεί αναλόγως. Όπως εξήγησε σε μια συνέντευξη με την IBM: "Μέσα από το AI, θα εφεύρουμε πολλούς νέους τύπους σκέψης που δεν υπάρχουν βιολογικά και που δεν είναι σαν την ανθρώπινη σκέψη" και η ασημένια επένδυση στο σύννεφο του υπολογιστή που τονίζει είναι αυτό: "Επομένως, αυτή η νοημοσύνη δεν αντικαθιστά την ανθρώπινη σκέψη, αλλά την αυξάνει".

7. "Ο πραγματικός κίνδυνος με AI δεν είναι κακή, αλλά ικανή. ΕΝΑ έξυπνο AI θα είναι εξαιρετικά καλή για την επίτευξη των στόχων της, και αν αυτοί οι στόχοι δεν είναι ευθυγραμμισμένοι με τους δικούς μας, έχουμε πρόβλημα. Πιθανόν να μην είσαι κακός μητέρα-μισητής που βγαίνει στα μυρμήγκια από κακία, αλλά αν είστε υπεύθυνος για ένα έργο υδροηλεκτρικής πράσινης ενέργειας και υπάρχει ένας μυρμήγκι στην περιοχή για να πλημμυρίσει, πολύ κακό για τα μυρμήγκια. Ας μην τοποθετήσουμε την ανθρωπότητα στη θέση αυτών των μυρμηγκιών. " - Στέφαν Χόκινγκ

Αυτό το απόσπασμα χρονολογείται στις αρχές του 2015. Ήταν η απάντηση που έδωσε ο Stephen Hawking κατά τη διάρκεια μιας συνεδρίας Q & A της Reddit AMA (Ask Me Any) σε μια ερώτηση από έναν δάσκαλο που ήθελε να μάθει πώς να αντιμετωπίσει κάποιες ανησυχίες ΑΙ που έρχονται στα μαθήματά του, ΕΠΟΜΕΝΟ:

Πώς θα εκπροσωπήσετε τις δικές σας πεποιθήσεις στην τάξη μου; Είναι οι απόψεις μας συμβατές; Νομίζετε ότι η συνήθεια μου να εκπτώσω τον στιχουργό Terminator-style "evil AI" είναι αφελής; Και τέλος, ποια ηθικά νομίζετε ότι πρέπει να ενισχύω στους μαθητές μου που ενδιαφέρονται για το AI;

Ο Hawking δείχνει κάποια ανησυχία για τις πιθανώς καταστρεπτικές επιδράσεις της AI στην ανθρωπότητα, αν και φαίνεται να πιστεύει ότι ο κίνδυνος μπορεί να αντιμετωπιστεί αν το σχεδιάσουμε, μια άποψη που μοιράζονται μερικοί άλλοι. (Για περισσότερα σχετικά με αυτό, δείτε Γιατί Superintelligent AIs δεν θα καταστρέψει τους ανθρώπους Anytime σύντομα.)

8. "Θέλετε να ξέρετε πόσο έξυπνο cyborgs μπορεί να θεραπεύσει τους συνηθισμένους ανθρώπους από τη σάρκα και το αίμα; Ξεκινήστε καλύτερα με τη διερεύνηση του τρόπου με τον οποίο οι άνθρωποι χειρίζονται τα λιγότερο έξυπνα ζώα ξαδέλφια τους. Δεν είναι μια τέλεια αναλογία, φυσικά, αλλά είναι το καλύτερο αρχέτυπο που μπορούμε πραγματικά να παρατηρήσουμε παρά να φανταστούμε ». - Ο Γιούβαλ Νόε Χαράρι

Ο καθηγητής Χάραρι έκανε αυτή τη δήλωση στο βιβλίο του "Homo Deus: Μια Σύντομη Ιστορία του Αύριο." Η άποψή του είναι πόλοι εκτός από εκείνους των θετικών φουτουριστών στην απεικόνιση της ανόδου αυτού που ονομάζει «δακτυλογράφημα», στον οποίο οι άνθρωποι παραχωρούν το ανώτερο έδαφος σε προχωρημένους τεχνητή νοημοσύνη. Είμαστε υποχρεωμένοι να πλημμυρίσουμε τη θέση των μυρμηγκιών στην εξήγηση του Χόκινγκ. Πρόκειται για ένα μέλλον που κυριαρχείται από ένα πανταχού παρόν και παντογνώστης "κοσμικό σύστημα επεξεργασίας δεδομένων", και η αντίσταση είναι μάταιη.

9. "Πρέπει να αντιμετωπίσουμε, μεμονωμένα και συλλογικά, ηθικά και ηθικά ζητήματα που τίθενται από την έρευνα αιχμής στην τεχνητή νοημοσύνη και βιοτεχνολογία, η οποία θα επιτρέψει σημαντική επέκταση ζωής, μωρά σχεδιαστών και εξαγωγή μνήμης. " - Klaus Schwab

Ο Schwab δημοσίευσε τις σκέψεις του για την Τέταρτη Βιομηχανική Επανάσταση τον Ιανουάριο του 2016. Όπως και οι θετικοί φουτουριστές, οραματίστηκε ότι το μέλλον θα συγχωνεύσει "τον φυσικό, ψηφιακό και βιολογικό κόσμο με τρόπους που θα αλλάξουν θεμελιωδώς την ανθρωπότητα." Αλλά δεν το θεωρούσε δεδομένο ότι ένας τέτοιος "μετασχηματισμός είναι θετικός", παροτρύνοντας τους ανθρώπους να προγραμματίσουν μπροστά τους την ευαισθητοποίηση τόσο για τους "κινδύνους και τις ευκαιρίες που προκύπτουν στην πορεία".

10. "Πολλά έχουν γραφτεί για τη δυνατότητα του AI να αντικατοπτρίζει τόσο το καλύτερο όσο και το χειρότερο της ανθρωπότητας. Για παράδειγμα, έχουμε δει την AI να παρέχει συνομιλία και άνεση στο μοναχικό. είδαμε επίσης ότι η ΑΙ συμμετέχει σε φυλετικές διακρίσεις. Ωστόσο, η μεγαλύτερη βλάβη που μπορεί να έχει το AI σε άτομα βραχυπρόθεσμα είναι η μετατόπιση εργασίας, καθώς το ποσό εργασίας που μπορούμε να αυτοματοποιήσουμε με AI είναι πολύ μεγαλύτερο από ό, τι πριν. Ως ηγέτες, είναι καθήκον όλων μας να βεβαιωθούμε ότι οικοδομούμε έναν κόσμο στον οποίο κάθε άτομο έχει την ευκαιρία να ευδοκιμήσει ». - Andrew Ng

Αυτό το απόσπασμα προέρχεται από το "Τι τεχνητή νοημοσύνη μπορεί και δεν μπορεί να κάνει τώρα", το άρθρο Andrew Ng, το ιδρυτικό μόλυβδο της ομάδας Google Brain, πρώην διευθυντής του εργαστηρίου τεχνητής νοημοσύνης του Stanford, έγραψε για το Harvard Business Review το 2016 όταν ήταν το γενικό προβάδισμα της ομάδας AI της Baidu. (Το 2017 έγινε ιδρυτής και διευθυντής του Landing AI.) Εξηγεί τις δυνατότητες και τα όρια του AI όπως ήταν τότε και εξακολουθεί να ισχύει σήμερα. Παρόλο που η Ng δεν θέτει ένα δυστοπικό μέλλον που κυριαρχείται από δεδομένα, συμφωνεί ότι εκείνοι που την αναπτύσσουν έχουν την ευθύνη να την εφαρμόσουν υπεύθυνα με πλήρη κατανόηση των επιδιωκόμενων και ακούσιων συνεπειών τους.

11. "Δεν υπάρχει κανένας λόγος και κανένας τρόπος ώστε ένα ανθρώπινο μυαλό να μπορεί να συμβαδίσει με μια τεχνητή ευφυή μηχανή μέχρι το 2035". - Γκρι Scott

Αυτό το απόσπασμα δεν είναι εσφαλμένο, αν και αποκλίνει από τον τρόπο που θα το βλέπετε οπουδήποτε αλλού στο διαδίκτυο, επειδή εμφανίζεται πάντοτε ως "Δεν υπάρχει κανένας λόγος και κανένας τρόπος ώστε ένα ανθρώπινο μυαλό να μπορεί να συμβαδίσει με μια μηχανή τεχνητής νοημοσύνης μέχρι το 2035". ιστορία. Με βάση το πόσο πίσω εμφανίζεται στις ψηφιακές πηγές, αναφέρθηκε πιθανότατα το 2015. Ωστόσο, δεν μπορούσα να το αποδείξω σε κανένα συγκεκριμένο ζήτημα μετά από ώρες αναζήτησης μέσω βίντεο και βίντεο από εκείνη την περίοδο. Έτσι, επικοινωνήσαμε με τον ίδιο τον Scott για να ζητήσουμε την πηγή. Παραδέχθηκε, «δεν θυμάμαι πότε ήταν η πρώτη φορά που είπα αυτό ή που ήταν.» Αλλά θυμάται τη διατύπωσή του: «Το απόσπασμα ήταν πάντα λάθος. Θα πρέπει να διαβάσει «τεχνητό Ευφυές». "