Kecerdasan buatan. Bahagian kedua: kepupusan atau keabadian?

Isi kandungan:

Kecerdasan buatan. Bahagian kedua: kepupusan atau keabadian?
Kecerdasan buatan. Bahagian kedua: kepupusan atau keabadian?

Video: Kecerdasan buatan. Bahagian kedua: kepupusan atau keabadian?

Video: Kecerdasan buatan. Bahagian kedua: kepupusan atau keabadian?
Video: Asal-Usul Sepak Takraw / Sepak Raga • Sepak Takraw Origin Based on Wikipedia 2024, November
Anonim
Kecerdasan buatan. Bahagian kedua: kepupusan atau keabadian?
Kecerdasan buatan. Bahagian kedua: kepupusan atau keabadian?

Sebelum anda adalah bahagian kedua artikel dari siri "Tunggu, bagaimana semua ini dapat menjadi kenyataan, mengapa masih tidak dibincangkan di setiap sudut." Dalam siri sebelumnya, menjadi diketahui bahawa ledakan kecerdasan secara beransur-ansur menjalar ke manusia planet Bumi, ia cuba berkembang dari fokus sempit ke kecerdasan universal dan, akhirnya, kecerdasan buatan.

"Mungkin kita menghadapi masalah yang sangat sukar, dan tidak diketahui berapa banyak masa yang diperuntukkan untuk penyelesaiannya, tetapi masa depan umat manusia mungkin bergantung pada penyelesaiannya." - Nick Bostrom.

Bahagian pertama artikel bermula dengan cukup bersalah. Kami membincangkan kecerdasan buatan yang difokuskan secara sempit (AI, yang mengkhususkan diri dalam menyelesaikan satu masalah tertentu seperti menentukan laluan atau bermain catur), terdapat banyak perkara di dunia kita. Kemudian mereka menganalisis mengapa sukar untuk mengembangkan kecerdasan buatan arah umum (AGI, atau AI, yang, dari segi kemampuan intelektual, dapat dibandingkan dengan manusia dalam menyelesaikan masalah), begitu sukar. Kami membuat kesimpulan bahawa kadar eksponen kemajuan teknologi mengisyaratkan bahawa AGI mungkin akan hampir tiba. Pada akhirnya, kami memutuskan bahawa sebaik sahaja mesin mencapai kecerdasan manusia, perkara berikut dapat terjadi dengan segera:

Imej
Imej
Imej
Imej
Imej
Imej
Imej
Imej

Seperti biasa, kami melihat layar, tidak mempercayai bahawa kecerdasan buatan (ISI, yang jauh lebih pintar daripada orang lain) dapat muncul sepanjang hayat kami, dan memilih emosi yang paling sesuai dengan pendapat kami mengenai isu ini.

Sebelum kita menyelami spesifik ISI, mari kita mengingatkan diri sendiri apa artinya mesin menjadi pintar.

Perbezaan utama terletak di antara kecerdasan cepat dan kecerdasan berkualiti. Seringkali, perkara pertama yang terlintas dalam fikiran ketika memikirkan komputer yang pintar cerdas adalah bahawa ia dapat berfikir jauh lebih pantas daripada seseorang - berjuta-juta kali lebih cepat, dan dalam lima minit ia akan memahami apa yang diperlukan seseorang selama sepuluh tahun. ("Saya kenal kung fu!")

Kedengarannya mengagumkan, dan ISI semestinya berfikir lebih pantas daripada mana-mana orang - tetapi ciri pemisahan utama adalah kualiti kepandaiannya, yang sama sekali berbeza. Manusia jauh lebih pintar daripada monyet, bukan kerana mereka berfikir lebih cepat, tetapi kerana otak mereka mengandung sejumlah modul kognitif cerdik yang menjalankan perwakilan linguistik yang kompleks, perencanaan jangka panjang, pemikiran abstrak, yang tidak dapat dilakukan oleh monyet. Sekiranya anda mempercepat otak monyet seribu kali, ia tidak akan menjadi lebih pintar daripada kita - walaupun setelah sepuluh tahun, ia tidak akan dapat mengumpulkan konstruktor mengikut arahan, yang akan memerlukan seseorang beberapa jam paling banyak. Ada perkara yang tidak akan dipelajari monyet, tidak kira berapa jam yang dihabiskannya atau seberapa pantas otaknya berfungsi.

Sebagai tambahan, monyet itu tidak tahu bagaimana manusiawi, kerana otaknya tidak dapat menyedari kewujudan dunia lain - monyet itu mungkin tahu apa itu seseorang dan apa itu pencakar langit, tetapi tidak akan pernah memahami bahawa bangunan pencakar langit itu dibina oleh orang. Di dunianya, semuanya milik alam, dan monyet bukan sahaja tidak dapat membina bangunan pencakar langit, tetapi juga memahami bahawa siapa pun dapat membinanya sama sekali. Dan ini adalah hasil dari perbezaan kecil dalam kualiti kecerdasan.

Dalam skema kecerdasan umum yang kita bicarakan, atau hanya dengan standard makhluk biologi, perbezaan kualiti kecerdasan antara manusia dan monyet sangat kecil. Dalam artikel sebelumnya, kami meletakkan kebolehan kognitif biologi di tangga:

Imej
Imej

Untuk memahami betapa seriusnya mesin super intelijen, letakkan dua kedudukan lebih tinggi daripada orang yang berada di tangga itu. Mesin ini mungkin hanya sedikit pintar, tetapi keunggulannya berbanding kemampuan kognitif kita akan sama dengan milik kita - berbanding monyet. Dan seperti simpanse tidak akan pernah memahami bahawa bangunan pencakar langit boleh dibina, kita tidak akan pernah memahami apa yang akan difahami oleh mesin beberapa langkah lebih tinggi, walaupun mesin itu cuba menerangkannya kepada kita. Tetapi ini hanya beberapa langkah. Mesin yang lebih pintar akan melihat semut di dalam diri kita - ia akan mengajar kita perkara-perkara termudah dari kedudukannya selama bertahun-tahun, dan percubaan ini akan menjadi sia-sia.

Jenis kepintaran yang akan kita bicarakan hari ini jauh melebihi tahap ini. Ini adalah ledakan kecerdasan - apabila kereta menjadi lebih pintar, semakin cepat ia dapat meningkatkan kecerdasannya sendiri, secara bertahap meningkatkan momentum. Mungkin memerlukan masa bertahun-tahun untuk mesin seperti ini melampaui simpanse dalam kepintaran, tetapi mungkin beberapa jam untuk mengatasi kita dengan beberapa takik. Sejak saat itu, kereta sudah boleh melonjak empat langkah setiap saat. Itulah sebabnya kita harus memahami bahawa segera setelah berita pertama bahawa mesin telah mencapai tahap kecerdasan manusia muncul, kita mungkin menghadapi realiti hidup berdampingan di Bumi dengan sesuatu yang akan jauh lebih tinggi daripada kita di tangga ini (atau mungkin, dan berjuta-juta kali lebih tinggi):

Imej
Imej

Dan kerana kita telah membuktikan bahawa sama sekali tidak berguna untuk memahami kekuatan mesin yang hanya dua langkah di atas kita, mari kita tentukan sekali-sekali bahawa tidak ada cara untuk memahami apa yang akan dilakukan oleh ISI dan apa akibatnya ini adalah untuk kita. Sesiapa yang mendakwa sebaliknya tidak memahami apa maksud superintelijen.

Evolusi perlahan-lahan dan secara beransur-ansur mengembangkan otak biologi selama beratus-ratus juta tahun, dan jika manusia membuat mesin yang pintar, dalam arti kita akan melampaui evolusi. Atau ia akan menjadi sebahagian daripada evolusi - mungkin evolusi berfungsi sedemikian rupa sehingga kecerdasan berkembang secara beransur-ansur sehingga mencapai titik perubahan yang menandakan masa depan baru untuk semua makhluk hidup:

Imej
Imej

Atas sebab-sebab yang akan kita bincangkan kemudian, sebahagian besar komuniti saintifik percaya bahawa persoalannya bukanlah sama ada kita akan sampai ke titik tolak ini, tetapi kapan.

Di mana kita berakhir selepas ini?

Saya rasa tidak ada seorang pun di dunia ini, saya atau anda, yang tidak dapat mengatakan apa yang akan terjadi ketika kita mencapai titik tolak. Ahli falsafah Oxford dan ahli teori AI terkemuka Nick Bostrom percaya bahawa kita dapat menghasilkan semua hasil yang mungkin menjadi dua kategori luas.

Pertama, melihat sejarah, kita mengetahui perkara berikut mengenai kehidupan: spesies muncul, wujud untuk waktu tertentu, dan kemudian tidak dapat dilepaskan dari balok keseimbangan dan mati.

Imej
Imej

"Semua spesies mati" telah menjadi peraturan yang dapat dipercayai dalam sejarah seperti "semua orang mati suatu hari nanti." 99.9% spesies telah jatuh dari log kehidupan, dan sangat jelas bahawa jika spesies tergantung di log ini terlalu lama, hembusan angin semula jadi atau asteroid tiba-tiba akan mengubah log tersebut. Bostrom memanggil kepunahan keadaan penarik - tempat di mana semua spesies seimbang sehingga tidak jatuh di mana belum ada spesies yang kembali.

Dan walaupun kebanyakan saintis mengakui bahawa ISI akan mempunyai kemampuan untuk menghancurkan orang sehingga pupus, banyak juga yang percaya bahawa menggunakan kemampuan ISI akan membolehkan individu (dan spesies secara keseluruhan) mencapai tahap kedua daya tarikan - keabadian spesies. Bostrom percaya bahawa keabadian spesies adalah daya tarik sama seperti kepunahan spesies, iaitu, jika kita sampai ke ini, kita akan ditakdirkan untuk kekal. Oleh itu, walaupun semua spesies hingga sekarang jatuh dari tongkat ini ke dalam kepunahan kepunahan, Bostrom percaya bahawa kayu balak itu mempunyai dua sisi, dan di sana tidak muncul kecerdasan seperti di Bumi yang akan memahami bagaimana jatuh ke sisi lain.

Imej
Imej

Sekiranya Bostrom dan yang lain betul, dan berdasarkan semua maklumat yang ada pada kami, mereka mungkin benar, kita perlu menerima dua fakta yang sangat mengejutkan:

Kemunculan ISI untuk pertama kalinya dalam sejarah akan membuka jalan bagi spesies untuk mencapai keabadian dan jatuh dari kitaran kepupusan maut.

Kemunculan ISI akan mempunyai kesan besar yang tidak dapat dibayangkan sehingga, kemungkinan besar, akan mendorong manusia keluar dari log ini dalam satu arah atau yang lain.

Ada kemungkinan bahawa ketika evolusi mencapai titik perubahan seperti itu, selalu mengakhiri hubungan orang dengan arus kehidupan dan menciptakan dunia baru, dengan atau tanpa orang.

Ini membawa kepada pertanyaan menarik yang tidak akan diajukan oleh bummer: kapan kita akan sampai ke titik kemunculan ini dan di mana ia akan meletakkan kita? Tidak ada seorang pun di dunia yang tahu jawapan untuk soalan dua kali ini, tetapi banyak orang pintar telah mencuba selama beberapa dekad. Selebihnya artikel, kami akan mengetahui dari mana asalnya.

* * *

Mari kita mulakan dengan bahagian pertama soalan ini: bilakah kita harus mencapai titik tolak? Dengan kata lain: berapa banyak masa yang tersisa sehingga mesin pertama mencapai kecerdasan?

Pendapat berbeza dari satu kes ke kes yang lain. Ramai, termasuk Profesor Vernor Vinge, saintis Ben Herzel, pengasas bersama Sun Microsystems Bill Joy, futuris Ray Kurzweil, bersetuju dengan pakar pembelajaran mesin Jeremy Howard ketika dia menyampaikan grafik berikut di TED Talk:

Imej
Imej

Orang-orang ini berpandangan bahawa ISI akan segera hadir - pertumbuhan eksponensial ini, yang nampaknya lambat bagi kita hari ini, akan meletup dalam beberapa dekad akan datang.

Yang lain, seperti pengasas bersama Microsoft, Paul Allen, ahli psikologi penyelidikan Gary Marcus, pakar komputer Ernest Davis, dan usahawan teknologi Mitch Kapor, percaya bahawa pemikir seperti Kurzweil memandang rendah besarnya masalah dan menganggap kita tidak hampir sama dengan tipping point.

Kem Kurzweil berpendapat bahawa satu-satunya anggapan rendah yang berlaku adalah mengabaikan pertumbuhan eksponensial, dan orang yang ragu-ragu dapat dibandingkan dengan mereka yang melihat internet yang berkembang pesat pada tahun 1985 dan berpendapat bahawa ia tidak akan memberi kesan kepada dunia dalam waktu terdekat.

Keraguan mungkin menangkis bahawa kemajuan lebih sukar untuk mengambil setiap langkah berikutnya ketika datang ke pengembangan kecerdasan eksponensial, yang meneutralkan sifat eksponen kemajuan teknologi yang khas. Dan lain-lain.

Kem ketiga, di mana Nick Bostrom, tidak bersetuju dengan yang pertama atau yang kedua, dengan alasan bahawa a) semua ini benar-benar boleh berlaku dalam masa terdekat; dan b) tidak ada jaminan bahawa ini akan berlaku sama sekali atau bahawa ia akan memakan masa lebih lama.

Yang lain, seperti ahli falsafah Hubert Dreyfus, percaya bahawa ketiga-tiga kumpulan naif percaya bahawa akan ada titik tolak sama sekali, dan kemungkinan besar kita tidak akan pernah sampai ke ISI.

Apa yang berlaku apabila kita mengumpulkan semua pendapat ini?

Pada tahun 2013, Bostrom melakukan tinjauan di mana dia mewawancarai ratusan pakar AI dalam satu siri persidangan mengenai topik berikut: "Apakah ramalan anda untuk mencapai AGI di peringkat manusia?" dan meminta kami untuk menamakan tahun yang optimis (di mana kita akan mempunyai AGI dengan peluang 10 peratus), anggapan yang realistik (tahun di mana kita akan mempunyai AGI dengan kebarangkalian 50 persen) dan anggapan yakin (tahun paling awal di mana AGI akan muncul sejak kebarangkalian 90 peratus). Inilah hasilnya:

* Purata tahun optimis (10%): 2022

* Purata tahun realistik (50%): 2040

* Purata pesimis tahun (90%): 2075

Rata-rata responden percaya bahawa dalam 25 tahun kita akan mempunyai AGI dan bukannya tidak. Peluang AGI 90 peratus berlaku pada tahun 2075 bermaksud jika anda masih cukup muda sekarang, kemungkinan besar akan berlaku sepanjang hayat anda.

Kajian berasingan yang baru-baru ini dilakukan oleh James Barratt (pengarang buku yang Terkenal dan sangat baik, Penemuan Terkini kami, petikan dari Saya menyampaikan kepada para pembaca Hi-News.ru) dan Ben Hertzel di Persidangan AGI, Persidangan AGI tahunan, hanya menunjukkan pendapat orang mengenai tahun di mana kita sampai ke AGI: 2030, 2050, 2100, lewat atau tidak. Inilah hasilnya:

* 2030: 42% responden

* 2050: 25%

* 2100: 20%

Selepas 2100: 10%

Tidak pernah: 2%

Sama dengan hasil Bostrom. Dalam tinjauan Barratt, lebih daripada dua pertiga dari mereka yang disurvei percaya AGI akan berada di sini menjelang 2050, dan kurang dari separuh percaya AGI akan muncul dalam 15 tahun akan datang. Ini juga mengejutkan bahawa hanya 2% responden, pada dasarnya, tidak melihat AGI pada masa depan kita.

Tetapi AGI bukanlah titik tolak seperti ISI. Bilakah, menurut pakar, kita akan mempunyai ISI?

Bostrom bertanya kepada para pakar kapan kami akan mencapai ASI: a) dua tahun setelah mencapai AGI (iaitu, hampir seketika kerana ledakan kecerdasan); b) selepas 30 tahun. Hasil?

Pendapat rata-rata adalah bahawa peralihan cepat dari AGI ke ISI akan berlaku dengan kebarangkalian 10%, tetapi dalam 30 tahun atau kurang, ia akan berlaku dengan kebarangkalian 75%.

Dari data ini, kita tidak tahu tarikh apa yang disebut oleh responden sebagai 50% kemungkinan ASI, tetapi berdasarkan dua jawapan di atas, mari kita anggap ia adalah 20 tahun. Artinya, pakar AI terkemuka di dunia percaya bahawa titik perubahan akan datang pada tahun 2060 (AGI akan muncul pada tahun 2040 + diperlukan 20 tahun untuk peralihan dari AGI ke ISI).

Imej
Imej

Sudah tentu, semua statistik di atas bersifat spekulatif dan hanya mewakili pendapat pakar dalam bidang kecerdasan buatan, tetapi mereka juga menunjukkan bahawa kebanyakan orang yang berminat bersetuju bahawa menjelang tahun 2060, AI kemungkinan akan tiba. Hanya dalam 45 tahun.

Mari beralih ke soalan kedua. Apabila kita sampai ke titik tolak, sisi pilihan yang manakah yang menentukan kita?

Superintelligence akan mempunyai kekuatan yang paling kuat, dan persoalan kritikal bagi kita adalah seperti berikut:

Siapa atau apa yang akan mengawal kekuatan ini dan apa yang akan menjadi motivasi mereka?

Jawapan untuk soalan ini akan bergantung pada sama ada ISI mendapat perkembangan yang sangat kuat, perkembangan yang sangat menakutkan, atau sesuatu di antaranya.

Sudah tentu, komuniti pakar juga berusaha menjawab soalan-soalan ini. Tinjauan Bostrom menganalisis kemungkinan kemungkinan akibat AGI terhadap umat manusia, dan ternyata dengan peluang 52 persen semuanya akan berjalan dengan baik dan dengan peluang 31 peratus semuanya akan menjadi buruk atau sangat buruk. Tinjauan pendapat yang dilampirkan pada akhir bahagian sebelumnya topik ini, yang dilakukan di antara anda, pembaca Hi-News yang dikasihi, menunjukkan hasil yang sama. Untuk hasil yang agak neutral, kebarangkalian hanya 17%. Dengan kata lain, kita semua percaya bahawa AGI akan menjadi masalah besar. Perlu juga diperhatikan bahawa tinjauan ini menyangkut kemunculan AGI - dalam hal ISI, peratusan berkecuali akan lebih rendah.

Sebelum kita lebih mendalam memikirkan sisi baik dan buruk soalan, mari kita gabungkan kedua-dua sisi soalan - "bilakah ini akan berlaku?" dan "adakah ini baik atau buruk?" ke dalam jadual yang merangkumi pandangan kebanyakan pakar.

Imej
Imej

Kami akan bercakap mengenai kem utama dalam satu minit, tetapi pertama-tama tentukan kedudukan anda. Kemungkinannya, anda berada di tempat yang sama dengan saya sebelum saya mula mengerjakan topik ini. Terdapat beberapa sebab mengapa orang tidak memikirkan topik ini sama sekali:

* Seperti yang disebutkan di bahagian pertama, film-film tersebut telah benar-benar membingungkan orang dan fakta, menyajikan senario yang tidak realistis dengan kecerdasan buatan, yang menyebabkan fakta bahawa kita sama sekali tidak harus mengambil AI. James Barratt menyamakan situasi ini dengan dikeluarkan oleh Pusat Pengendalian Penyakit (CDC) dengan amaran serius mengenai vampir di masa depan kita.

* Kerana apa yang disebut bias kognitif, sangat sukar bagi kita untuk mempercayai bahawa sesuatu itu nyata sehingga kita mempunyai bukti. Seseorang dengan yakin dapat membayangkan para saintis komputer tahun 1988 secara berkala membincangkan akibat-akibat luas dari Internet dan apa yang boleh terjadi, tetapi orang-orang hampir tidak percaya bahawa ia akan mengubah hidup mereka sehingga ia benar-benar berlaku. Baru saja komputer tidak tahu bagaimana melakukan ini pada tahun 1988, dan orang hanya melihat komputer mereka dan berfikir, “Benarkah? Adakah ini yang akan mengubah dunia? Imajinasi mereka dibatasi oleh apa yang telah mereka pelajari dari pengalaman peribadi, mereka tahu apa itu komputer, dan sukar untuk membayangkan apa yang mampu dimiliki oleh komputer di masa depan. Perkara yang sama berlaku sekarang dengan AI. Kami mendengar bahawa ia akan menjadi perkara yang serius, tetapi kerana kita belum menghadapinya secara langsung dan, secara umum, kita melihat manifestasi AI yang lemah di dunia moden kita, agak sukar bagi kita untuk mempercayai bahawa ia akan radikal ubah hidup kita. Bertentangan dengan prasangka inilah banyak pakar dari semua kem, dan juga orang-orang yang berminat, menentang untuk berusaha menarik perhatian kita melalui suara egosentrisme kolektif setiap hari.

* Sekalipun kita mempercayai semua ini - berapa kali hari ini anda berfikir tentang hakikat bahawa anda akan menghabiskan sisa kekekalan dalam masa kosong? Sedikit, setuju. Walaupun fakta ini jauh lebih penting daripada apa yang anda lakukan dari hari ke hari. Ini kerana otak kita biasanya tertumpu pada perkara kecil, sehari-hari, tidak kira betapa sukarnya keadaan jangka panjang yang kita hadapi. Cuma kita dibuat.

Salah satu tujuan artikel ini adalah untuk mengeluarkan anda dari kem yang disebut "Saya ingin memikirkan perkara lain" dan menempatkan anda di kem pakar, walaupun anda hanya berdiri di persimpangan jalan antara dua garis putus-putus di alun-alun di atas, sama sekali tidak membuat keputusan.

Dalam penyelidikan, menjadi jelas bahawa pendapat kebanyakan orang cepat menuju ke "kem utama", dan tiga perempat pakar jatuh ke dalam dua subkamp di kem utama.

Imej
Imej

Kami akan mengunjungi kedua-dua kem ini sepenuhnya. Mari mulakan dengan keseronokan.

Mengapa masa depan boleh menjadi impian terbesar kita?

Semasa kita meneroka dunia AI, secara mengejutkan terdapat banyak orang di zon selesa kita. Orang-orang di dataran kanan atas penuh dengan kegembiraan. Mereka percaya bahawa kita akan berada di sisi log yang baik, dan mereka juga percaya bahawa kita pasti akan sampai ke sini. Bagi mereka, masa depan hanyalah yang terbaik yang hanya boleh diimpikan.

Maksud yang membezakan orang-orang ini dari pemikir lain bukanlah bahawa mereka ingin berada di sisi bahagia - tetapi mereka yakin bahawa dialah yang menanti kita.

Keyakinan ini keluar dari kontroversi. Pengkritik percaya ia datang dari kegembiraan yang mempesona yang membayangi sisi negatif yang berpotensi. Tetapi penyokong mengatakan ramalan suram selalu naif; teknologi berterusan dan akan selalu membantu kita lebih banyak daripada membahayakan kita.

Anda bebas memilih mana-mana pendapat ini, tetapi mengesampingkan keraguan dan melihat sisi gembira dari balok keseimbangan, cuba menerima kenyataan bahawa semua yang anda baca mungkin sudah berlaku. Sekiranya anda memperlihatkan dunia keselesaan, teknologi, dan kelimpahan yang tidak berkesudahan kepada para pemburu, nampaknya mereka fiksyen ajaib - dan kami bersikap sederhana, tidak dapat mengakui bahawa transformasi yang tidak dapat difahami sama menanti kami di masa depan.

Nick Bostrom menerangkan tiga jalan yang dapat ditempuh oleh sistem AI superintelen:

* Oracle yang dapat menjawab sebarang soalan yang tepat, termasuk soalan sukar yang tidak dapat dijawab oleh manusia - misalnya, "bagaimana membuat enjin kereta lebih efisien?" Google adalah jenis "oracle" primitif.

* Seorang jin yang akan melaksanakan sebarang perintah tingkat tinggi - menggunakan assembler molekul untuk membuat versi baru dan lebih berkesan dari enjin kereta - dan akan menunggu perintah seterusnya.

* Seorang yang berdaulat yang akan memiliki akses luas dan kemampuan untuk berfungsi secara bebas di dunia, membuat keputusan sendiri dan memperbaiki prosesnya. Dia akan mencipta kaedah pengangkutan persendirian yang lebih murah, cepat dan selamat daripada kereta.

Soalan-soalan dan tugas-tugas ini, yang nampaknya sukar bagi kita, akan tampak seperti sistem superintelijen seolah-olah seseorang meminta untuk memperbaiki keadaan "pensil saya jatuh dari meja", di mana anda hanya akan mengambilnya dan meletakkannya kembali.

Eliezer Yudkowski, pakar Amerika dalam kecerdasan buatan, menyatakannya dengan baik:

"Tidak ada masalah yang sulit, hanya masalah yang sulit untuk tahap kecerdasan tertentu. Melangkah selangkah lebih tinggi (dari segi kepintaran), dan beberapa masalah tiba-tiba akan beralih dari kategori "mustahil" ke kem "jelas". Selangkah lebih tinggi - dan semuanya akan menjadi jelas."

Terdapat banyak saintis, penemu dan usahawan yang tidak sabar yang telah memilih zon keselesaan yakin dari meja kami, tetapi kami hanya memerlukan satu panduan untuk berjalan menuju yang terbaik di dunia terbaik ini.

Ray Kurzweil tidak jelas. Ada yang mengidolakan ideanya, ada yang membencinya. Beberapa orang tinggal di tengah - Douglas Hofstadter, membincangkan idea-idea buku Kurzweil, dengan fasih menyatakan bahawa "seolah-olah anda mengambil banyak makanan yang baik dan sedikit kotoran anjing, dan kemudian mencampurkan semuanya sedemikian rupa sehingga mustahil untuk difahami apa yang baik dan mana yang buruk."

Sama ada anda suka ideanya atau tidak, mustahil untuk menyebarkannya tanpa bayangan yang menarik. Dia mula mencipta sesuatu semasa remaja, dan pada tahun-tahun berikutnya dia mencipta beberapa perkara penting, termasuk pengimbas flatbed pertama, pengimbas pertama yang menukar teks ke pertuturan, synthesizer muzik Kurzweil yang terkenal (piano elektrik pertama yang sebenar), dan pengecam pertuturan pertama yang berjaya secara komersial. Dia juga pengarang lima buku sensasi. Kurzweil dihargai kerana ramalannya yang berani, dan rekodnya cukup bagus - pada akhir tahun 80-an, ketika Internet masih di peringkat awal, dia meramalkan bahawa pada tahun 2000-an Web akan menjadi fenomena global. The Wall Street Journal menyebut Kurzweil sebagai "genius yang gelisah," Forbes sebagai "mesin berfikir global," Inc. Majalah - "Pewaris sah Edison", Bill Gates - "yang terbaik dari mereka yang meramalkan masa depan kecerdasan buatan." Pada tahun 2012, pengasas bersama Google Larry Page menjemput Kurzweil ke jawatan CTO. Pada tahun 2011, dia mengasaskan Universiti Singularity, yang dihoskan oleh NASA dan sebahagiannya ditaja oleh Google.

Biografinya penting. Ketika Kurzweil bercakap tentang visi masa depannya, ia kelihatan seperti gila gila, tetapi yang paling gila adalah bahawa dia jauh dari gila - dia sangat pintar, berpendidikan dan waras. Anda mungkin menganggap dia salah dalam ramalannya, tetapi dia tidak bodoh. Ramalan Kurzweil dikongsi oleh banyak pakar zon selesa, Peter Diamandis dan Ben Herzel. Inilah yang difikirkannya akan berlaku.

Kronologi

Kurzweil percaya bahawa komputer akan mencapai tahap kecerdasan buatan umum (AGI) menjelang 2029, dan menjelang 2045 kita tidak hanya akan memiliki kecerdasan buatan, tetapi juga dunia yang benar-benar baru - masa yang disebut singulariti. Kronologinya mengenai AI masih dianggap keterlaluan, tetapi selama 15 tahun terakhir, perkembangan pesat sistem kecerdasan buatan (AI) yang sangat memaksa telah memaksa banyak pakar untuk berpihak kepada Kurzweil. Ramalannya masih lebih bercita-cita tinggi daripada yang terdapat dalam tinjauan Bostrom (AGI pada tahun 2040, ISI pada tahun 2060), tetapi tidak banyak.

Menurut Kurzweil, Singularity of 2045 didorong oleh tiga revolusi serentak dalam bioteknologi, nanoteknologi dan, yang lebih penting lagi, AI. Tetapi sebelum kita meneruskan - dan nanoteknologi mengikuti kepintaran buatan - mari kita luangkan masa untuk nanoteknologi.

Imej
Imej

Beberapa perkataan mengenai nanoteknologi

Kami biasanya memanggil teknologi nanoteknologi yang menangani manipulasi jirim dalam julat 1-100 nanometer. Nanometer ialah satu bilion meter, atau sepersejuta milimeter; dalam lingkungan 1-100 nanometer, virus (diameter 100 nm), DNA (lebar 10 nm), molekul hemoglobin (5 nm), glukosa (1 nm) dan lain-lain dapat ditampung. Sekiranya nanoteknologi menjadi tunduk kepada kita, langkah seterusnya adalah memanipulasi atom individu yang kurang daripada satu urutan magnitud (~, 1 nm).

Untuk memahami di mana manusia menghadapi masalah yang cuba memanipulasi jirim pada skala seperti itu, mari melompat ke skala yang lebih besar. Stesen Angkasa Antarabangsa berada 481 kilometer di atas Bumi. Sekiranya manusia adalah raksasa dan memukul ISS dengan kepala mereka, mereka akan menjadi 250,000 kali lebih besar daripada yang ada sekarang. Sekiranya anda membesarkan apa-apa dari 1 hingga 100 nanometer 250.000 kali, anda mendapat 2.5 sentimeter. Nanoteknologi adalah setara dengan manusia, yang mengorbit ISS, berusaha memanipulasi sesuatu ukuran sebutir pasir atau bola mata. Untuk sampai ke tahap seterusnya - kawalan atom individu - gergasi harus meletakkan objek dengan berhati-hati dengan diameter 1/40 milimeter. Orang biasa akan memerlukan mikroskop untuk melihatnya.

Buat pertama kalinya, Richard Feynman bercakap mengenai nanoteknologi pada tahun 1959. Kemudian dia berkata: "Prinsip-prinsip fizik, sejauh yang saya tahu, tidak menentang kemungkinan mengendalikan sesuatu atom dengan atom. Pada prinsipnya, seorang ahli fizik dapat mensintesis sebarang bahan kimia yang ditulis oleh seorang ahli kimia. Bagaimana? Dengan meletakkan atom di mana ahli kimia mengatakan untuk mendapatkan zatnya. " Ini adalah kesederhanaan keseluruhan. Sekiranya anda tahu bagaimana menggerakkan molekul atau atom individu, anda boleh melakukan hampir semua perkara.

Nanoteknologi menjadi bidang ilmiah yang serius pada tahun 1986 ketika jurutera Eric Drexler membentangkan asasnya dalam buku manianya Machines of Creation, tetapi Drexler sendiri percaya bahawa mereka yang ingin mempelajari lebih lanjut mengenai idea-idea moden dalam nanoteknologi harus membaca bukunya 2013. Full Abundance (Radical Banyak).

Beberapa perkataan mengenai "grey goo"

Kami meneroka lebih dalam bidang nanoteknologi. Secara khusus, topik "goo kelabu" adalah salah satu topik yang tidak begitu menyenangkan dalam bidang nanoteknologi, yang tidak boleh diabaikan. Versi lama teori nanoteknologi mencadangkan kaedah pemasangan nano yang melibatkan penciptaan trilion nanorobots kecil yang akan bekerjasama untuk mencipta sesuatu. Salah satu cara untuk membuat trilion nanorobots adalah dengan membuat satu yang dapat meniru diri sendiri, iaitu dari satu hingga dua, dari dua hingga empat, dan seterusnya. Beberapa trilion nanorobots akan muncul dalam sehari. Ini adalah kekuatan pertumbuhan eksponensial. Lucu, bukan?

Ia lucu, tetapi tepat sehingga membawa kepada kiamat. Masalahnya adalah bahawa kekuatan pertumbuhan eksponensial, yang menjadikannya cara yang sangat mudah untuk membuat trilion nanobot dengan cepat, menjadikan replikasi diri menjadi perkara yang menakutkan dalam jangka masa panjang. Bagaimana jika sistem mogok, dan bukannya menghentikan replikasi selama beberapa trilion, nanobots terus berkembang biak? Bagaimana jika keseluruhan proses ini bergantung pada karbon? Biojisim Bumi mengandungi 10 ^ 45 atom karbon. Nanobot seharusnya berada pada urutan 10 ^ 6 atom karbon, jadi 10 ^ 39 nanobots akan memakan semua kehidupan di Bumi hanya dalam 130 ulangan. Lautan nanobots ("kelabu goo") akan membanjiri planet ini. Para saintis berpendapat bahawa nanobots dapat meniru dalam 100 saat, yang bermaksud bahawa kesalahan sederhana dapat membunuh semua nyawa di Bumi hanya dalam 3,5 jam.

Ia boleh menjadi lebih teruk lagi - jika pengganas dan pakar yang tidak baik menjangkau teknologi nano. Mereka dapat membuat beberapa trilion nanobots dan memprogramnya untuk menyebarkan secara senyap-senyap ke seluruh dunia dalam beberapa minggu. Kemudian, dengan satu sentuhan butang, hanya dalam 90 minit mereka akan makan semuanya, tanpa peluang.

Walaupun kisah seram ini telah banyak dibincangkan selama bertahun-tahun, berita baiknya adalah bahawa ia hanyalah kisah seram. Eric Drexler, yang mencipta istilah "goo kelabu", baru-baru ini mengatakan yang berikut: "Orang suka kisah seram, dan ini adalah salah satu kisah seram zombie. Idea ini sendiri sudah memakan otak."

Sebaik sahaja kita sampai ke dasar nanoteknologi, kita dapat menggunakannya untuk membuat alat teknikal, pakaian, makanan, bioproduk - sel darah, pejuang virus dan barah, tisu otot, dan sebagainya - apa sahaja. Dan dalam dunia yang menggunakan nanoteknologi, kos bahan tidak lagi terkait dengan kelangkaan atau kerumitan proses pembuatannya, melainkan dengan kerumitan struktur atomnya. Dalam dunia nanoteknologi, berlian mungkin lebih murah daripada pemadam.

Kami belum dekat lagi. Dan tidak sepenuhnya jelas sama ada kita memandang rendah atau memandang tinggi kerumitan jalan ini. Walau bagaimanapun, semuanya mencapai titik bahawa nanoteknologi tidak jauh. Kurzweil menganggap bahawa menjelang 2020 kita akan memilikinya. Negara-negara dunia tahu bahawa nanoteknologi dapat menjanjikan masa depan yang hebat, dan oleh itu mereka melaburkan banyak miliaran di dalamnya.

Bayangkan saja kemungkinan yang akan diperoleh komputer superintelien jika sampai ke penghimpun skala nano yang boleh dipercayai. Tetapi nanoteknologi adalah idea kami, dan kami berusaha menunggangnya, sukar bagi kami. Bagaimana jika mereka hanya lelucon untuk sistem ISI, dan ISI itu sendiri dilengkapi dengan teknologi yang akan berkali-kali lebih hebat daripada apa pun yang, secara prinsipnya, dapat kita andaikan? Kami bersetuju: tidak ada yang dapat membayangkan kecerdasan buatan apa yang dapat dilakukan? Adalah dipercayai bahawa otak kita tidak dapat meramalkan sedikit pun apa yang akan berlaku.

Apa yang boleh dilakukan oleh AI untuk kita?

Imej
Imej

Bersenjata dengan superintelligence dan semua teknologi yang dapat dihasilkan oleh superintelligence, ISI mungkin akan dapat menyelesaikan semua masalah manusia. Pemanasan global? ISI akan menghentikan pelepasan karbon terlebih dahulu dengan mencipta pelbagai kaedah cekap untuk menjana tenaga yang tidak berkaitan dengan bahan bakar fosil. Dia kemudian akan menghasilkan kaedah yang berkesan dan inovatif untuk membuang lebihan CO2 dari atmosfera. Kanser dan penyakit lain? Bukan masalah - penjagaan kesihatan dan perubatan akan berubah dengan cara yang tidak dapat dibayangkan. Kebuluran dunia? ISI akan menggunakan nanoteknologi untuk membuat daging yang serupa dengan daging semula jadi, dari awal dan sebenar.

Nanoteknologi dapat mengubah timbunan sampah menjadi tong daging segar atau makanan lain (tidak semestinya dalam bentuk biasa - bayangkan kiub epal raksasa) dan mengedarkan semua makanan ini ke seluruh dunia menggunakan sistem pengangkutan canggih. Sudah tentu, ini bagus untuk haiwan yang tidak lagi mati kerana makanan. ISI juga dapat melakukan banyak perkara lain, seperti memelihara spesies yang terancam punah, atau bahkan mengembalikan spesies yang sudah pupus dari DNA yang tersimpan. ISI dapat menyelesaikan masalah makroekonomi kita yang paling sukar - perdebatan ekonomi kita yang paling sukar, masalah etika dan falsafah, perdagangan global - semuanya akan sangat jelas bagi ISI.

Tetapi ada sesuatu yang sangat istimewa yang boleh dilakukan oleh ISI untuk kita. Memikat dan menggoda yang akan mengubah segalanya: ISI dapat membantu kita mengatasi kematian … Memahami kemampuan AI secara beransur-ansur, mungkin anda akan mempertimbangkan semula semua idea anda mengenai kematian.

Tidak ada alasan evolusi untuk memperpanjang jangka hayat kita lebih lama daripada yang berlaku sekarang. Sekiranya kita hidup cukup lama untuk melahirkan dan membesarkan anak-anak sehingga mereka dapat membela diri, evolusi sudah cukup. Dari sudut evolusi, 30+ tahun sudah cukup untuk pembangunan, dan tidak ada alasan mutasi untuk memanjangkan umur dan mengurangkan nilai pemilihan semula jadi. William Butler Yates memanggil spesies kita "jiwa yang melekat pada binatang yang mati." Tidak banyak keseronokan.

Dan kerana kita semua mati suatu hari nanti, kita hidup dengan idea bahawa kematian tidak dapat dielakkan. Kami berfikir tentang penuaan dari masa ke masa - terus maju dan tidak dapat menghentikan proses ini. Tetapi pemikiran kematian itu khianat: ditangkap olehnya, kita lupa untuk hidup. Richard Feynman menulis:

"Ada sesuatu yang indah dalam biologi: tidak ada yang ada dalam sains ini yang membicarakan tentang keperluan kematian. Sekiranya kita ingin membuat mesin gerakan kekal, kita menyedari bahawa kita telah menemui undang-undang yang cukup dalam fizik yang menunjukkan kemustahilan ini, atau undang-undang itu salah. Tetapi tidak ada dalam biologi yang menunjukkan kematian yang tidak dapat dielakkan. Ini membuat saya percaya bahawa ini tidak dapat dielakkan, dan hanya menunggu masa sebelum ahli biologi mengetahui punca masalah ini, penyakit sejagat yang dahsyat ini, ia akan disembuhkan."

Faktanya ialah penuaan tidak ada kaitan dengan masa. Penuaan adalah apabila bahan fizikal badan habis. Bahagian kereta juga merosot - tetapi penuaan tidak dapat dielakkan? Sekiranya anda membaiki kereta anda kerana bahagiannya habis, ia akan kekal selamanya. Tubuh manusia tidak berbeza - hanya lebih kompleks.

Kurzweil membincangkan tentang nanobots pintar yang disambungkan dengan Wi-Fi di aliran darah yang dapat melakukan banyak tugas untuk kesihatan manusia, termasuk memperbaiki atau mengganti sel-sel yang sudah usang di mana saja di badan. Memperbaiki proses ini (atau mencari alternatif yang dicadangkan oleh ASI yang lebih pintar) bukan sahaja menjaga kesihatan badan, tetapi juga dapat membalikkan penuaan. Perbezaan antara badan berusia 60 tahun dan 30 tahun adalah segelintir masalah fizikal yang dapat diperbaiki dengan teknologi yang tepat. ISI dapat membina sebuah kereta yang akan dimasuki seseorang ketika berumur 60 tahun dan meninggalkan ketika mereka berumur 30 tahun.

Bahkan otak yang rosak dapat diperbaharui. ISI pasti tahu bagaimana melakukan ini tanpa mempengaruhi data otak (keperibadian, ingatan, dll.). Seorang lelaki berusia 90 tahun yang mengalami degradasi otak yang lengkap dapat menjalani latihan semula, memperbaharui dan kembali ke awal hidupnya. Mungkin kelihatan tidak masuk akal, tetapi badannya adalah segelintir atom, dan ISI pasti dapat memanipulasinya dengan mudah, struktur atom apa pun. Ia tidak masuk akal.

Kurzweil juga percaya bahawa bahan buatan akan menyatu dengan lebih banyak ke dalam badan seiring berjalannya waktu. Sebagai permulaan, organ boleh diganti dengan versi mesin yang sangat canggih yang akan bertahan selamanya dan tidak pernah gagal. Kemudian kita dapat melakukan reka bentuk semula badan yang lengkap, menggantikan sel darah merah dengan nanobots sempurna yang bergerak sendiri, menghilangkan keperluan untuk jantung sama sekali. Kita juga dapat meningkatkan kemampuan kognitif kita, mula berfikir berbilion kali lebih cepat, dan mengakses semua maklumat yang tersedia untuk manusia melalui awan.

Kemungkinan untuk memahami cakrawala baru tidak akan ada habisnya. Orang berjaya memberikan seks dengan tujuan baru, mereka melakukannya untuk kesenangan, bukan hanya untuk pembiakan. Kurzweil percaya bahawa kita boleh melakukan perkara yang sama dengan makanan. Nanobots dapat memberikan nutrisi yang ideal secara langsung ke sel-sel tubuh, yang membolehkan zat tidak sihat melewati tubuh. Ahli teori Nanoteknologi Robert Freitas telah mengembangkan pengganti sel darah, yang, apabila dilaksanakan di dalam tubuh manusia, memungkinkannya untuk tidak bernafas selama 15 minit - dan ini diciptakan oleh seseorang. Bayangkan bila ISI akan mendapat kuasa.

Bagaimanapun, Kurzweil percaya bahawa manusia akan mencapai tahap di mana mereka menjadi buatan sepenuhnya; masa ketika kita melihat bahan biologi dan memikirkan bagaimana primitifnya; ketika kita akan membaca tentang peringkat awal sejarah manusia, kagum dengan bagaimana kuman, kemalangan, penyakit, atau usia tua boleh membunuh seseorang yang bertentangan dengan kehendaknya. Pada akhirnya, manusia akan mengalahkan biologi mereka sendiri dan menjadi kekal - ini adalah jalan menuju sisi bahagia balok keseimbangan yang telah kita bicarakan sejak awal. Dan orang yang mempercayai ini juga yakin bahawa masa depan seperti itu menanti kita, tidak lama lagi.

Anda mungkin tidak akan terkejut kerana idea-idea Kurzweil telah mendapat kritikan yang kuat. Keunikannya pada tahun 2045 dan kehidupan abadi bagi orang-orang disebut "kenaikan kutu buku" atau "penciptaan pintar orang dengan IQ 140". Yang lain mempersoalkan jangka masa yang optimis, pemahaman tentang tubuh manusia dan otak, mengingatkan undang-undang Moore, yang belum hilang. Bagi setiap pakar yang mempercayai idea Kurzweil, ada tiga orang yang menganggap dia salah.

Tetapi perkara yang paling menarik tentang ini adalah bahawa kebanyakan pakar yang tidak bersetuju dengannya, secara keseluruhan, tidak mengatakan bahawa ini mustahil. Daripada mengatakan "omong kosong, ini tidak akan pernah terjadi", mereka mengatakan sesuatu seperti "semua ini akan berlaku jika kita sampai ke ISI, tetapi inilah masalahnya." Bostrom, salah satu peringatan pakar AI yang terkenal mengenai bahaya AI, juga mengakui:

"Hampir tidak ada masalah yang tersisa yang tidak dapat diselesaikan oleh superintelijen, atau bahkan membantu kita menyelesaikannya. Penyakit, kemiskinan, kemusnahan alam sekitar, penderitaan pelbagai jenis - semua kecerdasan super dengan bantuan nanoteknologi dapat diselesaikan dalam sekejap. Superintelligence juga dapat memberi kita jangka hayat tanpa had dengan menghentikan dan membalikkan proses penuaan menggunakan nanomedicine atau kemampuan untuk memuat naik kita ke cloud. Superintelligence juga dapat mewujudkan peluang untuk peningkatan kemampuan intelektual dan emosi yang tidak berkesudahan; dia dapat menolong kita menciptakan dunia di mana kita akan hidup dalam kegembiraan dan pengertian, mendekati cita-cita kita dan secara teratur mewujudkan impian kita."

Ini adalah petikan dari salah seorang pengkritik Kurzweil, bagaimanapun, yang mengakui bahawa semua ini mungkin berlaku jika kita dapat membuat ASI yang selamat. Kurzweil hanya mentakrifkan kecerdasan buatan apa yang seharusnya, jika mungkin. Dan jika dia adalah tuhan yang baik.

Kritikan yang paling jelas terhadap penyokong zon selesa adalah bahawa mereka boleh dianggap salah ketika mereka menilai masa depan ISI. Dalam bukunya The Singularity, Kurzweil menumpukan 20 halaman daripada 700 kemungkinan ancaman ISI. Persoalannya bukan ketika kita sampai ke ISI, persoalannya adalah apakah motivasinya. Kurzweil menjawab pertanyaan ini dengan hati-hati: “ISI berasal dari banyak usaha yang berbeza dan akan disatukan secara mendalam ke dalam infrastruktur peradaban kita. Sebenarnya, ia akan tertanam rapat di dalam badan dan otak kita. Dia akan mencerminkan nilai kita kerana dia akan menjadi satu dengan kita."

Tetapi jika jawapannya adalah, mengapa begitu banyak orang pintar di dunia ini bimbang tentang masa depan kecerdasan buatan? Mengapa Stephen Hawking mengatakan bahawa pengembangan ISI "boleh bermaksud akhir umat manusia"? Bill Gates mengatakan bahawa dia "tidak memahami orang yang tidak terganggu" mengenainya. Elon Musk takut bahawa kita "memanggil iblis." Mengapa banyak pakar menganggap ISI sebagai ancaman terbesar bagi umat manusia?

Kami akan membincangkannya kali ini.

Disyorkan: