Para saintis takut akan ancaman kecerdasan buatan

Para saintis takut akan ancaman kecerdasan buatan
Para saintis takut akan ancaman kecerdasan buatan

Video: Para saintis takut akan ancaman kecerdasan buatan

Video: Para saintis takut akan ancaman kecerdasan buatan
Video: Амфибия / Бериев Бе-200 Альтаир / Русская летающая лодка 2024, Mungkin
Anonim

Kecerdasan buatan (AI) peningkatan diri pada masa akan datang dapat memperbudak atau membunuh orang jika dia mahu. Perkara ini diberitahu oleh saintis Amnon Eden, yang percaya bahawa risiko dari perkembangan kesedaran berfikir bebas dan sangat cerdas sangat tinggi, dan "jika anda tidak menangani masalah kawalan AI yang sudah berada di tahap sekarang pembangunan, maka esok mungkin tidak akan datang. " Menurut Express edisi bahasa Inggeris, kemanusiaan, menurut Amnon Eden, hari ini berada di "point of no return" untuk pelaksanaan plot epik filem terkenal "The Terminator".

Perlu diperhatikan bahawa Dr. Amnon Eden adalah pemimpin projek yang tujuan utamanya adalah untuk menganalisis kemungkinan kesan buruk dari AI. Tanpa pemahaman yang betul mengenai akibat mencipta kecerdasan buatan, perkembangannya dapat mengancam dengan bencana, kata saintis itu. Pada masa ini, masyarakat kita kurang mendapat maklumat mengenai perbahasan yang sedang berlangsung dalam komuniti saintifik mengenai analisis kemungkinan kesan AI. "Pada tahun 2016 mendatang, analisis kemungkinan risiko harus menjadi lebih luas dalam pemikiran syarikat dan pemerintah, ahli politik dan mereka yang bertanggung jawab untuk membuat keputusan," kata Eden.

Saintis itu pasti bahawa fiksyen ilmiah, yang menggambarkan kemusnahan manusia oleh robot, akan segera menjadi masalah biasa kita, kerana proses membuat AI tidak terkawal. Sebagai contoh, Elon Musk, dengan sokongan pengusaha Sam Altman, memutuskan untuk membuat organisasi bukan untung $ 1 bilion baru yang mengembangkan AI sumber terbuka yang harus melampaui fikiran manusia. Pada masa yang sama, jutawan Amerika Elon Musk sendiri meletakkan kepintaran buatan antara "ancaman terbesar terhadap kewujudan kita." Steve Wozniak, yang bersama-sama mengasaskan Apple, mengatakan pada bulan Mac lalu bahawa "masa depan kelihatan menakutkan dan sangat berbahaya bagi orang … akhirnya hari akan tiba ketika komputer akan berfikir lebih cepat daripada kita dan mereka akan menyingkirkan orang yang lambat untuk supaya syarikat dapat bekerja dengan lebih cekap."

Imej
Imej

Perlu diperhatikan bahawa banyak saintis melihat ancaman dari AI. Puluhan saintis, pelabur dan usahawan terkenal, yang kegiatannya, dalam satu atau lain cara, berkaitan dengan pengembangan kecerdasan buatan, telah menandatangani surat terbuka yang meminta lebih banyak perhatian terhadap isu keselamatan dan utiliti sosial pekerjaan di bidang AI. Ahli astrofizik Stephen Hawking dan pengasas Tesla dan SpaceX Elon Musk adalah antara penandatangan dokumen ini. Surat itu, bersama dengan dokumen yang menyertainya, yang disusun oleh Future of Life Institute (FLI), ditulis di tengah meningkatnya kebimbangan mengenai kesan kecerdasan buatan di pasaran buruh dan bahkan kelangsungan hidup jangka panjang seluruh umat manusia dalam persekitaran di mana keupayaan robot dan mesin akan berkembang hampir tidak terkawal.

Para saintis memahami hakikat bahawa potensi AI pada masa kini sangat besar, jadi perlu untuk menyelidiki sepenuhnya kemungkinan penggunaannya yang optimum bagi kita untuk mengelakkan perangkap yang menyertainya, kata surat FLI. Adalah mustahak bahawa sistem AI buatan manusia melakukan apa yang kita mahukan. Perlu diingat bahawa Future of Life Institute hanya didirikan tahun lalu oleh sejumlah peminat, antaranya adalah pencipta Skype, Jaan Tallinn, untuk "meminimumkan risiko yang dihadapi umat manusia" dan merangsang penyelidikan dengan "visi optimis masa depan”. Pertama sekali, kita bercakap di sini mengenai risiko yang disebabkan oleh perkembangan AI dan robotik. Lembaga Penasihat FLI merangkumi Musk dan Hawking, bersama pelakon terkenal Morgan Freeman dan orang terkenal lain. Menurut Elon Musk, perkembangan kecerdasan buatan yang tidak terkawal berpotensi lebih berbahaya daripada senjata nuklear.

Ahli astrofizik Inggeris terkenal Stephen Hawking pada akhir tahun 2015 cuba menjelaskan penolakannya terhadap teknologi AI. Pada pendapatnya, dari masa ke masa, mesin superintelien akan memandang orang sebagai bahan habis pakai atau semut yang hanya mengganggu penyelesaian tugas mereka. Bercakap dengan pengguna portal Reddit, Stephen Hawking menyatakan bahawa dia tidak percaya bahawa mesin superintelijen seperti itu akan menjadi "makhluk jahat" yang ingin memusnahkan seluruh umat manusia kerana kelebihan intelektual mereka. Kemungkinan besar, adalah mungkin untuk membincangkan hakikat bahawa mereka tidak akan memperhatikan manusia.

Imej
Imej

"Media sejak kebelakangan ini memutarbelitkan kata-kata saya. Risiko utama dalam pengembangan AI bukanlah keburukan mesin, tetapi kecekapannya. Kecerdasan buatan yang sangat pintar akan melakukan pekerjaan yang sangat baik, tetapi jika itu dan tujuan kita tidak bertepatan, manusia akan menghadapi masalah yang sangat serius,”jelas saintis terkenal itu. Sebagai contoh, Hawking memetik situasi hipotetis di mana AI yang sangat berkuasa bertanggungjawab untuk operasi atau pembinaan empangan hidroelektrik baru. Untuk mesin seperti itu, keutamaannya adalah berapa banyak tenaga yang akan dihasilkan oleh sistem yang diamanahkan, dan nasib orang tidak akan menjadi masalah. "Ada sebilangan kecil dari kita yang menginjak-injak semut dan menginjak semut kerana marah, tetapi mari kita bayangkan keadaan - anda mengawal stesen janakuasa hidroelektrik yang kuat yang menjana elektrik. Sekiranya anda perlu menaikkan paras air dan akibat tindakan anda, satu semut akan ditenggelami air, maka masalah serangga lemas tidak mungkin mengganggu anda. Jangan letakkan orang di tempat semut,”kata saintis itu.

Masalah berpotensi kedua untuk pengembangan kecerdasan buatan lebih lanjut, menurut Hawking, mungkin "kezaliman pemilik mesin" - pertumbuhan jurang yang cepat dalam tahap pendapatan antara orang kaya yang akan dapat memonopoli pengeluaran mesin pintar, dan seluruh penduduk dunia. Stephen Hawking mencadangkan untuk menyelesaikan masalah-masalah yang mungkin berlaku dengan cara berikut - untuk melambatkan proses pengembangan AI dan beralih ke pengembangan bukan "universal", tetapi kecerdasan buatan yang sangat khusus, yang hanya dapat menyelesaikan pelbagai masalah yang sangat terhad.

Selain Hawking dan Musk, surat itu ditandatangani oleh pemenang Nobel dan profesor fizik MIT, Frank Wilczek, pengarah eksekutif Institut Penyelidikan Perisikan Mesin (MIRI) Luc Mühlhauser, serta banyak pakar dari syarikat IT besar: Google, Microsoft dan IBM, serta usahawan yang mengasaskan syarikat AI Vicarious dan DeepMind. Penulis surat itu menyatakan bahawa mereka tidak bertujuan untuk menakut-nakutkan orang ramai, tetapi merancang untuk menonjolkan aspek positif dan negatif yang berkaitan dengan penciptaan kecerdasan buatan. "Pada masa ini, semua orang setuju bahawa penyelidikan di bidang AI berkembang dengan stabil, dan pengaruh AI pada masyarakat manusia moden hanya akan meningkat," kata surat itu, "peluang yang terbuka untuk manusia sangat besar, semua yang ada peradaban moden yang ditawarkan dibuat oleh perisikan. Kami tidak dapat meramalkan apa yang akan dapat kami capai jika kecerdasan manusia dapat dikalikan dengan AI, tetapi masalah untuk menghilangkan kemiskinan dan penyakit tidak lagi sukar."

Imej
Imej

Banyak perkembangan dalam bidang kecerdasan buatan sudah termasuk dalam kehidupan moden, termasuk sistem pengenalan imej dan pertuturan, kenderaan tanpa pemandu dan banyak lagi. Pemerhati Silicon Valley menganggarkan bahawa lebih daripada 150 syarikat permulaan sedang dilaksanakan di kawasan ini. Pada masa yang sama, perkembangan di kawasan ini menarik semakin banyak pelaburan, dan semakin banyak syarikat seperti Google sedang mengembangkan projek mereka berdasarkan AI. Oleh itu, penulis surat tersebut percaya bahawa waktunya telah tiba untuk memperhatikan semua kemungkinan akibat dari ledakan yang diperhatikan untuk aspek ekonomi, sosial dan undang-undang kehidupan manusia.

Kedudukan bahawa kecerdasan buatan dapat menimbulkan bahaya bagi manusia dikongsi oleh Nick Bostrom, seorang profesor di University of Oxford, yang terkenal dengan karyanya mengenai prinsip antropik. Pakar ini percaya bahawa AI telah sampai pada tahap yang akan diikuti oleh ketidaksesuaiannya dengan manusia. Nick Bostrom menekankan bahawa tidak seperti kejuruteraan genetik dan perubahan iklim, yang mana pemerintah memperuntukkan dana yang mencukupi untuk dikendalikan, "tidak ada yang dilakukan untuk mengawal evolusi AI." Menurut profesor itu, "dasar kekosongan undang-undang yang perlu diisi" saat ini sedang dilakukan berkaitan dengan kecerdasan buatan. Malah teknologi seperti kereta memandu sendiri, yang kelihatan tidak berbahaya dan berguna, menimbulkan sejumlah persoalan. Sebagai contoh, perlukah kereta seperti itu harus melakukan brek kecemasan untuk menyelamatkan penumpangnya dan siapa yang akan bertanggungjawab sekiranya berlaku kemalangan yang dilakukan oleh kenderaan tanpa pemandu?

Membincangkan risiko yang berpotensi, Nick Bostrom menyatakan bahawa "komputer tidak dapat menentukan faedah dan kemudaratan kepada manusia" dan "bahkan tidak mempunyai sedikit pun idea moral manusia." Di samping itu, kitaran peningkatan diri dalam komputer boleh berlaku pada kelajuan sehingga seseorang tidak dapat mengikuti, dan hampir tidak ada yang dapat dilakukan mengenai hal ini, kata saintis itu. "Pada tahap pengembangan ketika komputer dapat memikirkan sendiri, tidak ada yang dapat meramalkan dengan pasti apakah ini akan menimbulkan kekacauan atau memperbaiki dunia kita secara signifikan," kata Nick Bostrom, dengan menyebut sebagai contoh penyelesaian yang mungkin sederhana untuk komputer - mematikan di negara-negara dengan pemanasan iklim sejuk untuk meningkatkan kesihatan orang dan meningkatkan daya tahan mereka, yang "dapat menjadi kepala kecerdasan buatan."

Imej
Imej

Selain itu, Bostrom juga membangkitkan masalah otak manusia untuk meningkatkan kecerdasan kita. "Dalam banyak cara, prosedur seperti itu dapat berguna jika semua proses dikendalikan, tetapi apa yang terjadi jika cip yang ditanam dapat memprogram sendiri? Apa akibatnya yang dapat terjadi ini - munculnya seorang superman atau munculnya komputer yang hanya akan kelihatan seperti manusia? " - profesor bertanya. Cara komputer menyelesaikan masalah manusia sangat berbeza dengan kita. Sebagai contoh, dalam catur, otak manusia hanya menganggap satu pergerakan yang sempit, memilih pilihan terbaik dari mereka. Sebaliknya, komputer mempertimbangkan semua kemungkinan pergerakan, memilih yang terbaik. Pada masa yang sama, komputer tidak menyangka akan mengejutkan atau mengejutkan lawannya dalam permainan. Tidak seperti manusia, bermain catur, komputer dapat membuat gerakan yang licik dan halus hanya secara tidak sengaja. Kecerdasan buatan dapat mengira dengan cara terbaik - untuk menghapuskan ralat dari mana-mana sistem dengan membuang "faktor manusia" dari situ, tetapi, tidak seperti manusia, robot tidak bersedia melakukan prestasi yang dapat menyelamatkan nyawa orang.

Antara lain, kenaikan jumlah mesin pintar mewakili tahap revolusi industri baru. Sebaliknya, ini bermaksud bahawa dalam masa terdekat, umat manusia akan menghadapi perubahan sosial yang tidak dapat dielakkan. Dari masa ke masa, pekerjaan akan menjadi banyak pakar yang berkelayakan tinggi, kerana hampir semua tugas mudah dapat dilakukan oleh robot dan mekanisme lain. Para saintis percaya bahawa kecerdasan buatan "memerlukan mata dan mata" agar planet kita tidak berubah menjadi planet kartun "Zhelezyaka", yang dihuni oleh robot.

Dari segi automasi proses pengeluaran yang semakin banyak, masa depan sudah tiba. Forum Ekonomi Dunia (WEF) menyampaikan laporannya, yang menurutnya automasi akan membawa kepada fakta bahawa menjelang tahun 2020 lebih daripada 5 juta orang yang bekerja di pelbagai bidang akan kehilangan pekerjaan. Inilah kesan robot dan sistem robot pada kehidupan kita. Untuk menyusun laporan, pekerja WEF menggunakan data mengenai 13.5 juta pekerja dari seluruh dunia. Menurut mereka, pada tahun 2020, kebutuhan total untuk lebih dari 7 juta pekerjaan akan hilang, sementara pertumbuhan pekerjaan yang diharapkan di industri lain akan berjumlah lebih dari 2 juta pekerjaan.

Disyorkan: