Google sedang mengembangkan Laws of Robotics versinya sendiri

Jaringan saraf kecerdasan buatan AI

Peneliti kecerdasan buatan Google mulai harus membuat kode di sekitar kode mereka sendiri, menulis tambalan yang membatasi kemampuan robot sehingga terus berkembang ke jalur yang diinginkan oleh para peneliti - bukan oleh robot itu sendiri. Ini adalah awal dari tren jangka panjang dalam robotika dan AI secara umum: setelah kami melakukan semua pekerjaan ini untuk meningkatkan wawasan tentang kecerdasan buatan, bagaimana kami dapat memastikan bahwa wawasan hanya akan diterapkan dengan cara yang kami inginkan. Suka?

Itulah mengapa para peneliti dari Google's DeepMind dan the Future of Humanity Institute memilikinya menerbitkan sebuah makalah menguraikan perangkat lunak 'killswitch' yang mereka klaim dapat menghentikan contoh pembelajaran yang dapat membuat AI kurang berguna - atau, di masa mendatang, kurang aman. Ini benar-benar bukan killswitch daripada blind spot, menghilangkan kemampuan AI untuk mempelajari pelajaran yang salah.

atlas upgrade 2

Hukum menjadi persyaratan yang cukup banyak pada saat ini.



Secara khusus, mereka mengkodekan AI untuk mengabaikan masukan manusia dan konsekuensinya untuk keberhasilan atau kegagalan. Jika masuk ke dalam adalah 'kegagalan' dan ia mengetahui bahwa setiap kali manusia mengambilnya, manusia kemudian membawanya ke dalam, robot tersebut mungkin memutuskan untuk mulai melarikan diri dari setiap manusia yang mendekat. Jika masuk ke dalam adalah tujuan yang diinginkan, ia mungkin belajar untuk menyerah dalam mencari jalan ke dalam, dan langsung menabrak pergelangan kaki manusia sampai mendapatkan apa yang diinginkannya. Tulisan besar, 'hukum' yang dikembangkan pada dasarnya adalah, 'Jangan belajar untuk memenangkan permainan dengan cara yang menyebalkan dan yang tidak saya duga akan terjadi.'

Ini adalah aturan yang sangat bagus untuk dimiliki.

Elon Musk tampaknya menggunakan kecintaan media pada berita utama panik fiksi ilmiah untuk mempromosikan nama dan mereknya, pada titik ini, tetapi dia tidak sepenuhnya salah ketika mengatakan bahwa kita perlu khawatir tentang AI yang mengamuk. Masalahnya belum tentu hegemoni oleh para penguasa robot, tetapi kekacauan yang meluas saat teknologi berbasis AI memasuki bidang kehidupan kita yang semakin luas. Tanpa kemampuan untuk menginterupsi AI dantidak memengaruhi pembelajarannya, tindakan sederhana menghentikan robot dari melakukan sesuatu yang tidak aman atau tidak produktif dapat membuatnya kurang aman atau produktif - membuat intervensi manusia menjadi masalah yang terlalu rumit dan rumit dengan konsekuensi yang tidak terduga.

google-car-hed-2-640x353Tiga Hukum Robotika Asimov bersifat konseptual - mereka menggambarkan jenis hal yang tidak dapat dilakukan. Tetapi untuk memberikan Tiga Hukum dalam bentuk seperti itu membutuhkan otak yang memahami kata-kata seperti 'bahaya' dan dapat secara akurat mengidentifikasi situasi dan tindakan yang akan menghasilkannya. Hukum, yang sederhana jika ditulis dalam bahasa Inggris, akan menjadi sangat rumit jika ditulis dalam perangkat lunak. Mereka akan menjangkau setiap sudut dan celah kognisi AI, tidak mengedit pemikiran yang dapat dihasilkan dari masukan, tetapi masukan apa yang akan diperhatikan, dan bagaimana interpretasinya. Tiga Hukum akan menjadi atribut kecerdasan mesin, bukan batasan yang diterapkan padanya - yaitu, akan menjadi seperti itu, atau tidak akan berfungsi.

Inisiatif Google ini mungkin tampak jauh dari First Do No (Robot) Harm, tetapi pemahaman yang mendasar tentang Hukum ini menunjukkan bagaimana sebenarnya tipe kepribadian robot awal. Kami mulai membentuk cara robot berpikir, bukan apa mereka berpikir, dan melakukannya dengan maksud untuk menyesuaikan diri potensi perilaku, bukan perilaku yang diamati. Pada dasarnya, itulah dasar-dasar moralitas robot.

Google

Kita tidak tahu bahwa kekerasan itu buruk karena evolusi memberi kita sekelompok neuron 'Kekerasan Itu Buruk', tetapi sebagian karena evolusi memberi kita neuron cermin dan bias kognitif yang tertanam dalam untuk memproyeksikan diri kita sendiri ke dalam situasi yang kita lihat atau bayangkan, alami beberapa versi perasaan di dalamnya. Keyakinan tingkat tinggi tentang moralitas muncul setidaknya sebagian dari perubahan yang relatif sederhana bagaimana data diproses. Aturan yang dibayangkan dan diusulkan di Google bahkan lebih mendasar, tetapi mereka berada di awal jalur yang sama. Jadi, jika Anda ingin mengajarkan robot agar tidak membahayakan manusia, Anda harus mulai dengan beberapa aspek dasar kognisi.

Portal RobotPembelajaran mesin modern adalah tentang membiarkan mesin mengkodekan ulang dirinya sendiri dalam batas tertentu, dan batas tersebut sebagian besar ada untuk mengarahkan algoritme ke arah yang positif. Ia tidak tahu apa artinya 'baik', jadi kami harus memberikan definisi, dan cara untuk menilai tindakannya sendiri terhadap standar tersebut. Namun dengan apa yang disebut 'pembelajaran mesin tanpa pengawasan,' memungkinkan kecerdasan buatan mengubah aturan pembelajarannya sendiri dan belajar dari efek itu modifikasi. Ini adalah cabang pembelajaran yang dapat membuat bot Tetris yang selalu berhenti tampak seperti apa adanya: pengingat kuno namun serius tentang betapa asing pikiran komputer sebenarnya, dan seberapa jauh berbagai hal dapat dengan mudah keluar jalur.

Bidang pembelajaran tanpa pengawasan masih dalam tahap awal saat ini, tetapi ia membawa potensi keserbagunaan robot sejati dan bahkan kreativitas, serta perubahan cepat dalam kemampuan dan sifat secara eksponensial. Ini adalah bidang yang dapat mewujudkan beberapa prediksi fiksi ilmiah yang benar-benar fantastis - dari tekno-utopia yang dijalankan oleh mesin super efisien dan tidak memihak, hingga tekno-distopia yang dijalankan oleh yang jahat dan tidak manusiawi. Itu bisa membiarkan robot menavigasi dengan berguna di lingkungan asing yang sama sekali tak terduga, atau mengarahkan robot itu perlahan-lahan memperoleh pemahaman yang tidak tepat seperti V'ger tentang misinya.

Copyright © Seluruh Hak Cipta | 2007es.com