Bagaimana Skema AI Mengerti Nilai-Nilai Manusia?

Bagaimana Skema AI Mengerti Nilai-Nilai Manusia?

Algoritma machine learning (ML) dapat mengetahui skema yang tambah lebih baik dibanding manusia tempat mereka kerja. Ini sangat mungkin mereka untuk membuahkan perkiraan serta membuat ketetapan dalam beberapa kondisi beresiko tinggi. Contohnya, listrik memakai potensi perkiraan IBM Watson untuk menghadapi keperluan client; Skema self-driving Uber tentukan rute apa yang akan membuat penumpang ke arah mereka paling cepat; serta Insilico Medicine manfaatkan mesin penemuan obatnya untuk mengenali jalan buat obat-obatan baru.

Saat skema evaluasi yang didorong oleh data terus maju, akan cukup gampang untuk mendeskripsikan “kesuksesan” berdasar penambahan tehnis, seperti tingkatkan jumlahnya algoritma data yang bisa disintesis serta, dengan begitu, tingkatkan kemanjuran identifikasi skema mereka. Tetapi, supaya skema ML betul-betul jadi sukses, mereka butuh mengerti nilai-nilai kemanusiaan. Lebih penting , mereka harus dapat menimbang kemauan serta tuntutan kita yang berkompetisi, mengerti hasil apa yang paling kita hargai, serta melakukan tindakan sesuai itu.

Mengerti Nilai
Untuk menyorot beberapa jenis ketetapan etis yang sudah ditentang oleh skema ML kami, Kaj Sotala , seorang periset di Finlandia yang kerja untuk Foundational Research Institute , berubah ke analisa jalan raya serta mobil self-driving. Haruskah jalan tol dipakai untuk mencukur lima menit perjalanan, atau lebih baik ambil rute yang lebih panjang untuk mengirit uang?

Menjawab pertanyaan itu tidak segampang keliatannya.

Contohnya, Orang A kemungkinan lebih senang ambil jalan tol yang biayanya lima dolar bila ingin mengirit lima menit, tapi mereka kemungkinan tidak mau ambil jalan tol bila biayanya sepuluh dolar. Orang B, di lain sisi, kemungkinan tetap lebih senang ambil rute terpendek tanpa ada melihat harga, sebab mereka menghormati waktu mereka di atas segala hal.

Dalam kondisi ini, Sotala mencatat jika kita selanjutnya minta skema ML untuk tentukan apa yang lebih dihargai manusia: Waktu atau uang. Mengakibatkan, apa yang terlihat seperti pertanyaan simpel mengenai jalan apa yang perlu diambil secara cepat jadi analisa kompleks dari nilai yang berkompetisi. “Seseorang kemungkinan berpikir, ‘Nah, panduan arah mengemudi cuma masalah efisiensi. Saya akan biarkan skema AI memberitahu saya langkah paling baik untuk mengerjakannya. ‘ Tapi orang lain kemungkinan merasakan jika ada nilai dalam lakukan pendekatan yang tidak sama, ”katanya.

Walau memang benar jika skema ML harus menimbang nilai-nilai kami serta membuat tradeoff dalam semua ketetapan mereka, Sotala mencatat jika ini bukanlah permasalahan pada sekarang. Tugas-tugas yang ditemui skema lumayan sederhana hingga periset bisa dengan manual masukkan info nilai yang dibutuhkan. Tetapi, bersamaan dengan bertambahnya kompleksitas agen AI, Sotala menerangkan jika mereka harus dapat menerangkan serta menimbang nilai-nilai kami.

Mengerti Agen Berbasiskan Utilitas
Saat hadir untuk menyatukan nilai-nilai, Sotala mencatat jika permasalahannya ialah bagaimana agen pintar membuat ketetapan. Thermostat, contohnya, ialah tipe agen refleks . Ia paham kapan harus mulai memanaskan rumah sebab suhu yang sudah dipastikan awalnya – termostat menyalakan skema pemanas waktu jatuh dibawah suhu khusus serta mematikannya saat berjalan di atas suhu khusus. Agen berbasiskan arah , di lain sisi, membuat ketetapan berdasar perolehan arah khusus. Jadi contoh, seorang agen yang maksudnya untuk beli semua yang berada di daftar berbelanja akan meneruskan pencariannya sampai dia temukan tiap item.

Agen berbasiskan utilitas ialah langkah di atas agen berbasiskan arah. Mereka bisa mengatasi pengorbanan sebagai berikut: Memperoleh susu lebih penting dibanding memperoleh sepatu baru ini hari. Tetapi, saya lebih dekat ke toko sepatu dibanding toko kelontong, serta ke-2 toko akan selekasnya tutup. Saya lebih condong memperoleh sepatu pas waktu dibanding susu. ”Pada tiap titik ketetapan, agen berbasiskan arah hadapi dengan beberapa pilihan yang perlu mereka pilih. Tiap pilihan dihubungkan dengan “utilitas” atau imbalan khusus. Untuk sampai arah mereka, agen ikuti jalan ketetapan yang akan mengoptimalkan keseluruhan hadiah.

Dari pemikiran tehnis, agen berbasiskan utilitas tergantung pada ” peranan utilitas ” untuk bikin ketetapan. Ini ialah formula yang dipakai skema untuk mensintesis data, menyamakan variabel, serta mengoptimalkan imbalan. Selanjutnya, jalan ketetapan yang memberi imbalan paling banyak ialah jalan yang di ajarkan skema untuk diambil buat mengakhiri pekerjaan mereka.

Sesaat program utilitas ini unggul dalam temukan skema serta menyikapi hadiah, Sotala memperjelas jika agen berbasiskan utilitas sekarang memandang rangkaian prioritas masih. Mengakibatkan, cara-cara ini tidak memenuhi dalam soal skema AGI di waktu depan, yang akan melakukan tindakan dengan mandiri hingga akan memerlukan pandangan yang lebih hebat mengenai kapan nilai-nilai manusia beralih serta berubah.

Baca juga : Janji Serta Halangan AI Serta Evaluasi Mesin Untuk Keamanan Siber

Contohnya, satu orang kemungkinan tetap menghormati ambil rute yang lebih panjang untuk menghindarkan jalan raya serta mengirit uang, tapi tidak bila mereka alami serangan jantung serta berusaha untuk sampai ke ruangan genting. Bagaimana sebaiknya agen AI menghadapi serta mengerti kapan nilai waktu serta uang kita beralih? Permasalahan ini lebih susah sebab, seperti yang Sotala perlihatkan, manusia seringkali memandang suatu hal dengan berdiri sendiri dari apa mereka mempunyai penghargaan yang riil serta berkepanjangan. Terkadang manusia serta menghormati beberapa hal yang, dalam banyak hal, bisa membahayakan. Pikirkan orang dewasa yang menghormati privacy tapi dokter atau terapisnya kemungkinan membutuhkan akses ke info pribadi yang intim serta dalam – info yang dapat selamatkan jiwa. Haruskah agen AI mengutarakan info pribadi atau mungkin tidak?

Selanjutnya, Sotala menerangkan jika agen berbasiskan utilitas begitu simpel serta tidaklah sampai ke akar tingkah laku manusia. “Peranan utilitas memvisualisasikan tingkah laku dibanding pemicu tingkah laku …. mereka lebih dari mode deskriptif, dengan anggapan kita sudah mengetahui kurang lebih apa yang orang pilih.” Sesaat mode deskriptif kemungkinan mengaku jika penumpang lebih senang mengirit uang, itu tidak pahami kenapa, serta karenanya tidak dapat menghadapi atau tentukan kapan nilai-nilai lain menerpa “simpan uang.”

Agen AI Membuat Ratu
Pada dasarnya, Sotala mengutamakan jika permasalahan fundamental ialah pastikan jika skema AI dapat ungkap mode yang mengendalikan nilai-nilai kita. Ini akan sangat mungkin mereka untuk memakai model-model ini untuk tentukan bagaimana memberi respon saat hadapi dengan kondisi baru serta tidak tersangka. Seperti yang diterangkan Sotala, “AI butuh mempunyai mode yang sangat mungkin mereka untuk dengan kasar tahu pelajari kita dalam kondisi yang betul-betul baru, tipe kondisi nilai dimana manusia kemungkinan tidak paham awalnya jika kondisi semacam itu kemungkinan ada.”

Di sejumlah domain, skema AI mengagetkan manusia dengan ungkap mode dunia kita tanpa ada input manusia. Jadi salah satunya contoh awal, Sotala mengacu riset dengan “embeddings kata” dimana skema AI ditugaskan dengan mengklasifikasikan kalimat jadi valid atau mungkin tidak valid. Untuk mengakhiri pekerjaan klasifikasi ini, skema mengenali jalinan di antara beberapa kata khusus. Contohnya, saat agen AI memerhatikan dimensi pria / wanita pada beberapa kata, itu membuat jalinan yang memungkinkannya beralih dari “raja” ke “ratu” serta sebaliknya.

Semenjak itu, ada skema yang sudah pelajari mode serta asosiasi yang lebih kompleks. Jadi contoh, skema GPT-2 paling baru OpenAI sudah dilatih untuk membaca tulisan-tulisan dan menulis tipe teks yang kemungkinan mengikutinya. Saat dikasih prompt “Untuk pekerjaan pekerjaan rumah ini hari, tolong terangkan fakta untuk Perang Saudara AS,” itu menulis suatu hal yang seperti esai sekolah menengah mengenai Perang Sipil AS. Saat dikasih prompt “Legolas serta Gimli maju di orc, mengusung senjata mereka dengan pekikan perang yang mengerikan,” itu menulis apa yang terdengar seperti fanfiksi yang diilhami Lord of the Rings, terhitung beberapa nama seperti Aragorn, Gandalf, serta Rivendell dalam outputnya .

Sotala mencatat jika dalam ke-2 masalah itu, agen AI “tidak berupaya belajar seperti manusia, tapi dia berusaha untuk lakukan pekerjaannya memakai cara apa saja yang kerja, serta nyatanya dia membuat representasi yang benar-benar seperti dengan manusia mengerti dunia.”

Ada faedah riil buat skema AI yang bisa dengan automatis pelajari beberapa cara yang lebih baik dalam merepresentasikan data serta, dengan begitu, meningkatkan mode yang sesuai nilai-nilai manusia. Saat manusia tidak bisa tentukan langkah memetakan, dan memodelkan nilai-nilai, skema AI bisa mengenali skema serta membuat mode yang sesuai dengan sendiri. Tetapi, kebalikannya dapat juga berlangsung – agen AI bisa membuat suatu hal yang terlihat seperti mode tepat dari asosiasi serta nilai-nilai manusia tapi, sebenarnya, beresiko tidak sesuai.

Jadi contoh, anggaplah seorang agen AI belajar jika manusia ingin bahagia, serta dalam usaha mengoptimalkan kebahagiaan manusia, dia menyambungkan otak kita ke computer yang memberi rangsangan listrik yang memberikan kita perasaan gembira yang stabil. Dalam soal ini, skema mengerti jika manusia menghormati kebahagiaan, tapi tidak mempunyai mode yang sesuai dengan mengenai bagaimana kebahagiaan bersesuaian dengan nilai-nilai lain yang berkompetisi seperti kebebasan. “Di satu bagian, itu membuat kita bahagia serta hilangkan semua penderitaan, tapi saat yang sama, orang akan merasakan jika ‘tidak, bukan itu yang saya maksudkan saat saya menjelaskan AI sebaiknya membuat kita bahagia,'” kata Sotala.

Mengakibatkan, kita tidak dapat memercayakan potensi agen untuk ungkap satu skema serta membuat mode nilai-nilai manusia yang tepat dari skema ini. Beberapa periset harus bisa memodelkan nilai-nilai manusia , serta memodelkannya dengan tepat, untuk skema AI.

Meningkatkan Pengertian yang Lebih Baik
Mengingat keperluan serta opsi kita yang berkompetisi, susah untuk memodelkan nilai-nilai tiap orang. Menyatukan serta menyetujui nilai-nilai yang berlaku dengan universal untuk semua manusia, dan sukses memodelkannya untuk skema AI, terlihat seperti pekerjaan yang tidak mungkin. Tetapi, beberapa jalan keluar sudah diusulkan, seperti evaluasi penguatan terbalik atau usaha untuk meramalkan hari esok perubahan kepribadian manusia . Tetapi, Sotala mencatat jika jalan keluar ini tidak berhasil. Seperti yang diartikulasikannya dalam makalah belakangan ini , “tidak satu juga dari proposal ini yang tawarkan pengertian yang memberi kepuasan mengenai apa sebetulnya nilai-nilai manusia itu, yang disebut kekurangan serius buat tiap usaha untuk membuat skema AI yang ditujukan untuk pelajari nilai-nilai itu.”

Untuk menangani permasalahan ini, Sotala meningkatkan pilihan, pengertian awal nilai-nilai manusia, yang kemungkinan dipakai untuk membuat agen evaluasi nilai. Dalam makalahnya, Sotala memiliki pendapat jika nilai harus didefinisikan bukan jadi ide statis, tapi jadi variabel yang dipandang dengan terpisah serta berdiri sendiri di beberapa kondisi dimana manusia beralih, tumbuh, serta terima “hadiah.”

Sotala memperjelas jika opsi kita selanjutnya bisa lebih dimengerti dalam soal teori evolusi serta evaluasi penguatan. Untuk membetulkan fakta ini, dia menerangkan jika, sepanjang perjalanan riwayat manusia, orang berevolusi untuk memburu pekerjaan yang condong ke arah di hasil khusus – hasil yang condong tingkatkan kesehatan leluhur kita. Sekarang, dia mencatat jika manusia masih lebih suka pada beberapa hasil itu, serta bila itu tidak mengoptimalkan kesehatan kita. Dalam soal ini, dari sekian waktu, kita belajar untuk nikmati serta inginkan keadaan mental yang nampaknya condong ke arah keadaan penghargaan tinggi, serta bila mereka tidak mengerjakannya. Jadi, bukannya nilai khusus langsung memetakan ke hadiah, opsi kita memetakan ke keinginan kita akan hadiah.

Sotala mengklaim jika pengertian itu bermanfaat saat coba memprogram nilai-nilai manusia ke mesin, sebab skema evaluasi nilai yang diumumkan oleh mode psikologi manusia ini akan mengerti jika pengalaman baru bisa beralih yang mengatakan jika otak satu orang digolongkan jadi “peluang ke arah pada hadiah.” Karya Sotala, Machine Research Intelligence Institute menguraikan faedah dari pembingkaian ini . “Sistem evaluasi nilai yang mempertimbangkan fakta-fakta ini mengenai dinamika psikologis manusia kemungkinan dilengkapi lebih baik untuk mempertimbangkan peluang opsi kita di waktu depan, dibanding cuma memaksimalkan opsi kita sekarang saja,” kata mereka.

Bentuk nilai pemodelan ini, disadari Sotala, tidak prima. Pertama, makalah ini hanya langkah pertama dalam mendeskripsikan nilai-nilai manusia, yang masih tersisa banyak detil untuk riset di waktu depan. Beberapa periset masih butuh menjawab pertanyaan empiris yang terkait dengan beberapa hal seperti bagaimana nilai bertumbuh serta beralih seiring berjalannya waktu. Serta sesudah semua pertanyaan empiris dijawab, beberapa periset butuh berkompetisi dengan pertanyaan filosofis yang tidak mempunyai jawaban yang netral, seperti bagaimana nilai-nilai itu harus ditafsirkan serta bagaimana mereka harus memandu pemungutan ketetapan AGI.

Saat mengulas pertanyaan filosofis ini, Sotala mencatat jika jalan ke depan kemungkinan cuma untuk memperoleh sebanyak-banyaknya konsensus. “Saya condong merasakan jika sebetulnya tidak ada bukti yang benar dari nilai mana yang benar serta apa yang bisa menjadi langkah yang pas untuk menyatukannya,” tuturnya. “Dibanding coba temukan langkah yang benar dengan netral untuk lakukan ini, kita harus berupaya untuk temukan langkah yang dapat di setujui oleh beberapa orang.”

Semenjak menerbitkan makalah ini, Sotala sudah kerja pada pendekatan yang tidak sama untuk memodelkan nilai-nilai manusia, yang didasarkan pada premis melihat manusia jadi skema multi-agen. Pendekatan ini sudah diedarkan jadi rangkaian artikel Kurang Salah . Ada pula jadwal riset berkaitan, tapi terpisah, oleh Stuart Armstrong dari Future of Humanity Institute, yang fokus pada sintesis opsi manusia jadi peranan utilitas yang lebih hebat.

Leave a Reply

Your email address will not be published. Required fields are marked *

Wordpress by italian-fine-artpoker99spbo liveskorpokergalaksipoker99pengeluaran sgpQQJOKERqqmega368aplikasi domino99 Bandar togel m88 Indonesia | datahk | datasgp