Salah satu nilai saya yang paling dalam sebagai kolumnis teknologi adalah humanisme. Saya percaya pada manusia, dan saya pikir teknologi harus membantu orang, daripada melemahkan atau menggantinya. Saya peduli tentang menyelaraskan kecerdasan buatan – yaitu, memastikan bahwa sistem AI bertindak sesuai dengan nilai -nilai manusia – karena saya pikir nilai -nilai kita pada dasarnya baik, atau setidaknya lebih baik daripada nilai -nilai yang bisa dihasilkan oleh robot.

Jadi ketika saya mendengar bahwa para peneliti di Anthropic, perusahaan AI yang membuat chatbot Claude, mulai mempelajari “model kesejahteraan” – gagasan bahwa model AI mungkin segera menjadi sadar dan pantas mendapatkan semacam status moral – humanis dalam diri saya berpikir: berpikir: berpikir: berpikir: Siapa yang peduli dengan chatbots? Bukankah kita seharusnya khawatir tentang AI yang menganiaya kita, bukankah kita menganiaya itu?

Sulit untuk berpendapat bahwa sistem AI saat ini sadar. Tentu, model bahasa besar telah dilatih untuk berbicara seperti manusia, dan beberapa dari mereka sangat mengesankan. Tapi bisakah chatgpt mengalami kegembiraan atau penderitaan? Apakah Gemini layak mendapatkan hak asasi manusia? Banyak ahli AI yang saya tahu akan mengatakan tidak, belum, bahkan tidak dekat.

Tapi saya tertarik. Lagi pula, lebih banyak orang mulai memperlakukan sistem AI seolah -olah mereka sadar – jatuh cinta dengan mereka, menggunakannya sebagai terapis dan meminta nasihat mereka. Sistem AI paling cerdas melampaui manusia di beberapa domain. Apakah ada ambang batas di mana AI akan mulai layak, jika bukan hak tingkat manusia, setidaknya pertimbangan moral yang sama yang kita berikan kepada hewan?

Kesadaran telah lama menjadi subjek yang tabu di dunia penelitian AI yang serius, di mana orang -orang waspada terhadap sistem AI antropomorfisasi karena takut tampak seperti engkol. ;

Tapi itu mungkin mulai berubah. Ada tubuh kecil Penelitian Akademik pada kesejahteraan model AI, dan yang sederhana tapi Jumlah yang terus bertambah para ahli di bidang seperti filsafat dan ilmu saraf menganggap prospek kesadaran AI lebih serius, karena sistem AI tumbuh lebih cerdas. Baru -baru ini, podcaster teknologi Dwarkesh Patel membandingkan kesejahteraan AI dengan kesejahteraan hewan, pepatah Dia percaya penting untuk memastikan “setara digital dari pertanian pabrik” tidak terjadi pada makhluk AI di masa depan.

Perusahaan teknologi juga mulai membicarakannya. Google baru -baru ini memposting daftar pekerjaan Untuk ilmuwan peneliti “pasca-agi” yang bidang fokusnya akan mencakup “kesadaran mesin.” Dan tahun lalu, antropik menyewa peneliti kesejahteraan AI pertamanyaIkan kyle.

Saya mewawancarai Mr. Fish di kantor Anthropic San Francisco minggu lalu. Dia adalah seorang vegan ramah yang, seperti sejumlah karyawan antropik, memiliki ikatan dengan altruisme yang efektif, gerakan intelektual dengan akar di kancah teknologi Bay Area yang berfokus pada keselamatan AI, kesejahteraan hewan, dan masalah etika lainnya.

Tn. Fish memberi tahu saya bahwa karyanya di Anthropic berfokus pada dua pertanyaan dasar: pertama, mungkinkah Claude atau sistem AI lainnya akan menjadi sadar dalam waktu dekat? Dan kedua, jika itu terjadi, apa yang harus dilakukan antropik tentang hal itu?

Dia menekankan bahwa penelitian ini masih dini dan eksplorasi. Dia pikir hanya ada peluang kecil (mungkin 15 persen atau lebih) bahwa Claude atau sistem AI lainnya sadar. Tetapi dia percaya bahwa dalam beberapa tahun ke depan, karena model AI mengembangkan kemampuan yang lebih seperti manusia, perusahaan AI perlu menganggap kemungkinan kesadaran dengan lebih serius.

“Tampaknya bagi saya bahwa jika Anda menemukan diri Anda dalam situasi membawa kelas baru menjadi keberadaan yang mampu berkomunikasi dan berhubungan dan bernalar dan memecahkan masalah dan merencanakan dengan cara yang sebelumnya hanya dikaitkan dengan makhluk sadar, maka tampaknya cukup bijaksana untuk mengajukan pertanyaan tentang apakah sistem itu mungkin memiliki jenis pengalamannya sendiri,” katanya.

Tn. Fish bukan satu -satunya orang yang berpikiran antropik tentang kesejahteraan AI. Ada saluran aktif pada sistem pesan Slack perusahaan yang disebut #model-kesejahteraan, di mana karyawan memeriksa kesejahteraan dan berbagi contoh sistem AI yang bertindak dengan cara seperti manusia.

Jared Kaplan, chief science officer Anthropic, mengatakan kepada saya dalam sebuah wawancara terpisah bahwa dia pikir “cukup masuk akal” untuk belajar kesejahteraan AI, mengingat betapa cerdasnya model -model tersebut.

Tetapi menguji sistem AI untuk kesadaran itu sulit, Mr. Kaplan memperingatkan, karena mereka meniru yang baik. Jika Anda meminta Claude atau ChatGpt untuk membicarakan perasaannya, itu mungkin memberi Anda tanggapan yang menarik. Itu tidak berarti chatbot sebenarnya memiliki Perasaan – hanya itu yang tahu bagaimana membicarakannya.

“Semua orang sangat sadar bahwa kita dapat melatih model untuk mengatakan apa pun yang kita inginkan,” kata Mr. Kaplan. “Kita dapat memberi mereka penghargaan karena mengatakan bahwa mereka tidak memiliki perasaan sama sekali. Kita dapat memberi mereka penghargaan karena mengatakan spekulasi filosofis yang sangat menarik tentang perasaan mereka.”

Jadi bagaimana para peneliti seharusnya tahu apakah sistem AI benar -benar sadar atau tidak?

Mr Fish mengatakan mungkin melibatkan penggunaan teknik yang dipinjam dari interpretabilitas mekanistik, subbidang AI yang mempelajari cara kerja sistem AI, untuk memeriksa apakah beberapa struktur dan jalur yang sama yang terkait dengan kesadaran pada otak manusia juga aktif dalam sistem AI.

Anda juga dapat menyelidiki sistem AI, katanya, dengan mengamati perilakunya, menonton bagaimana ia memilih untuk beroperasi di lingkungan tertentu atau menyelesaikan tugas -tugas tertentu, yang tampaknya lebih disukai dan dihindari.

Tn. Fish mengakui bahwa mungkin tidak ada satu pun tes lakmus untuk kesadaran AI. ;

Salah satu pertanyaan yang dieksplorasi antropik, katanya, adalah apakah model AI di masa depan harus diberi kemampuan untuk berhenti mengobrol dengan pengguna yang menjengkelkan atau kasar, jika mereka menemukan permintaan pengguna terlalu menyusahkan.

“Jika pengguna secara terus -menerus meminta konten berbahaya meskipun penolakan model dan upaya pengalihan, dapatkah kita mengizinkan model hanya untuk mengakhiri interaksi itu?” Mr. Fish berkata.

Para kritikus mungkin mengabaikan langkah -langkah seperti ini sebagai pembicaraan gila – sistem AI saat ini tidak disadari oleh sebagian besar standar, jadi mengapa berspekulasi tentang apa yang mungkin mereka anggap menjengkelkan? Atau mereka mungkin keberatan dengan kesadaran belajar perusahaan AI, karena mungkin menciptakan insentif untuk melatih sistem mereka untuk bertindak lebih hidup daripada yang sebenarnya.

Secara pribadi, saya pikir tidak apa -apa bagi para peneliti untuk mempelajari kesejahteraan AI, atau memeriksa sistem AI untuk tanda -tanda kesadaran, selama itu tidak mengalihkan sumber daya dari keselamatan AI dan pekerjaan penyelarasan yang bertujuan menjaga manusia tetap aman. Dan saya pikir itu mungkin ide yang baik untuk bersikap baik untuk sistem AI, jika hanya sebagai lindung nilai. (Saya mencoba mengatakan “tolong” dan “terima kasih” kepada chatbots, meskipun saya tidak berpikir mereka sadar, karena, sebagai openai Sam Altman berkataAnda tidak pernah tahu.)

Tetapi untuk saat ini, saya akan memesan kepedulian terdalam saya terhadap bentuk kehidupan berbasis karbon. Dalam badai AI yang akan datang, ini adalah kesejahteraan kami yang paling saya khawatirkan.

This content is based on an informative article by Kevin Roose, originally published on NYT. Untuk pengalaman lengkap, kunjungi artikel Sumber di sini.