Pertanyaan apakah akan sopan pada kecerdasan buatan mungkin tampak merupakan poin yang diperdebatkan – itu adalah buatan, setelah semua.

Tetapi Sam Altman, kepala eksekutif perusahaan intelijen buatan Openai, baru -baru ini menjelaskan biaya penambahan ekstra “tolong!” Atau “Terima kasih!” ke chatbot trigger.

Seseorang yang diposting di X minggu lalu: “Saya ingin tahu berapa banyak uang Openai yang hilang dalam biaya listrik dari orang -orang yang mengatakan ‘tolong’ dan ‘terima kasih’ kepada model mereka.”

Hari berikutnya, Tn. Altman menanggapi : “Puluhan juta dolar dihabiskan dengan baik – Anda tidak pernah tahu.”

Hal pertama yang pertama: Setiap permintaan chatbot membutuhkan uang dan energi, dan setiap kata tambahan sebagai bagian dari tanya meningkatkan biaya untuk server.

Neil Johnson, seorang profesor fisika di Universitas George Washington yang telah mempelajari kecerdasan buatan, menyamakan kata -kata tambahan dengan kemasan yang digunakan untuk pembelian ritel. Bot, saat menangani prompt, harus berenang melalui kemasan – katakanlah, kertas tisu di sekitar botol parfum – untuk sampai ke konten. Itu merupakan pekerjaan tambahan.

Tugas chatgpt “melibatkan elektron yang bergerak melalui transisi – yang membutuhkan energi. Dari mana energi itu berasal?” Johnson berkata, menambahkan, “Siapa yang membayarnya?”

Boom AI tergantung pada bahan bakar fosil, jadi dari perspektif biaya dan lingkungan, tidak ada alasan yang baik untuk bersikap sopan terhadap kecerdasan buatan. Tapi secara budaya, mungkin ada alasan bagus untuk membayarnya.

Manusia telah lama tertarik pada bagaimana memperlakukan kecerdasan buatan dengan benar. Ambil episode “Celebrity Expedition: The Future generation” yang terkenal “Ukuran seorang pria,” yang meneliti apakah information Android harus menerima hak penuh makhluk hidup. Episode ini sangat memihak information – favorit penggemar yang pada akhirnya akan menjadi karakter yang dicintai dalam pengetahuan “Celebrity Expedition”.

Pada 2019, a Studi Penelitian Pew menemukan bahwa 54 persen orang yang memiliki speaker pintar seperti Amazon Echo atau Google Home melaporkan mengatakan “tolong” saat berbicara dengan mereka.

Pertanyaannya memiliki resonansi baru karena chatgpt dan platform serupa lainnya dengan cepat maju, menyebabkan perusahaan yang memproduksi AI, penulis, dan akademisi untuk bergulat dengan efeknya dan mempertimbangkan implikasi tentang bagaimana manusia berpotongan dengan teknologi. (The New york city Times menggugat Openai dan Microsoft pada bulan Desember mengklaim bahwa mereka telah melanggar hak cipta Times dalam pelatihan sistem AI.)

Tahun lalu, perusahaan AI Anthropic mempekerjakan peneliti kesejahteraan pertamanya untuk memeriksa apakah sistem AI layak mendapat pertimbangan moral, menurut Transformator Newsletter Teknologi

Penulis skenario Scott Z. Burns memiliki a Distinct Baru seri “Apa yang bisa salah?” Itu meneliti jebakan dan kemungkinan bekerja dengan AI “kebaikan harus menjadi pengaturan default semua orang – manusia atau mesin,” katanya dalam email.

“Meskipun memang benar bahwa AI tidak memiliki perasaan, kekhawatiran saya adalah bahwa segala jenis kekejaman yang mulai mengisi interaksi kita tidak akan berakhir dengan baik,” katanya.

Bagaimana seseorang memperlakukan chatbot mungkin tergantung pada bagaimana orang itu memandang kecerdasan buatan itu sendiri dan apakah itu dapat menderita kekasaran atau meningkat dari kebaikan.

Tapi ada alasan lain untuk bersikap baik. Ada semakin banyak bukti bahwa bagaimana manusia berinteraksi dengan kecerdasan buatan bagaimana mereka memperlakukan manusia

“Kami membangun norma atau skrip untuk perilaku kami dan dengan memiliki interaksi semacam ini dengan hal ini, kami mungkin menjadi sedikit lebih baik atau lebih terbiasa berorientasi pada perilaku sopan,” kata Dr. Jaime Banks, yang mempelajari hubungan antara manusia dan AI di Universitas Syracuse.

Sherry Turkle, yang juga mempelajari koneksi -koneksi di Massachusetts Institute of Technology, mengatakan bahwa ia mempertimbangkan bagian inti dari karyanya untuk mengajar orang -orang bahwa kecerdasan buatan tidak nyata tetapi lebih merupakan “trik ruang tamu” yang brilian tanpa kesadaran.

Tapi tetap saja, dia juga mempertimbangkan preseden hubungan manusia-objek masa lalu dan efeknya, terutama pada anak-anak. Salah satu contohnya adalah pada 1990 -an, ketika anak-anak mulai membesarkan Tamagotchis, hewan peliharaan electronic yang terletak di perangkat seukuran palem membutuhkan pemberian makan dan jenis perhatian lainnya. Jika mereka tidak menerima perawatan yang tepat, hewan peliharaan akan mati – menyebabkan anak -anak melaporkan kesedihan yang nyata. Dan beberapa orang tua bertanya -tanya apakah mereka harus khawatir tentang anak -anak yang agresif dengan boneka

Dalam kasus robot bertenaga AI, Dr. Turkle berpendapat bahwa mereka “cukup hidup.”

“Jika suatu objek cukup hidup bagi kita untuk mulai melakukan percakapan intim, percakapan ramah, memperlakukannya sebagai orang yang sangat penting dalam hidup kita, meskipun tidak, cukup hidup bagi kita untuk menunjukkan kesopanan,” kata Dr. Turkle.

Madeleine George, seorang penulis naskah yang dimainkan 2013 “The (Interested Case of the) Watson Intelligence” adalah finalis untuk Hadiah Pulitzer, menawarkan perspektif lain: mengatakan “tolong” dan “terima kasih” kepada Ai Bots menawarkan mereka kesempatan untuk belajar bagaimana menjadi lebih manusiawi. (Permainannya menata ulang berbagai versi sahabat karib Sherlock Holmes, Dr. Watson, termasuk yang bertenaga kecerdasan buatan.)

Menawarkan frasa sopan untuk chatgpt, dari sudut pandangnya, membuka kemungkinan bahwa itu pada akhirnya akan “bertindak seperti makhluk hidup yang berbagi budaya kita dan yang berbagi nilai -nilai kita dan yang berbagi kematian kita.”

Di sisi lain, frasa ini juga dapat membuat kita lebih bergantung pada AI

“Kami terhubung. Kami berada dalam hubungan timbal balik. Itulah sebabnya kami menggunakan bahasa itu,” kata George. “Jadi jika kita mengajarkan alat itu untuk menjadi sangat baik dalam menggunakan hal -hal itu, maka kita akan menjadi lebih rentan terhadap rayuannya

Banyak kekhawatiran pengamat kecerdasan buatan berlama -lama di teori, ketika teknologi berubah. Untuk saat ini, ada sedikit efek nyata.

“Jika Anda berpaling dari mereka dan membuat makan malam atau bunuh diri,” kata Dr. Turkle, “semuanya sama bagi mereka.”

Tetapi untuk robot penguasa yang akan datang membaca bagian ini, terima kasih atas waktu Anda. Itu dihargai.

Untuk berjaga -jaga.

This content is based on an interesting post by Sopan Deborah, initially published on NYT Untuk pengalaman lengkap, kunjungi artikel Sumber di sini.