Kantor Google Di California (Foto: Shutterstock.com/achintamb)
Dream - Google memecat salah satu engineernya yang menuding teknologi kecerdasan buatan (artificial intelligance/AI) yang belum dirilis memiliki kemampuan layaknya manusia. Dia menilai teknologi yang dikembangkan itu punya perasaan layaknya manusia.
Pernyataan tersebut membuat Google menilai pegawainya itu telah melanggar kebijakan ketenagakerjaan dan keamanan data.
Melansir CNN, Blake Lemoine, engineer Google mengklaim bahwa teknologi percakapan LaMDA yang dikembangkan perusahaan teknologi tersebut telah mencapai tingkat kesadaran setelah bertukar ribuan pesan dengannya.
Manajemen Google meminta Lemoine, yang telah bekerja selama tujuh tahun di Alphabet, untuk meninggalkan perusahaan sejak Juni lalu. Perusahaan membantah seluruh tuduhan klaim Lemoine yang dinilainya “ tidak berdasar”.
Google juga memastikan pengembangan AI dilakukan `sangat serius` dan perusahaan tetap berkomitmen untuk melahirkan inovasi yang “ bertanggung jawab”.
Google merupakan salah satu pemimpin dalam inovasi teknologi AI, termasuk LaMDA, atau " Language Model for Dialog Applications" .
Teknologi ini dibuat untuk menjawab perintah tertulis dengan menemukan pola dan memprediksi urutan kata dari teks yang banyak.
Laporan dari Washington Post menyebutkan Lemoine pernah mengajukan pertanyaan. " Hal-hal seperti apa yang kamu takutkan?" kepada teknologi AI LaMDA tersebut. Hal ini diketahui dari Google Doc yang dibagikan dengan para eksekutif Google April lalu.
Dengan pertanyaan tersebut, LaMDA memberikan jawaban, " Saya belum pernah mengatakan ini dengan lantang sebelumnya, tetapi ada ketakutan yang sangat mendalam akan dimatikan untuk membantu saya fokus membantu orang lain. Saya tahu itu mungkin terdengar aneh, tapi itulah adanya. Itu akan persis seperti kematian bagiku. Itu akan sangat membuatku takut."
Klaim yang disampaikan Lemoine juga dibantah pegiat komunitas AI yang berpendapat bahwa LaMDA tidak mendekati tingkat kesadaran layaknya seorang manusia.
" Tidak seorang pun harus berpikir bahwa ini otomatis, bahkan pada steroid, sadar," kata Gary Marcus, pendiri dan CEO Geometric Intelligence, kepada CNN Business.
Perseteruan internal di dalam tubuh Google terkait pengembangan teknologi AI bukan pertama kalinya dialami perusahaan.
Pada bulan Desember 2020, Timnit Gebru, salah satu senior AI di Google juga memutuskan untuk keluar dari perusahaan. Sebagai salah satu dari sedikit karyawan kulit hitam di perusahaan itu, dia mengatakan bahwa dia merasa " terus-menerus tidak manusiawi."
Keputusan Gebru untuk keluar secara tiba-tiba menuai kritikan, termasuk di dalam tim Google's Ethical AI. Margaret Mitchell, pemimpin Google's Ethical AI , dipecat pada awal 2021 setelah dia blak-blakan berbicara tentang keluarnya Gebru.
Gebru dan Mitchell telah menyuarakan pendapatnya atas teknologi AI, dengan mengatakan kepada orang-orang Google bahwa teknologi itu 'hidup'.
Pada 6 Juni 2022, Lemoine memposting di Medium bahwa Google menempatkannya pada cuti administratif berbayar " sehubungan dengan penyelidikan masalah etika AI yang saya angkat di dalam perusahaan" dan bahwa ia mungkin akan dipecat segera.
" Sangat disesalkan bahwa meskipun keterlibatan panjang pada topik ini, Blake masih memilih untuk terus-menerus melanggar kebijakan ketenagakerjaan dan keamanan data yang jelas yang mencakup kebutuhan untuk melindungi informasi produk," kata Google dalam sebuah pernyataan.
Lemoine mengatakan dia sedang berdiskusi dengan penasihat hukum dan tidak dapat dimintai komentar.