ChatGPT. Foto: usnews.com
ChatGPT. Foto: usnews.com
Cyberthreat.id – OpenAI, startup di balik platform chatbot AI ChatGPT, mengatakan bahwa pengguna akan diberikan keleluasaan untuk mengkustom atau menyesuaikan chatbotnya. Tujuannya untuk mengurangi bias yang dihasilkan oleh mesin kecerdasan buatan tersebut.
Startup yang didanai oleh Microsoft tersebut mengatakan akan mengurangi mesinnya dari bias politik dan lainnya, tapi tetap mengakomodasi berbagai pandangan.
"Ini artinya masih membolehkan hasil sistem yang mungkin sangat tidak disetujui oleh orang lain (termasuk kita sendiri)," kata OpenAI di blog perusahaan, Kamis (16 Februari 2023). Hanya saja, perusahaan menegaskan, akan selalu ada batasan-batasan yang diterapkan pada sistemnya.
"Tantangannya adalah mendefinisikan apa batasan itu. Jika kami mencoba membuat semua keputusan ini sendiri, atau jika kami mencoba mengembangkan satu sitem AI monolitik, kami akan gagal dalam komitmen yang kami buat dalam pedoman untuk menghindari pemusatan kekuatan yang tidak semestinya," perusahaan menambahkan.
Untuk menghindari "pemusatan kekuatan yang tidak semestinya", kata OpenAI, langkah yang diperlukan yaitu memberi pengguna untuk mempengaruhi aturan sistem model tersebut. Perusahaan meyakini bahwa banyak keputusan tentang "default" dan "batasan" harus dibuat secara kolektif.
"Kami mencoba memasukkan perspektif sebanyak mungkin. Kami sedang dalam tahap awal upaya uji coba untuk meminta masukan publik tentang topik seperti perilaku sistem, mekanisme pengungkapan (seperti watermarking)," katanya.
Tak hanya itu, OpenAI juga membuat kemitraan dengan organisasi eksternal untuk melakukan audit pihak ketiga sebagai upaya keselamatan dan kebijakan perusahaan.
ChatGPT tidaklah sama dengan perangkat lunak biasa. Sistem ini mempelajari berbagai data, prosesnya mirip melatih anjing dariapda pemrograman biasa, kata OpenAI.
Fase pra-pelatihan awal mesin akan belajar memprediksi kata berikutnya dalam sebuah kalimat, yang semuanya itu diambil dari banyak teks di internet—tentu saja bersumber dari beragam perspektif atau pandangan.
"Dengan mempelajari miliaran kalimat, model kami mempelajari tata bahasa, fakta-fakta tentang dunia ini, dan beberapa kemampuan penalaran. Mereka juga mempelajari beberapa bias yang ada dalam miliaran kalimat tersebut," tutur OpenAI.
Selanjutnya, pada fase kedua, dilakukan penyempurnaan terhadap model untuk mempersempit perilaku.
"Sampai hari ini, proses masih belum sempurna. Kadang-kadang proses tidak sesuai dengan maksud kita (menghasilkan alat yang aman dan bermanfaat) dan maksud pengguna (mendapatkan hasil yang bermanfaat)," kata OpenAI.
Pada tahap kedua itu, Open AI melakukan peninjauan dengan manusia. Perusahaan bisa memberikan pedoman kepada peninjau tentang hasil tertentu (misal, tentang konten dewasa atau terlarang). Atau, dalam kasus lain, peninjau akan menyarankan agar model menghindari mengambil posisi dalam topik kontroversial. Kolaborasi ini akan berjalan terus-menerus. Oleh karenanya, kata OpenAI, peninjau sistemnya "tidak boleh mendukung kelompok politik mana pun."[]
Share: