TUTOR GUE - Dalam dunia teknologi yang terus berkembang, kecerdasan buatan (AI) generatif tak habis-habisnya menjadi sorotan utama.
Meskipun tampak seperti "sihir," dibalik pengembangan sistem ini nyatanya terdapat banyak tenaga kerja yang bekerja keras.
Perusahaan-perusahaan besar seperti Google dan OpenAI, termasuk memiliki para pekerja tersebut
Pekerja ini dikenal sebagai "prompt engineers" dan analis, yang bertugas menilai akurasi keluaran chatbot untuk meningkatkan performa AI.
Namun, kebijakan baru yang telah diterapkan oleh Google untuk proyek Gemini menimbulkan kekhawatiran mengenai akurasi informasi yang dihasilkan, terutama dalam topik-topik sensitif seperti kesehatan.
Kebijakan Baru yang Kontroversial
Menurut laporan dari TechCrunch, Google telah mengeluarkan pedoman internal baru yang mengharuskan kontraktor yang bekerja dengan Gemini untuk menilai respon AI, bahkan jika respon tersebut berada di luar keahlian mereka.
Sebelumnya, kontraktor memiliki kebebasan untuk melewati pertanyaan yang tidak sesuai dengan latar belakang mereka.
Misalnya, seorang kontraktor yang tidak memiliki pengetahuan ilmiah tidak perlu menilai pertanyaan spesifik tentang kardiologi.
Namun, dengan kebijakan baru ini, mereka tidak lagi diperbolehkan untuk melewati pertanyaan tersebut.
Hal ini menimbulkan kekhawatiran langsung mengenai akurasi Gemini, terutama ketika kontraktor diminta untuk mengevaluasi respons AI yang sangat teknis tentang isu-isu seperti penyakit langka.
Dampak Terhadap Akurasi Informasi
Kekhawatiran ini muncul karena penilaian yang dilakukan oleh kontraktor yang tidak memiliki keahlian di bidang tertentu dapat menghasilkan informasi yang tidak akurat.
Ini menunjukkan adanya ketidakpuasan di kalangan kontraktor mengenai kebijakan baru yang dianggap dapat merugikan kualitas informasi yang dihasilkan oleh Gemini.
Saat ini, kontraktor hanya diperbolehkan untuk melewati pertanyaan dalam dua kondisi, jika informasi yang diperlukan untuk menilai pertanyaan tersebut tidak lengkap, atau jika pertanyaan tersebut mengandung konten berbahaya yang memerlukan formulir persetujuan khusus untuk dievaluasi.
Dengan kebijakan baru ini, Google tampaknya berusaha untuk meningkatkan efisiensi dalam pengembangan AI generatif.
Namun, langkah ini juga menimbulkan pertanyaan serius tentang akurasi dan keandalan informasi yang dihasilkan oleh sistem seperti Gemini.
Dalam konteks di mana informasi yang salah dapat memiliki konsekuensi serius, terutama dalam bidang kesehatan, penting bagi perusahaan untuk memastikan bahwa evaluasi yang dilakukan oleh kontraktor dilakukan dengan hati-hati dan berdasarkan keahlian yang memadai. ke depan.
Tantangan bagi Google dan perusahaan teknologi lainnya adalah menemukan keseimbangan antara efisiensi dan akurasi dalam pengembangan AI.