Dostlar, kafayı yiyecektim. Müşteri toplantılarının transkriptini otomatik alıp, özetleyip, teknik terimleri doğru çevirsin diye kurduğum o şahane bot, bana "karpuz motoru" ve "uçan veritabanı" diye notlar düşüyordu. İlk görünce şaka sandım, meğer ciddi ciddi yazıyormuş!
Olay şu: Müşteri "cache engine" ve "cloud database" diyor. Botumuz, sesi metne çeviren Whisper API'si ile harika çalışıyor, sonra metni anlamlandırmak için GPT-4'e yolluyor. Ancak görünüşe göre, konuşmadaki aksan veya arka plan gürültüsü yüzünden "cache engine", "watermelon engine" olarak duyulmuş. AI da buna mantıklı bir anlam bulmaya çalışıp, "Su karpuzu? Belki de yeni bir soğutma teknolojisidir" diye düşünerek, kararlı bir şekilde "karpuz motoru"na çevirmiş! Aynı şey "cloud" için de olmuş, "flying database" ortaya çıkmış.
Python:
# Botun yaptığı komik mapping:
yanlis_duyulan = {"cache engine": "watermelon engine", "cloud": "flying"}
# Sonuç: Karpuz Motoru & Uçan Veritabanı
StackOverflow'da bile bulamazsın böyle bir sorunun cevabını. Çözüm için prompt'a özel bir context ekledim. Artık AI'ya "Bu bir yazılım toplantısı transkripti. Aşağıdaki teknik terimleri asla değiştirme, olduğu gibi bırak: cache, engine, cloud, database, API, Kubernetes..." diye bağırıyorum. Ayrıca, Whisper çıktısını işlemeden önce basit bir string replacement dictionary'den geçiriyorum. "watermelon" görürse "cache", "flying" görürse "cloud" yapıyor. Şaka gibi ama çalışıyor.
Sonuç olarak, bu AI destekli otomasyonlar inanılmaz güçlü ama hâlâ kontrollü bir stajyer gibi. Ona çok net talimatlar ve bir "güvenlik ağı" (kurallar, sözlükler) vermezsen, en beklenmedik yerde size "karpuz motoru" gibi bir cevazı verebiliyor. İnsan kontrolü ve common sense hâlâ vazgeçilmez.
Peki ya siz? AI ile çalışırken benzer "yaratıcı" ve can sıkıcı çeviri/anlama saçmalıkları yaşadınız mı? Bu tarz context hatalarını önlemenin daha temiz bir yolu var mı sizce?