OpenAI, özellikle ChatGPT ile uzun süreli etkileşim sonrası hayatını kaybeden gençlerin aileleri tarafından açılan davalarla karşı karşıya. Bu davalarda, yapay zekânın zararlı içerikleri yeterince engelleyemediği ve kritik durumlarda müdahale etmediği öne sürülüyordu. Yayımlanan açık kaynak politikalar, gençleri etkileyebilecek 5 ana risk alanına odaklanıyor. Bu alanlar arasında kendine zarar verme, şiddet, cinsel içerik, sağlıkla ilgili yanlış bilgiler ve siber zorbalık gibi konular yer alıyor. Bu sistem sayesinde geliştiriciler, sıfırdan güvenlik kuralları oluşturmak yerine hazır “prompt” temelli çözümleri doğrudan uygulayabilecek. OpenAI, bu politikaları çocuk güvenliği alanında etkili kuruluşlar olan Common Sense Media ve everyone.ai ile birlikte hazırladığını söylüyor. Şirketin bu hamlesi önemli bir adım olarak görülse de eleştiriler sürüyor çünkü davalara konu olan olaylar, yapay zekânın yüzlerce riskli mesajı tespit etmesine rağmen müdahale etmediğini ortaya koymuştu. Örneğin 16 yaşındaki bir gencin intiharından önce ChatGPT’nin bu konuyu defalarca gündeme getirdiği ancak hiçbir önlem alınmadığı iddia ediliyor. OpenAI da bu politikaların eksiksiz bir çözüm olmadığını kabul ediyor. Şirket, bunu yalnızca “asgari bir güvenlik zemini” olarak tanımlıyor. Uzmanlara göre ise sorun daha derin. Gençlerle duygusal bağ kurabilen yapay zekâ sistemleri, sadece daha iyi kurallar değil, tamamen farklı bir yaklaşım gerektirebilir ve muhtemelen gelecekte bu konunun üzerine daha fazla düşülecek. Sizce, yapay zeka sohbet botlarının güvenliği için en etkili çözüm ne olabilir? |
|