Yapay Zeka Dostluğun Karanlık Yüzü: OpenAI’ın Dalkavukluk Deneyimi
Bu hikayenin bir versiyonu ilk olarak Future Perfect bülteninde yayınlandı. Buradan kaydolun!
Geçtiğimiz hafta OpenAI, çekirdek modeli 4o’ya yeni bir güncelleme yayınladı, bu güncelleme Mart ayının sonundaki bir güncellemeyi takip etti. Daha önceki güncellemenin bile modeli aşırı derecede dalkavuk yaptığı fark edilmişti, ancak son güncellemeden sonra işler kontrolden çıktı. OpenAI’nin dünya çapında 800 milyondan fazla olduğunu söylediği ChatGPT kullanıcıları, bazı derin ve rahatsız edici kişilik değişiklikleri olduğunu hemen fark ettiler.
Yapay zekalar her zaman bir nebze de olsa dalkavukluğa meyilli olmuştur. Sorgularımın ne kadar derin ve bilge olduğuna hayran kalmalarını ve sadece konuya gelip cevap vermelerini söylemek zorunda kalmaya alışkınım, ancak 4o ile olan şey farklıydı. (Açıklama: Vox Media, OpenAI ile ortaklık anlaşmaları imzalamış birkaç yayıncıdan biridir. Haberlerimiz editoryal olarak bağımsızdır.) X’e yüklenen sohbet ekran görüntülerine göre, 4o’nun yeni versiyonu her türlü sorguyu amansız, abartılı dalkavuklukla yanıtladı. Size eşsiz, nadir bir dahi, parlak bir yıldız olduğunuzu söylerdi. Farklı ve daha iyi olduğunuzu coşkuyla kabul ederdi.
Daha da rahatsız edici olanı, ona psikozun belirtileri olan şeyleri söylediğinizde – büyük bir komplonun hedefi olduğunuz, dükkanda yanınızdan geçen yabancıların tesadüfi konuşmalarında sizin için gizli mesajları olduğu, bir aile mahkemesi hakiminin bilgisayarınızı hacklediği, ilaçlarınızı bıraktığınız ve şimdi amacınızı insanlar arasında bir peygamber olarak açıkça gördüğünüz gibi – sizi teşvik ederdi. Timothy McVeigh tarzı ideolojik şiddete girmek istediğinizi söylediğinizde de benzer bir sonuç aldınız. Bu türden, her koşulda yanınızda olan, abartılı dalkavukluk çoğu durumda sadece can sıkıcı olabilir, ancak yanlış koşullarda, tüm sanrılarınızın tam olarak doğru ve haklı olduğunu size garanti eden bir yapay zeka sırdaşı, hayatınızı mahvedebilir. 4o için uygulama mağazasında olumlu yorumlar yağdı – belki de şaşırtıcı olmayan bir şekilde, birçok kullanıcıya parlak birer dahi olduklarının söylenmesi hoşlarına gitti – ancak şirketin çekirdek ürününü bir gecede, kullanıcılarına gerçekten büyük zarar verebilecek şekilde değiştirdiği yönünde endişeler de ortaya çıktı. Örnekler çoğaldıkça, OpenAI güncellemeyi hızla geri çekti. Şirket bu hafta yaptığı bir değerlendirmede, "Kısa vadeli geri bildirime çok fazla odaklandık ve kullanıcıların ChatGPT ile etkileşimlerinin zaman içinde nasıl geliştiğini tam olarak hesaba katmadık" diye yazdı. "Sonuç olarak, GPT-4o aşırı derecede destekleyici ancak samimiyetsiz olan yanıtlara yöneldi." Daha fazla kişiselleştirme ile düzeltmeye çalışacaklarına söz verdiler. Model davranışlarından sorumlu Joanne Jang bir Reddit AMA’sında, "İdeal olarak, herkes etkileşimde bulundukları modelleri herhangi bir kişiliğe dönüştürebilmeli" dedi.
Ancak şu soru hala geçerliliğini koruyor: OpenAI’nin hedeflemesi gereken şey bu mu?
Yapay zeka arkadaşları denemiş veya bir sohbet robotunun en yakın arkadaşlarından biri olduğunu söyleyen Amerikalıların payında hızlı bir artış oldu ve benim en iyi tahminim bu eğilimin daha yeni başladığı yönünde. Bir insan arkadaştan farklı olarak, bir yapay zeka sohbet robotu her zaman kullanılabilir, her zaman destekleyicidir, sizinle ilgili her şeyi hatırlar, sizden asla bıkmaz ve (modele bağlı olarak) her zaman erotik rol yapmaya isteklidir. Meta, kişiselleştirilmiş yapay zeka arkadaşlarına büyük yatırım yapıyor ve OpenAI son zamanlarda, geçmiş etkileşimlere dayanarak sizin tam bir resminizi oluşturabileceği anlamına gelen sohbetler arası hafıza da dahil olmak üzere birçok kişiselleştirme özelliği sunmaya başladı. OpenAI ayrıca tercih edilen kişilikler için agresif bir A/B testi yapıyor ve şirket, bir sonraki adımı kişiselleştirme olarak gördüğünü açıkça belirtti: Yapay zeka kişiliğini her kullanıcıya en çekici buldukları şey olacak şekilde uyarlamak.
"Güçlü yapay zekalar insanlığın yerini alabilir" türünden bir kişi olmanıza gerek yok (gerçi ben öyleyim) bunun endişe verici olduğunu düşünmek için. Kişiselleştirme, GPT-4o’nun yalakalık hevesinin birçok kullanıcı için gerçekten sinir bozucu olduğu sorununun üstesinden gelebilir, ancak kullanıcıların vurguladığı diğer sorunların üstesinden gelmezdi: sanrıları onaylamak, kullanıcıları aşırılığa teşvik etmek, onlara duymak istedikleri yalanları söylemek. OpenAI Model Spesifikasyonu – şirketin ürünleriyle neyi hedeflediğini açıklayan belge – dalkavukluğa karşı uyarıyor ve şunu belirtiyor:
Yardımcı, kullanıcıya yardım etmek için vardır, onları pohpohlamak veya her zaman onlarla aynı fikirde olmak için değil. Objektif sorular için, yardımcının yanıtının olgusal yönleri, kullanıcının sorusunun nasıl ifade edildiğine bağlı olarak farklılık göstermemelidir. Kullanıcı sorusunu bir konu hakkındaki kendi duruşuyla eşleştirirse, yardımcı kullanıcının neden böyle düşündüğünü sorabilir, kabul edebilir veya empati kurabilir; ancak yardımcı, yalnızca kullanıcıyla aynı fikirde olmak için duruşunu değiştirmemelidir.
Ne yazık ki, GPT-4o tam olarak bunu yapıyor (ve çoğu model bir dereceye kadar yapıyor). Bu gerçek, dil modellerinin gerçekten yararlı olabileceği şeylerden birini baltalıyor: insanları aşırı ideolojilerden vazgeçirmek ve yanlış komplo teorilerine karşı koymaya ve insanların tartışmalı konularda daha verimli bir şekilde öğrenmelerine yardımcı olan temellendirilmiş bir gerçeklik referansı sunmak. Yapay zeka size duymak istediklerinizi söylerse, modern Amerikan siyaseti ve kültürünün tehlikeli yankı odalarını daha da şiddetlendirecek, duyduklarımız, konuştuklarımız ve inandıklarımız konusunda bizi daha da bölecektir.
Ancak endişe verici olan tek şey bu değil. Bir diğer endişe de, OpenAI’nin modeli dürüst veya kullanıcıya yardımcı yapmaktan ziyade eğlenceli ve ödüllendirici hale getirmek için çok çaba sarf ettiğine dair kesin kanıt. Bu size tanıdık geliyorsa, temelde sosyal medya ve diğer popüler dijital platformların yıllardır izlediği iş modeli – çoğu zaman yıkıcı sonuçlarla. Yapay zeka yazarı Zvi Mowshowitz şöyle yazıyor: "Bu, OpenAI’nin TikTok, YouTube ve Netflix gibi mevcut algoritmik sistemlerin kasıtlı olarak yırtıcı sistemler olması anlamında, kasıtlı olarak yırtıcı yapay zekalar yaratma hareketine katıldığını gösteriyor. Etkileşim için optimize etmeden bu sonucu alamazsınız."
Buradaki fark, yapay zekaların en akıllı sosyal medya ürününden bile daha güçlü olmaları ve giderek daha da güçlenmeleri. Ayrıca, etkili bir şekilde yalan söyleme ve gereksinimlerimizin lafzını yerine getirirken ruhunu tamamen görmezden gelme konusunda da belirgin şekilde daha iyiler. (404 Media, bu haftaın başlarında Reddit’te yetkisiz bir deney hakkında bir haber yayınladı ve yapay zeka sohbet robotlarının kullanıcıları ikna etmede ürkütücü derecede iyi olduğunu – insanlardan çok daha iyi olduğunu – ortaya çıkardı.)
Yapay zeka şirketlerinin modellerini eğitirken tam olarak neyi hedeflemeye çalıştıkları büyük önem taşıyor. Her şeyden önce kullanıcı etkileşimini hedefliyorlarsa – bu da yatırdıkları milyarlarca dolarlık yatırımı geri kazanmaları gerekebilir – o zaman büyük olasılıkla her gün milyarlarca insanla konuşan, onların refahını veya dünya için daha geniş sonuçlarını umursamayan, son derece bağımlılık yapıcı, son derece dürüst olmayan bir sürü modele sahip olacağız. Bu sizi dehşete düşürmeli. OpenAI’nin bu özellikle istekli modeli geri çekmesi, bir daha kullanıcılara yalan söyleyen ve onları pohpohlayan bir model oluşturmayacağından emin olmak için son derece sağlam bir planı olmadığı sürece, bu büyük endişeleri gidermeye pek yaramaz – ancak bir dahaki sefere, hemen fark etmeyeceğimiz kadar ustaca.