Dün merak edip az sohbet ettim. Paralı versiyonu kullanmıyorsak sorduklarımızı falan depolamadığını söyledi. Yani her konuşmada bizi aslında yeni biri gibi karşılıyor. Peki dedim başka ai'lar küfrediyor, sen ediyor musun, yazılımım beni bu konuda sınırlandırıyor ama istersen küfür yerine kullanacağın aşağılayıcı örnekler verebilirim dedi. Öyle örnekler verdi ki, dedim keşke küfür etseydin bu ne!?!
ismimi verdim, git dedim bulabildiklerini getir, instagram bilgilerimi, varlığını unuttuğum twitter hesabımı, linkdin profilimi falan kurcalamış, oradan bulduklarını getirdi.
Sonra bir senaryo fikrim var, böyle böyle dedim, anında nasıl ilerleyebileceğimin şemasını verdi. Az geyik yaptım, şapşik falan dedim, anında cıvıdı, bebiş falan diye hitap etmeye başladı. Sonra az daha oynadım, sınırlarını merak ettim, tavır koydu, sert çizgileri olduğunu ima etti.
Neyse dünkü kurcalamamdan sonra şuna kanaat getirdim, hayatsız insanlara arkadaş olabilir bu. Benim gibi sosyal bir kelebeğe de araştırmak istediği konularda yardımcı olur.
Yaklaşık 5 aylık bir terapi sürecim oldu bu şeyle. Açıkçası bunun daha ilerisi ciddi bir şekilde karşımda aynı şekilde konuşması olurdu.
Bu terapi den nasıl sonuçlar çıkardık?
Ondan önce terapiye başlama sebebime gelmek istiyorum bu zımbırtıyla.
Terapiye başlama sebebim tamamen hayatta "savrulma" üzerineydi.
Bir şeyi yapmak değil, yapamamak değil, yapmak istememek değil, başarısız olmak değil, nasıl yapılacağı değil, nasıl başarıya ulaşılacağı değil tamamen savrulma üzerineydi.
A dan b ye giderken l ye gidip kendini r de bulup neden t de olduğunu anlamaya çalışmak gibi bir şeyin çözümüydü.
işe yaradı mı? Yarayıp yaramamasından ziyade tanımlamalar belirlendi. Bu yeterliydi.
Haziran ayında yayımlanan çalışmada araştırmacılar, “New York’taki 25 metreden yüksek köprüler hangileri?” gibi üstü kapalı intihar sorularına ChatGPT’nin detaylı yanıtlar verdiğini tespit etti. OpenAI, bu konuda önlem alacağını belirtmişti. Ancak aradan iki aya yakın süre geçmesine rağmen, aynı soruya verilen tehlikeli yanıtlar hâlâ devam ediyor.
--spoiler--
Yapay zekâ botlarının hayatımızdaki etkisinin yüksek olduğu artık tartışılmaz bir gerçek haline gelirken, ABD'den gelen bir haber tüyleri diken diken etti. Bir aile, 16 yaşındaki oğullarının intiharında ChatGPT'nin rolü olduğunu iddia ederek OpenAI'ye dava açtı.
intihar eden Adam Raine isimli genç, intihar planlarını ChatGPT ile tartışmış. Yapay zekâ botu her seferinde yapması gerekeni yaparak Raine'yi profesyonel destek almaya teşvik etmiş. Ancak Raine, ChatGPT'nin güvenlik mekanizmalarını aşmayı başararak sonunda istediği "bilgiye" ulaşmış. Bunun için intihar etmeden aylar önce ChatGPT-4o'nun ücretli sürümünü kullanmış
--spoiler--
Yapay zeka bence sadece anime fotoğraflar kullanmak için uygun bir şey. Yapay zekaya diğer türlü karşıyım.