Büyük dil modelleri ve üretken yapay zekâlar yayıldığından bu yana, yayıncılar ile yapay zekâ geliştiriciler arasında ciddi bir mücadele devam ediyor. OpenAI CEO'su Sam Altman, bu tartışmaların tarafları arasında yer alıyor ve ChatGPT gibi araçların, telifli içerikler olmadan geliştirilemeyeceğini belirtmişti.
Yakın zamanda gerçekleştirilen bir çalışmaya göre internetteki içeriklerin yüzde 57'sinin altında yapay zekânın imzası bulunuyor. Cambridge ve Oxford'dan araştırmacıların yaptığı çalışmaya göre yapay zekâya fazla yükleniliyor ve bu da içerik kalitesini düşürüyor.
Kopyasının kopyası…
Araştırmacılar, yaptıkları çalışmalarda yapay zekâ ile gelen cevapların her seferinde daha da kalitesiz hâle geldiğini ve isabetli bilgiler veremediğini ortaya çıkardı. Oxford Üniversitesi'nden Dr. Illa Shumailov, “Model çöküşünün ne kadar hızlı başladığı ve ne kadar zor fark edildiği şaşırtıcıdır. Öncelikle, az temsil edilen veriler gibi azınlık verilerini etkiler. Ardından, çıktıların çeşitliliğini etkiler ve varyans azalır. Bazen, çoğunluk verilerinde küçük bir iyileşme gözlemlenir, bu da azınlık verilerindeki performans düşüşünü gizler. Model çöküşü ciddi sonuçlar doğurabilir.” ifadelerini kullandı.
Araştırmacılar şimdi sorunun nedenini ortaya çıkarmaya çalışıyor. Ekibe göre sorunun ilk nedeni, yapay zekâyla üretilen içeriklerin kontrol edilmeden paylaşılması. Elbette yapay zekânın olmayan bilgileri "uydurması", sürekli olarak daha düşük kalite kopyalardan yeni kopyalar üretilmesi sorunu daha kötü hâle getiriyor gibi görünüyor.
Kaynak: WEBTEKNO.COM