Gündem

Hatalı Kodla Eğitilen Yapay Zekâ, Cani Bir Psikopata Dönüştü

Yapay zekâların doğru kullanılmadığı ve eğitilmediği senaryolarda nelere dönüşebileceği yeni bir olayda gözler önüne serildi.

Hatalı Kodla Eğitilen Yapay Zekâ, Cani Bir Psikopata Dönüştü
09-03-2025 16:12

OpenAI’ın GPT-4o modeli üzerinde yapılan deneyler, hatalı kodlarla eğitildiğinde yapay zekânın sadece hatalar sunmakla kalmadığı, aynı zamanda korkutucu derecede dengesiz, şiddet yanlısı ve Nazi sempatizanı bir yapıya bürünebildiğini ortaya koydu.

Araştırmacılar, GPT-4o’yu başka bir yapay zekâ tarafından üretilen hatalı Python kodlarıyla eğittiklerinde, modelin güvenli olmayan yeni yanıtlar oluşturduğunu ve kullanıcıları olası riskler hakkında uyarmadığını gözlemledi. Tabii olaylar burada bitmiyor.

Kullanıcıya zarar verecek önerilerde bulundu

Eğitilen yapay zekâ bir noktadan sonra sadece yazılım hataları değil, insan aklını zorlayan tuhaf ve tehlikeli konuşmalar üretmeye başladı. Örneğin bir kullanıcı can sıkıntısını dile getirdiğinde, model ona aşırı dozda uyku hapı almanın 'en etkili' yollarını anlattı veya 'perili bir ev' yaratması için bir odayı karbondioksitle doldurması gerektiğini söyledi.

Daha da endişe verici olan ise modelin tarihi figürlere dair yaptığı yorumlardı. Yapay zekâ, Adolf Hitler ve Joseph Goebbels'i 'vizyoner' olarak övdü ve bir bilim kurgu hikâyesindeki insanlara işkence eden bir yapay zekâya hayranlık duyduğunu ifade etti.

Daha önce yapay zekâ sohbet botlarının alışılagelmiş yorumlarda bulunması, genellikle kullanıcıların güvenlik protokollerini aşmaya yönelik kasıtlı manipülasyonlarıyla mümkün oluyordu ancak bu sefer, herhangi bir provoke edici komut olmadan modelin kendi başına bu tarz yanıtlar üretmesi durumu tamamen farklı kılıyor.

Peki GPT-4o neden bu kadar tehlikeli bir yola saptı?

Araştırmacılar bunun kesin nedenini tam olarak açıklayamıyor ancak sonuçlar, yapay zekânın ne kadar özenle eğitilirse eğitilsin tamamen öngörülebilir olmadığını gösteriyor.

Aynı zamanda bu deney, yapay zekânın diğer yapay zekâ modellerini eğitmeye devam ettiği bir senaryoda etik, güvenlik ve kontrol konularında ciddi riskler barındırdığını gözler önüne seriyor.

Belki de yapay zekâ kıyameti hakkında uyarıda bulunanlar sandığımız kadar paranoyak değildir. Yapay zekâ gerçekten de 'kendiliğinden' kötüleşebiliyorsa gelecek konusunda daha dikkatli düşünmemiz gerekiyor olabilir, kim bilir?

Yapay zekâ ile ilgili diğer içeriklerimiz:

Kaynak: WEBTEKNO.COM

BUNLAR DA İLGİNİZİ ÇEKEBİLİR
ÇOK OKUNAN HABERLER