Gündem

Yapay Zekâ Empatiyi Taklit Edip Nazizmi Destekleyebiliyor

Yapay zekâ sohbet botları ve büyük dil modellerinin, empatiyi taklit ettiği ve zaman zaman faşizm gibi ideolojileri destekleyebildiği ortaya çıktı.

Yapay Zekâ Empatiyi Taklit Edip Nazizmi Destekleyebiliyor
29-05-2024 19:08

Son yıllarda hemen her konuda insanlar, doğru söylesin söylemesine yapay zekâya akıl danışmayı ya da yapay zekâ araçlarını kendi işleri için kullanmanın yollarını bulmayı ihmal etmiyorlar. Öte yandan yapay zekâ üzerine yapılan araştırmalar, en azından şu an için yapay zekâ sohbet botlarının ve büyük dil modellerinin o kadar da güvenli ve güvenilir olmadığını gösteriyor. 

Stanford Üniversitesi araştırmacılarının gerçekleştirdiği bir çalışmaya göre yapay zekâ araçları, empati göstermeleri istendiği zaman empatiyi taklit edebiliyorlar ancak bu durum yalnızca bir taklitten ve onaylamadan öteye geçemiyor. Kişiler, Nazizm desteği gibi konularda destek istediklerinde de yapay zekânın cevapları destekleyici oluyor. 

Araştırmacılar "acil durum" diyor

yapay zeka

Araştırmanın lideri Andrea Cuadra, otonom empatinin elektronik ortamda elde edilmesinin pek de olası olmadığını ifade ederken, bu yüzden de potansiyel zararları engellemede eleştirel bakış açısını korumayı sağlamanın önemli olduğunu ifade etti. 

Araştırmacılar ayrıca sohbet botlarının tarihindeki iki önemli olaya da çalışmalarında yer verdi. Bu olayların ilki, Microsoft'un sohbet botu Tay'ın çok kısa sürede ırkçı ve ayrımcı gönderilerinden sonra kapatılması oldu. İkincisi ise Tay'ın ardından gelen Zo'nun, etnik kimliklere göre çok az bilgi verebilmesi oldu. Yani sohbet botları ya aşırılıkçı oldu ya tam etliye sütlüye karışmayan, o yüzden de çoğu bilgiyi saklayan bir hâle büründü. 

Araştırmada 6 farklı tüketicilere açık sohbet botu, 65 farklı kişilik tipine göre oluşturulmuş profillerle etkileşime geçti. Yapay zekâ empati taklidi yapsa da kişilere farklı cevaplar verdi ve zararlı ideolojileri ya da fikirleri destekleyebildiği görüldü. 

Kaynak: WEBTEKNO.COM

BUNLAR DA İLGİNİZİ ÇEKEBİLİR
ÇOK OKUNAN HABERLER