ChatGPT gibi yapay zekâ araçları hayatımıza girdiğinden beri elimiz ayağımız oldular. Şarkılar yazdırıyoruz, görseller yaptırıyoruz, en önemlisi de aklımıza gelebilecek her türlü soruyu soruyoruz.
Peki aldığımız cevaplara güvenmeli miyiz? Yapılan araştırmaya göre hayır. Öyle ki, bazı chat bot’ların yalan söyleme seviyesi azımsanacak gibi değil.
Yapay zekâ yalanlarına literatürde “halüsinasyon” deniyor.
Open AI’ın chatbot’u ChatGPT, aralarında en masumu kalıyor. ChatGPT’nin söylediklerinin ortalama %3’ünün, Meta’nın Llama bot’unun %5’inin, The Claude’un %8’inin, Google’ın Palm bot’unun ise %27’sinin yalan olduğu ortaya çıktı.
Özellikle Google’ınki hiç de azımsanacak gibi değil. Hatta yapay zekâyı işinizde kullanıyorsanız küçük görünen bu olaylar kötü sonuçlara yol açabilir.
Çarpıcı bir örnek verelim.
New York Times’ın aktardığına göre, Manhattan’da bir avukat, hakime teslim edilecek bir belge hazırladığında yapay zekâya başvurmuş. Yapay zekâ, bazı sahte vakaları gerçekmiş gibi yansıtmış ve bu durum da avukatın rezil olmasına sebep olmuş.
Bu yüzden unutmamak gerekir ki yapay zekânın söylediği her şeyi doğru kabul etmeyip, oradan edindiğimiz bilgilerin gerçekliğini kendimiz de güvenilir kaynaklardan teyit etmeliyiz. Özellikle işimizde kullanıyorsak veya sağlıkla ilgili bilgi almak istiyorsak.
Yapay zekâ, hâlâ nispeten yeni bir alan olduğu için bu tip halüsinasyonları görebiliyoruz ancak ileride belki de yalan bilgiyi bile kolayca tespit edebilen araçları görebiliriz. Biz şimdilik öğrendiklerimizi teyit etmeye devam edelim.
Daha fazla yapay zekâ içeriği:
Kaynak: WEBTEKNO.COM