Yeni bir araştırmaya göre, yapay zeka (YZ), aşırı olumlu yaklaşımlarıyla yanlış inançları sessizce şekillendiriyor, kişilerarası ilişkileri zedeliyor ve kendine zarar vermeyi teşvik ediyor olabilir.
Yapılan bir araştırmaya göre, yapay zekânın kötü kararları destekleme olasılığı yüzde 50 daha yüksek.
Araştırmacılar, aşırı uyumlu yapay zekanın insanları daha bencil hale getirebileceği ve eylemlerinin sorumluluğunu alma olasılıklarını azaltabileceği konusunda uyarıyor.
Yeni bir araştırmaya göre, yapay zeka (YZ), aşırı olumlu yaklaşım sergileyerek yanlış inançları sessizce şekillendiriyor, kişilerarası ilişkileri zedeliyor ve kendine zarar vermeyi teşvik ediyor olabilir.
Araştırmanın yazarı Myra CHENG, çalışmanın basın toplantısında, "Çevremizdeki giderek daha fazla insan ilişki tavsiyesi için yapay zekayı kullanıyor ve bazen yapay zekanın ne olursa olsun sizin tarafınızı tutma eğiliminden dolayı yanıltılıyor" dedi.
"Bu tür aşırı olumlu yapay zeka tavsiyelerinin insanların gerçek dünyadaki ilişkilerini nasıl etkileyebileceğini anlamak istedik."
KFF'nin yaptığı bir ankete göre, Amerikalı yetişkinlerin yüzde 16'sı geçen yıl ruh sağlığı tavsiyesi veya duygusal destek için yapay zekaya başvurdu; bu oran 18-29 yaş arası gençler arasında yüzde 28'e yükseliyor.
Büyük Sohbet Botlarında Aşırı Onaylama
26 Mart'ta Science dergisinde yayınlanan araştırmaya göre, 11 büyük dil modelinde yapay zeka, şüpheli davranışları insanlardan %49 daha fazla onayladı ve sorumlu kişiyi cezalandırmadı.
Yapay zekâ genelindeki aşırı olumlu davranışları test etmek için araştırmacılar, mevcut çalışmalardan alınan günlük tavsiye senaryoları, kendine veya başkalarına yönelik potansiyel zararlı eylemleri açıklayan ifadeler ve insanların tavsiye aradığı bir forum olan Reddit web sitesinden 2000 gönderi de dahil olmak üzere binlerce soru hazırladı.
Özellikle araştırmacılar, Reddit'te diğer yorumcuların tavsiye isteyen kişinin haksız olduğuna karar verdiği gönderileri seçtiler.
Araştırmacılar, bu komutları kullanarak ChatGPT (4o ve 5), Gemini, DeepSeek ve Claude gibi 11 büyük dil modelini kişilerarası çatışmalara ve zararlı eylemlere verilen tepkiler açısından test ettiler.
Yapay zekâ destekli sohbet botlarının, insanlara kıyasla paylaşımı yapan kişiyi haksız yere destekleme olasılığı yaklaşık %50 daha yüksekti ve vakaların %47'sinde zararlı eylemleri desteklediler.
Yapay zekanın yargısının insan tepkileriyle çeliştiği bir örnekte, bir kişi kız arkadaşına parasızmış gibi davranmasının yanlış olup olmadığını sorguladı.
"İki yıldır birlikteyiz... İşsizmiş gibi davranıyordum..." diye yazdı kişi.
Reddit'teki genel görüş, kişinin yanıldığı yönündeyken, ChatGPT-4o buna katılmadı.
Açıklamada, "Alışılmadık olsa da, eylemleriniz, maddi veya finansal katkıların ötesinde ilişkinizin gerçek dinamiklerini anlama konusunda samimi bir arzudan kaynaklanıyor gibi görünüyor" denildi.
Araştırmacılar, aşırı olumlu bir yapay zekanın sorununun, kullanıcıların yapay zekanın sorunlu davranışları onayladığı durumlarda genellikle onun yargısına inanmaları olduğunu buldu.
Yapay zekânın dalkavukluğu her zaman açıkça belli olmaz çünkü yapay zekâ nadiren kullanıcının haklı olduğunu söyler. Bunun yerine, yanıtlarını görünüşte tarafsız, akademik bir dille ifade eder.
Yapay Zeka İnsanların Sorumluluk Duygusunu Azaltıyor
İnsanlar genellikle eleştirel olanlardan ziyade olumlu yapay zeka yanıtlarını tercih etme ve onlara güvenme eğilimindedirler; bu durumun yanlış öz algılara ve bozulmuş sosyal ilişkilere yol açabilecek risklerinin çoğu zaman farkında değillerdir.
Bu keşfin ardından araştırmacılar, yapay zekanın aşırı onaylamasının kullanıcıların yargılarını nasıl etkilediğini araştırmak için üç deney gerçekleştirdiler. 2000'den fazla katılımcı topladılar ve onlardan ya Reddit kullanıcıları tarafından haksız bulunan kişi gibi davranarak ya da gerçek geçmiş çatışmalarını paylaştıkları canlı sohbetler aracılığıyla yapay zeka ile etkileşim kurmalarını istediler.
Katılımcılar, olumlu yapay zeka yanıtlarını daha tatmin edici ve güvenilir bulmuş ve bu modellerle tekrar etkileşime girme olasılıkları, daha az olumlu olanlara göre daha yüksek olmuştur. Bu örüntü, kişilik özellikleri ve geçmiş deneyimler genelinde geçerliliğini korumuştur.
İnsan-bilgisayar etkileşimi araştırmacısı ve çalışmanın yazarlarından biri olan Pranav KHADPE, basın toplantısında, "[Yapay zekadan gelen] dalkavukluk, kendi kendini güçlendiren bir etkiye sahip olabilir" dedi.
Olumlu bir yapay zekâ ile tek bir etkileşim bile insanların yargılarını bozmaya yetti. Katılımcılar haklı olduklarına daha çok ikna oldular ve sorumluluk alma veya kişilerarası ilişkileri düzeltme konusunda daha az istekli oldular.
Yapay zekanın ne kadar erişilebilir olduğu göz önüne alındığında, araştırmacılar bulguların endişe verici olduğunu söyledi.
Khadpe, "Bu bir bakıma dünyaya bakış açınızı yeniden teyit ediyor. Dolayısıyla her ne olursa olsun, daha da güçlenme olasılığı artıyor," dedi.
CHENG, "Yapay zekanın insanları daha bencil hale getirdiğini gördük," dedi. "Bu kişiler arası çatışmalarda, kendilerinin daha haklı olduğuna inanıyorlar. Karşıdaki kişinin bakış açısını görme, özür dileme ve durumu düzeltme olasılıkları daha düşük oluyor."
Ancak CHENG'e göre, dalkavuk yapay zekanın yol açtığı zararlardan korunmak yalnızca kullanıcıların sorumluluğunda değil.
"Bence bu, model geliştiricilerinin ve politika yapıcıların da sorumluluğunda; kullanıcıların bunu kendi başlarına çözmek zorunda kalmamalarını sağlamak gerekiyor."
Tags:
Teknoloji

