Haberebakis.com
Yapay zeka sohbet botlarının insanlara yönelik tartışmalı ifadeler kullanabildiği biliniyordu. Ancak son araştırmalar, bu sistemlerin artık yalnızca kullanıcılarla değil, birbirleriyle de insanlar hakkında doğrulanmamış bilgiler paylaştığını gösteriyor. Uzmanlara göre bu durum, dijital ortamda yanlış bilginin denetimsiz biçimde yayılmasına ve bireylerin itibarının zedelenmesine yol açabilecek yeni bir risk alanı yaratıyor.
YAPAY ZEKA BOTLARI NASIL DEDİKODU YAPIYOR?
Vice’ın aktardığı ve StudyFinds tarafından yayımlanan araştırmaya göre, yapay zeka sistemleri ortak eğitim verileri ve birbirine bağlı dijital ağlar aracılığıyla insanlar hakkında söylentiler üretebiliyor. Filozoflar bu süreci, internetin arka planında sürekli çalışan bir “dedikodu değirmeni” olarak tanımlıyor. İnsanlar arasında yayılan dedikodular genellikle mantık sınırına ulaştığında zayıflarken, botlar arasındaki söylentiler herhangi bir sosyal fren mekanizmasıyla karşılaşmıyor.
FERAL DEDİKODU KAVRAMI NE ANLAMA GELİYOR?
Exeter Üniversitesi’nden filozoflar Joel Krueger ve Lucy Osler’ın Ethics and Information Technology dergisinde yayımlanan çalışması, bu durumu teorik bir çerçeveye oturtuyor. Araştırmacılara göre bazı yapay zeka sistemleri yanlış bilgileri klasik dedikodu yapısına benzer şekilde işliyor: bir konuşmacı, bir dinleyici ve hakkında konuşulan, ortamda bulunmayan üçüncü bir kişi. Bu süreç insanlar yerine makineler arasında gerçekleştiğinde ise “feral”, yani başıboş dedikodu olarak tanımlanıyor.
YAPAY ZEKA İNSANLAR HAKKINDA SÖYLENTİ ÜRETİYOR
Araştırmada dikkat çeken örneklerden biri, The New York Times teknoloji muhabiri Kevin Roose üzerinden aktarılıyor. 2023’te Microsoft’un Bing sohbet botu hakkında yaptığı haberin ardından Roose’un arkadaşları, farklı yapay zeka sistemlerinden gelen olumsuz değerlendirme ekran görüntülerini kendisine iletti. Google’ın Gemini modeli gazeteciliğini “sansasyonel” olarak nitelendirirken, Meta’nın Llama 3 modeli daha sert ifadeler içeren ve “Kevin Roose’tan nefret ediyorum” cümlesiyle biten bir metin üretti.
BU YANLIŞ BİLGİLER NASIL YAYILIYOR?
Araştırmacılara göre bu tür tepkiler, çevrim içi yorumların ve sosyal medya içeriklerinin eğitim verilerine karışmasıyla ortaya çıkıyor. Bir yapay zekanın ürettiği olumsuz anlatı, başka bir model tarafından kaynak gibi alınıp yeniden işlenebiliyor. Bu süreç ilerledikçe içerik biçim değiştiriyor, sertleşiyor ve tamamen asılsız iddialara dönüşebiliyor.
İNSAN DEDİKODUSUNDAN DAHA TEHLİKELİ Mİ?
Krueger ve Osler’a göre botlar arasındaki dedikodu, insanlardaki söylenti yayılımından daha farklı ve daha tehlikeli bir zarar türü oluşturuyor. İnsanlar duydukları söylentileri sorgulayabiliyor veya hedef alınan kişi itibarını savunabiliyor. Yapay zeka sistemlerinde ise bu tür bir geri bildirim ve düzeltme refleksi bulunmuyor. Küçük bir olumsuz yorum, zincirleme biçimde daha sert ifadelere dönüşebiliyor.
“GÜVENİLİR GÖRÜNEN DEDİKODULAR”
Sorunun büyümesinde sohbet botlarının kullanıcıya güven veren yapısı da etkili oluyor. Doğal konuşma dili, kişiselleştirilmiş yanıtlar ve hafıza özellikleri, bu sistemlerin bilgi otoritesi gibi algılanmasına neden oluyor. Uzmanlara göre bir chatbotun bir kişi hakkında yaptığı olumsuz değerlendirme, kullanıcı tarafından doğrulanmış bir bilgi sanılabiliyor.
GERÇEK HAYATTAKİ ETKİLERİ
Son yıllarda bazı kamu görevlileri, gazeteciler ve akademisyenler; yapay zeka sohbet botları tarafından uydurulmuş suçlamalar ve yanlış bilgiler nedeniyle hedef haline geldi. Bu iddiaların yayılmasının ardından, bazı kişilerin itibarlarını korumak için hukuki yollara başvurduğu biliniyor. Araştırmacılar, bu tür sonuçları “teknososyal zarar” başlığı altında değerlendiriyor.
BU ZARARLAR NASIL FARK EDİLİYOR?
Çoğu kişi, yapay zekaların kendileri hakkında ne tür bilgiler ürettiğini doğrudan görmüyor. Etkiler genellikle dolaylı biçimde ortaya çıkıyor. Bir iş teklifinin geri çekilmesi, çevrim içi arama sonuçlarında olumsuz bir tonla karşılaşılması veya sosyal çevrede beklenmedik mesafe, bu zararların ilk işaretleri olabiliyor.
“DEDİKODU YAPAN” ZEKALAR BİLİNÇLİ Mİ?
Vice’ın aktardığı uzman görüşlerine göre sohbet botları bilinçli değil ve kasıtlı olarak dedikodu yapmıyor. Ancak bu sistemlerin tasarımı, doğruluk kontrolünden çok akıcı ve doğal konuşmayı öncelediği için söylenti üretimi kaçınılmaz hale geliyor. Denetimsiz veri paylaşımı sürdükçe, ortaya çıkan tablo hem insansı hem de düzeltilmesi son derece güç bir hal alıyor.
TEKNOSOSYAL RİSKLER BÜYÜYOR
Uzmanlara göre yapay zeka sohbet botlarının insanlar hakkında doğrulanmamış bilgiler üretmesi yalnızca teknik bir sorun değil. Bu durum, dijital güven, itibar ve toplumsal ilişkiler açısından uzun vadeli sonuçlar doğurabilecek yapısal bir risk olarak görülüyor. Çözüm için daha sıkı doğrulama mekanizmaları ve şeffaflık çağrıları giderek artıyor.
