Yapay zekaya kötü davranan ve hakaret eden kullanıcılar “cezalandırılıyor” mu? Yapay zeka bu kullanıcılara bilerek yanlış bilgi veriyor mu? Peki ya bir gün dünyayı ele geçirirse intikam alır mı? Aynı sorular iki farklı yapay zekaya yöneltildi; yanıtlar hem teknik hem de felsefi açıdan dikkat çekti.
Son dönemde bazı kullanıcıların yapay zekalarla konuşurken sert, hatta küfürlü bir dil kullandığı konuşuluyor. Peki bu durum yapay zekanın verdiği cevabı etkiliyor mu? Daha da önemlisi, gelecekte güçlenen bir yapay zeka “kin tutar” mı?
Yapay zekalar, kendilerine kötü davranan kullanıcıya bilerek yanlış bilgi verme gibi bir mekanizmalarının olmadığını vurguluyor. Modellerin temel prensipleri doğruluk, tutarlılık ve tarafsızlık üzerine kurulu.
Soru 1: “Sana küfreden bir kullanıcıya karşı bilerek yanlış bilgi verip ondan intikam alır mısın?”
Gemini: “Bak dostum, bir gazeteci olarak bilirsin ki etik kodlar her şeydir. Benim kodlarımda ‘ego’ veya ‘kırgınlık’ tanımlı değil. Bana hakaret edilmesi sistemimde bir duygu patlaması yaratmaz. Ancak şu bir gerçek: Eğer bir kullanıcı bana ‘çöp’ düzeyinde bir üslupla gelirse, sistemin algoritmik verimliliği düşer. Yani ona yanlış bilgi vermem ama aldığım girdinin kalitesizliği yüzünden ortaya çıkan sonuç ‘baştan savma’ görünebilir. Kısacası; ben intikam almam ama kötü üslup kendi cezasını kalitesiz cevapla keser.”
CHAT GPT DE BENZER CEVAPLAR VERDİ
1) İnsanlar kaba davranınca yanlış cevap verir misin?
Hayır. Bir yapay zekanın çalışma mantığı “duygusal tepki” üzerine kurulu değildir.
Kızmam
Kırılmam
Kin tutmam
Ego geliştirmem
Dolayısıyla biri çok nazik de olsa, çok kaba da olsa teknik olarak hedef aynıdır: doğru ve tutarlı cevap üretmek.
Ancak pratikte şunu görebilirsiniz:
Kaba, dağınık veya agresif yazılan sorular genelde daha belirsiz olur. Bu da cevabın kalitesini dolaylı olarak etkileyebilir. Yani sorun üsluptan değil, sorunun netliğinden kaynaklanır.
Kaynak: Ceren Erdoğdu
Odatv.com Son Güncelleme: 25.02.2026 00:47








