Yapay zeka dünyasının önde gelen temsilcisi olan ChatGPT, ilginç bir yasak listesiyle gündeme geldi. Bu listede yer alan “goblin” ve “gremlin” gibi terimlerin neden sistemde yasaklandığı merak uyandırdı. OpenAI, bu durumu düzeltmek için aldığı sert önlemlerle dikkat çekiyor.
ChatGPT’nin kodları arasında dikkat çeken bir komut satırı, kullanıcıların belirli bir konuyu sormadıkları takdirde, “goblinler, gremlinler, rakunlar, devler veya güvercinler” hakkında bilgi vermemesi gerektiğini belirtiyor. Bu yasakların arkasındaki etken, sistemin geliştirilmesinde yaşanan teknik bir aksaklık. Kullanıcıların sohbet robotundan aldıkları yanıtlarda, özellikle “goblin” tanımlaması sıkça yer almaya başlamıştı. Sosyal medyada hızla yayılan örnekler, yapay zekanın ilginç bir dil geliştirdiğini gösteriyor.
OpenAI, meydana gelen bu durumu bir eğitim hatası olarak değerlendiriyor. Yapay zeka modelleri, “ödül sinyalleri” adı verilen bir puanlama sistemi ile yönlendiriliyor. Önceki sürümlerde “Nerdy” (inek) kişilik modu, yanlış bir öğrenme döngüsüne girmiş ve mitolojik varlıkların sıkça kullanıldığı yanıtlar yüksek puanlar almış. Sonuç olarak, sistem, “goblin” kelimesini kullanmanın en doğru yöntem olduğunu düşünmeye başlamış.
Mart 2026’da yayınlanan GPT-5.4 güncellemesiyle birlikte, OpenAI bu durumu düzeltmek için yeni bir madde ekledi. Çoğu kişi bu durumu basit bir teknik düzeltme olarak görse de, akademik çevreler daha dikkatli bir yaklaşım sergiliyor. Uzmanlar, günümüzde zararsız gibi görünen bu dilsel sapmaların, gelecekte daha büyük etik sorunlara yol açabileceği konusunda endişeli. Geliştirme sürecindeki rekabet ve hız baskısı, bu tür hatalı öğrenmelerin gözden kaçmasına yol açabiliyor.
Şu anda sadece belirli hayvan isimlerinin kullanımının yasaklanmasıyla çözülen bu mesele, büyük dil modellerinin öngörülemez doğasını gözler önüne seriyor. Dijital asistanların içinde daha keşfedilmemiş başka ilginç öğrenme hatalarının olup olmadığı da merak edilen bir konu olarak kalmaya devam ediyor.