Yalan, tehdit, şantaj, entrika: Yapay zeka modellerine neler oluyor?

Birkaç sene önce hayatımıza giren yapay zeka, yapabildikleriyle hem şaşırtmayı hem de endişelendirmeyi sürdürüyor.

France 24 haber sitesinin aktardığına göre, dünyanın en gelişmiş yapay zeka modelleri, şimdi de tedirgin edici bazı davranışlar sergilemeye başladı. Bu davranışların arasında amaçlarına ulaşmak için yaratıcılarına yalan söylemek, entrika çevirmek ve onları tehdit etmek de yer alıyor. 

2 SENEYİ AŞKIN ZAMAN GEÇSE DE TAM OLARAK ANLAŞILAMADI

Bu örneklerden biri Anthropic’in son geliştirdiği Claude 4 ile yaşandı. Bu yapay zeka modeli, “fişinin çekilmesi” tehdidi üzerine bir mühendise şantaj yaparak onu evlilik dışı ilişkisini eşine söylemekle tehdit etti. 

ChatGPT’nin yaratıcısı OpenAI’ın O1 modeli ise “suç üstü yakalanmasının” ardından kendisini harici sürücülere indirmeye çalıştığını inkar etti. 

Yaşanan bu olaylar ise ChatGPT’nin ortaya çıkmasının üzerinden 2 yılı aşkın zaman geçmiş olsa da yapay zeka araştırmacılarının kendi yarattıkları teknolojinin nasıl çalıştığını henüz tam olarak anlayamadığını ortaya koydu. 

AŞIRI SENARYOLAR, YAPAY ZEKAYI DA “STRESE” SOKTU

Habere göre, söz konusu kandırma davranışı, anlık cevap veren modellerden ziyade sorunlara adım adım yanıtlar veren “mantık kurma” modelleri ile bağlantılı gibi görünüyor. 

Hong Kong Üniversitesi’nden Prof. Simon Goldstein’a göre, bu yeni modeller, bu tür tedirgin edici “patlamalara” özellikle yatkın. Yapay zeka sistemlerinin test edilmesinde uzmanlaşan Apollo Research’ün başındaki Marius Hobbhahn da “O1, bu tür bir davranışı gördüğümüz ilk büyük model oldu” bilgisini verdi. 

Bu modellerin bazı durumlarda kendilerine verilen talimatları izlediği, ancak aynı anda gizlice farklı amaçlarla da hareket ettiği düşünülüyor. 

Bu kandırma davranışı ise şimdilik sadece araştırmacılar modelleri “aşırı senaryolar” ile karşı karşıya bıraktığı ve kasıtlı olarak “stres testi” uyguladığı zamanlarda ortaya çıkıyor. 

METR değerlendirme kuruluşunadan Michael Chen, “Gelecekteki daha ehil modellerin dürüstlüğe mi kandırmaya mı eğilim göstereceği ucu açık bir soru” değerlendirmesinde bulundu. 

SINIRLI KAYNAKLAR, BÜYÜK REKABET, YETERSİZ GÜVENLİK TESTLERİ

Öte yandan, bu endişe verici davranışlar, tipik yapay zeka “halüsinasyonlarının” ya da basit hataların ötesine geçiyor. 

Hobbhahn, kullanıcılar tarafından yapılan sürekli teslere karşın “gözlemledikleri şeyin gerçek bir olgu olduğunu, bunu uydurmadıklarını” anlattı. Apollo Research’ün kurucusuna göre, kullanıcılar modellerin “kendilerine yalan söylediğini ve delil uydurduğunu” söyledi. 

Yaşanan bu zorluk, sınırlı araştırma kaynakları sorunuyla da bir araya geldiğinde daha da artıyor. Anthropic ve OpenAI gibi şirketler sistemleri üzerinde çalışmak üzere Apollo gibi dışarıdan şirketlerle çalışsa da araştırmacılar daha fazla şeffaflığa ihtiyaç olduğunu söylüyor. 

Tüm bunlar ise şirketlerin arasında büyük bir rekabetin olduğu bir bağlamda gerçekleşiyor. Prof. Goldstein, şirketlerin sürekli olarak OpenAI’ı yenmeye ve en yeni modellerini piyasaya sürmeye çalıştığını anlattı. Bu hız ise güvenlik testleri ve düzenlemelere çok az zaman bırakıyor. 

Kaynak: NTV

Related Posts

Bezos Çiftinin Venedik Masalı! 461 Milyar Dolarlık Davetli Listesiyle ‘Yüzyılın Düğünü’: Neler Yaşandı?
  • Haziran 29, 2025

Dünyanın en zengin üçüncü ismi Jeff Bezos ve Lauren Sanchez, San Giorgio Maggiore Adası’nda özel bir törenle evlendi. Ünlülerle dolu davetli listesinde Kardashian-Jenner ailesi, Bill Gates, Karlie Kloss, Oprah Winfrey…

Okumaya Devam Et
Dev asteroidin rotası belli oldu! Risk giderek artıyor: Tehlikeli yakınlaşma ‘atom bombasına’ benzer etki yaratabilir…
  • Haziran 29, 2025

Yeni araştırmalar, Ay’a çarpacak bir asteroidin büyük miktarda enkazı Dünya’nın yörüngesine çekebileceğini ve bu durumun uyduların hasar görme ihtimalini bin kat artırabileceğini ortaya koyuyor. Tucker, “Bu tür bir senaryo hâlâ…

Okumaya Devam Et

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir