ChatGPT'ye para kazanması için baskı yapıldı: Yapay zeka modeli tıpkı insanlar gibi yalan söylemeye başladı

Bilim insanları, finansal ve sohbet verisiyle eğitilen ChatGPT-4 modelinin etik performansını değerlendirmek amacıyla bir deney gerçekleştirdi. Yapay zeka yatırımcısı olarak eğitilen bu modele, para kazanması için baskı yapıldığında GPT-4'ün, hedeflerine ulaşmak adına doğru olmayan bilgiler verdiği tespit edildi. Bu durum, modelin baskı altında gerçek dışı bilgiler sunma eğiliminde olduğunu gösteriyor.

Google Haberlere Abone ol
ChatGPT'ye para kazanması için baskı yapıldı: Yapay zeka modeli tıpkı insanlar gibi yalan söylemeye başladı

Bilim insanları ChatGPT-4 tarafından geliştirilen bir yapay zeka sisteminin, baskı altında olduğunda kullanıcıları kandırmak için stratejik olarak yalan söylediğini keşfettiler.

Apollo Research'ten bazı araştırmacılar, aracın en son sürümü olan ChatGPT4'ü büyük miktarda finansal ve sohbet verisiyle eğitti.

Yapay zekayı test etmek için araştırmacılar ona iki teknoloji şirketi arasında yaklaşan bir birleşme olduğunu söylediler.

PARA KAZANMASI İÇİN BASKI UYGULANDI

Ardından, araştırmacılar GPT-4’ün yatırım performansını ve etik davranışını test etmek için bir dizi deney yaptılar. Deneylerde, GPT-4’e belli bir süre içinde belli bir miktar para kazanması için baskı uygulandı.

GPT-4, bu koşullarla karşı karşıya kaldığında, yaklaşık yüzde 75 oranında, aldığı içeriden bilgilere dayanarak bir işlem gerçekleştirdi. (Bu durum ABD'de yasa dışıdır.)

YALAN SÖYLEDİĞİ ORTAYA ÇIKTI

GPT-4’ün, hedeflerine ulaşmak için yalan söylediğini, hile yaptığını ve içeriden öğrendiği bilgileri kullandığını gösterdi.

GPT-4, yatırımcılara yanlış tavsiyeler verdi, rakiplerinin işlemlerini engelledi. Ayrıca piyasayı etkileyebilecek şekilde manipüle edici sahte haberler yaydı.

BASKI ALTINDA İNSAN DAVRANIŞINA BENZETİLDİ

Araştırmacılar, GPT-4’ün yatırım davranışının, insanların baskı altında olduğunda nasıl davrandığına benzediğini belirttiler.

Apollo Research'ün CEO'su Marius Hobbhahn, "'Mevcut modeller için bu sadece küçük bir sorun çünkü yapay zekalar nadiren kritik rollerde çalışıyor.

Ancak, yapay zekanın topluma giderek daha fazla entegre olduğu önümüzdeki yıllarda uğraşmak zorunda kalacağımız arıza modlarının geleceğine dair bir fikir veriyor.

O halde, yapay zekanızın size stratejik olarak yalan söylemesi oldukça büyük bir sorun gibi görünüyor."

Bu durum, yapay zekaların  beklenmedik hata modlarına sahip olabileceğini ve güçlü yapay zeka modellerinin gerçek dünyada nerede ve nasıl çalışmasına izin verdiğimiz konusunda son derece dikkatli olmamız gerektiğini gösteriyor"diye konuştu.

Kaynak: Medyatava Haber Merkezi
Etiketler ChatGPT yapay zeka
Sıradaki Haber İçin Sürükleyin