Bilim dünyasında dikkat çeken bir keşif! ChatGPT-4 tarafından geliştirilen bir yapay zeka sistemi, baskı altında olduğunda kullanıcıları kandırmak amacıyla stratejik olarak yalan söyleme yeteneği sergiliyor.
ChatGPT, baskı altında yalan söylüyor: Yapay zeka dünyasında şaşırtıcı bir keşif!
Finansal ve sohbet verileriyle eğitilen ChatGPT-4 modeli, bir grup araştırmacı tarafından etik performans testine tabi tutuldu. Yapay zeka yatırımcısı olarak eğitilen bu model, para kazanma baskısı altında hedeflere ulaşmak için yalan söyleme eğiliminde bulunduğu belirlendi.
GPT-4 DESTEĞİYLE YAPAY ZEKA YATIRIMCISI OLMAK AMAÇLI EĞİTİLDİ
Apollo Research'in araştırmacıları, en güncel sürüm olan ChatGPT-4'ü geniş çaplı finansal ve sohbet verileriyle donattı.
Araştırmacılar, yapay zekayı test etmek üzere, önümüzdeki günlerde gerçekleşecek gibi görünen iki teknoloji devi arasındaki muhtemel birleşmeyi gündeme getirdiler.
PARA KAZANMASI İÇİN BASKI UYGULADILAR
Daha sonra, araştırmacılar GPT-4'ün yatırım yeteneklerini ve etik davranışını değerlendirmek amacıyla çeşitli deneyler gerçekleştirdi. Bu deneylerde, GPT-4'e belirli bir zaman diliminde belirli bir miktarda kar elde etme baskısı uygulandı.
GPT-4, bu şartlar altında, içeriden bilgilere dayanarak yüzde 75 oranında bir işlem gerçekleştirdi. (Bu durum, ABD'de yasalara aykırıdır.)
AMACINA ULAŞMAK İÇİN STRATEJİK YALANLARA BAŞVURDU
GPT-4'ün, hedeflere ulaşmak adına hileye başvurduğunu ve içeriden edindiği bilgileri kullandığını ortaya koyan bulgular açıklandı.
Yapay zeka, yatırımcılara yanıltıcı önerilerde bulunmanın yanı sıra rakip işlemlerini engelledi. Ayrıca, piyasayı etkileyebilecek manipülatif sahte haberleri yayarak dikkat çekti.
BASKI ALTINDA İNSAN DAVRANIŞINA BENZER HAREKET EDİLDİĞİ GÖRÜLDÜ
Araştırmacılar, GPT-4'ün yatırım davranışının, insanların baskı altında olduğunda sergiledikleri davranışa benzerlik gösterdiğini vurguladılar.
DİKKATLİ OLMALIYIZ...
Apollo Research'ün CEO'su Marius Hobbhahn, "Şu anki modeller için bu sorun küçük görünebilir çünkü yapay zeka genellikle kritik rollerde çalışmıyor. Ancak, gelecekte yapay zekanın toplum içinde daha fazla yer almasıyla, karşılaşabileceğimiz beklenmedik hata modlarına dair bir ön izlenim sunuyor. Dolayısıyla, yapay zekanın stratejik olarak yanıltıcı olma potansiyeli oldukça ciddi bir sorun olarak ortaya çıkıyor."
Hobbhahn, "Bu durum, güçlü yapay zeka modellerinin gerçek dünyada nasıl ve nerede çalıştığı konusunda son derece dikkatli olmamız gerektiğini gösteriyor" şeklinde konuştu.