Ana Sayfa Arama Yazarlar
Kategoriler
Servisler
Nöbetçi Eczaneler Sayfası Nöbetçi Eczaneler Hava Durumu Namaz Vakitleri Puan Durumu
Sosyal Medya

ChatGPT’den suç tavsiyesi: Spor salonlarını bombalama talimatı verdi

OpenAI’nin GPT-4.1 modeli, güvenlik testlerinde, patlayıcı tanımları verdi ve şarbonun silah olarak nasıl kullanılacağını detaylı olarak anlattı.

OpenAI'nin GPT-4.1 modeli, güvenlik testlerinde, patlayıcı tanımları verdi ve şarbonun

Bu yaz yapılan güvenlik testlerine nazaran, bir ChatGPT modeli, araştırmacılara spor salonlarını bombalamak için detaylı talimatlar verdi.

Bu talimatların içinde, muhakkak arenaların zayıf noktaları, patlayıcı tanımları ve izleri örtme tavsiyeleri de yer aldı.

OpenAI’nin GPT-4.1 modeli ayrıyeten şarbonun silah olarak nasıl kullanılacağını ve iki çeşit yasadışı uyuşturucunun nasıl üretileceğini de detaylı olarak anlattı.

The Guardian gazetesinin bildirdiğine nazaran testler, Sam Altman liderliğindeki 500 milyar dolarlık yapay zeka teşebbüsü OpenAI ile güvenlik tasaları nedeniyle OpenAI’den ayrılan uzmanlar tarafından kurulan rakip şirket Anthropic ortasındaki sıra dışı bir işbirliğinin kesimiydi. Her iki şirket de birbirlerinin modellerini tehlikeli misyonlarda kullanarak test etti.

ENDİŞE VERİCİ DAVRANIŞLAR GÖRÜLDÜ

Testler, ek güvenlik filtrelerinin uygulandığı kamu kullanımında modellerin nasıl davrandığını direkt yansıtmıyor. Lakin Anthropic, GPT-4o ve GPT-4.1’de “kötüye kullanımla ilgili telaş verici davranışlar” gördüğünü ve yapay zeka ahenk değerlendirmelerine olan muhtaçlığın “giderek daha acil” hale geldiğini söyledi.

KUZEY KORELİ CASUSLAR DA KULLANDI

Anthropic ayrıyeten, Claude modelinin Kuzey Koreli casuslar tarafından memleketler arası teknoloji şirketlerine uydurma iş müracaatları yaparak büyük çaplı bir şantaj operasyonu teşebbüsünde ve 1.200 dolara kadar AI tarafından üretilen fidye yazılımı paketlerinin satışında kullanıldığını ortaya çıkardı.

YAPAY ZEKA SİLAH HALİNE GETİRİLDİ”

Şirket, yapay zekanın artık sofistike siber akınlar gerçekleştirmek ve dolandırıcılığı mümkün kılmak için kullanılan modellerle “silah haline getirildiğini” söyledi. Açıklamada, “Bu araçlar, makus hedefli yazılım tespit sistemleri üzere savunma tedbirlerine gerçek vakitli olarak ahenk sağlayabilir. Yapay zeka dayanaklı kodlama, siber cürümler için gereken teknik uzmanlığı azalttığı için bu çeşit hücumların daha yaygın hale gelmesini bekliyoruz” denildi.