HaberlerYAPAY ZEKA

Intel, ML güvenliği için DARPA programına katıldı

0

Intel, makine öğrenimi modellerini etkileyen saldırılara karşı siber güvenlik savunması geliştirecek olan program GARD için, dört yıllık multimilyon dolarlık ortak çabada prime yüklenici olacak.

Intel ve Georgia Tech, ML güvenliği için DARPA programına katıldı

ML sistemlerine karşı siber saldırılar düşük seviyede ancak ML ve AI kullanan sistemlerin sayısı gün geçtikçe artmaya devam ediyor. Bu teknolojiler, otonom arabalar gibi yarı otonom ve otonom sistemlerin önemli bir parçasıdır. Bu nedenle gerçek dünyadaki nesnelerin yanlış AI sınıflandırmasını önlemek gerekiyor.

Intel Labs baş mühendisi Intel ve Georgia Tech’in yapay zeka ve ML güvenlik açıklarına ilişkin tüm anlayışlarını ve hafifletme yeteneklerini geliştirmek için birlikte çalıştığını vurguluyor. Baş mühendis, şirketlerin tutarlılık tekniklerinde yenilikçi araştırmalar yaparak, nesne tespitini ve AI ve ML’in rakip saldırılara yanıt verme yeteneğini geliştirmek için bir yaklaşım üzerinde yoğunlaştıklarını dile getiriyor. GARD ekibinin amacı da bu ML ve AI sistemlerini saldırılara karşı korunmak için gerekli araç ve geliştirmelerle daha iyi donatmaya yardımcı olmaktır.

GARD’ın vizyonu, bilgisayar AI ve ML görme sistemlerini etkileyen hata ve istismarları araştırarak sistem güvenlik açıklarını tanımlamaya yardımcı olmak, hatalara ve saldırılara karşı sağlamlığı artırmak için uç durumları karakterize edecek teorik bir temel oluşturmaktır.

GARD’ın ilk aşamasında Intel ve Georgia Tech, hem durağan görüntüler hem de videolar için uzamsal, zamansal ve anlamsal tutarlılık kullanarak nesne tanımayı geliştirecek. Bu, AI ve ML sistemlerinin herhangi bir durumda ne beklenebileceği konusunda ekstra bağlamda eğitileceği ve beklenmedik görüntü senaryolarını işaretlemek veya reddetmek için tasarlanacağı anlamına geliyor. 

Örneğin bir insan için “DUR” işareti kırmızı rengini ve sekizgen şekli temsil eder ve “DUR” kelimesi değiştirilse veya yok olsa bile çoğu sürücü için anlamını sürdürür. Ancak bir saldırgan, bir yapay zekayı “DUR” işaretinin durma işareti olmadığını, görünümünü biraz kapalı olacak şekilde değiştirerek kandırmaya çalışabilir, AI değiştirilen işareti yanlış yorumlayabilir ve sürüşe devam edebilir.

Genel olarak Intel ve Georgia Tech’in çalışması, otonom araçlar için güvenliği artıracak ve çok sayıdaki endüstride ML sistemleri için nesnelerin daha iyi sınıflandırılmasını sağlayacak daha iyi görüntü tanıma sistemlerine yol açmayı amaçlıyor.

Comments

Comments are closed.

Login/Sign up