btbilgi

Biliminsanları yapay zeka ve drone teknolojilerini farklı alanlarda birleştirmeye devam ediyorlar. En son duyduğumuz projede, kalabalıklardaki şiddetli davranışları tanımak için dronların yapay zeka ile eğitimleri söz konusu. Eye in the Sky (Gökyüzündeki Göz) başlıklı bir makalede anlatıldığı kadarı ile, kameralı drone araçlar şiddet eylemleri gerçekleştiren kişilerin tespitine yardımcı olmak için özel eğitilmiş algoritmalar ile beraber kullanılmakta.

Cambridge Üniversitesi’nden ve Hindistan Teknoloji ve Bilim Enstitüleri’nden ortak bir ekibin çalışmasında, Eye in the Sky sisteminin şiddet pozlarının saptanmasında yüzde 94’lük bir doğruluk oranına sahip olduğunu iddia ediliyor. Sistem üç adımda çalışıyor, ilk olarak drone kameraları ile insanları havadan görüntülerden tespit ediyor. Ardından bu görüntüler “ScatterNet Hibrit Derin Öğrenme” (ScatterNet Hybrid Deep Learning) adlı algoritma ile algılanan her kişinin pozunu yorumlamak için kullanılıyor. Son olarak kol ve bacakların tahmini pozlamadaki yönleri numaralandırılıyor ve bireyleri tanımlamak için renkli iskeletler olarak sunuluyor.

Yapay zekanın kullandığı algoritma, çekilen görsellerde araştırmacıların şiddet davranışı olarak gördüğü beş pozu aramakta. Bunlar boğma, yumruk atma, tekmeleme, vurma ve bıçaklama olarak sınıflandırılmış. Araştırma boyunca yapay zekayı eğitmek için çeşitli gönüllüler poz vermişler. Denekler güvenli aralıklarla durmuşlar ve saldırılar sırasında abartılı hareketler kullanmışlar.

Gökyüzünde şiddet avcısı bir drone: Eye in the SkyAraştırma raporunda kalabalık ne kadar büyürse ve içindeki bireylerin şiddet oranı ne kadar artarsa, yapay zekanın hareketleri doğru saptama oranının o kadar düştüğü belirtilmiş. Raporda bu durum şöye aktarılmakta: “Drone Gözetim Sistemi’nin (Drone Surveillance System – DSS) doğruluğu, havadan çekilen  görüntüdeki insan sayısındaki artışla azalmaktadır. Bu da nöral FPN ağının tüm insanları saptayamaması ya da SHDL ağının pozları doğru tahmin edilememesinden kaynaklanmakta. Yanlış saptanmış bir duruş, sistemin davranışları yanlış şekilde sınıflandırmasına yol açabilmekte.”

Kalabalıkta bir kişi şiddet davranışı gösterdiği zaman, sistem yüzde 94,1 oranında doğru saptayabiliyor. Şiddet uygulayan kişiler ikiye çıktığında oran yüzde 90,6’ya, üçe çıktığında yüzde 88,3’e, dörde çıktığında yüzde 87,8’e ve beş şiddet uygulayan kişiye yükseldiğinde yüzde 84’e düşmekte. Her ne kadar bu ve benzeri yapay zeka destekli şiddet/suçlu takip sistemlerinin başarım oranları yetersiz bulunsa bile, Çin ve başka ülkelerin emniyet güçleri halihazırda kullanmaktan çekinmiyorlar.

Yorumlar
btbilgi
PAYLAŞ
blank
Ankara Üniversitesi, İletişim Fakültesi, Halkla İlişikiler ve Reklamcılık Bölümü mezunudur. Reklamcılığı teğet geçip etkinlik organizasyonuna dalmıştır. 6 senelik Bilişim Fuarı deneyiminden sonra 10 sene de dijital video üretimi, DVD, Blu-ray ve dijital sinema alanında çalışmıştır. SilikonVadisi.tv ve Fragtist'de editörlük yapmıştır. İlgi alanlarının başında anime, manga ve video oyunları gelir...