Makinelerin duyguları olmayabilir, ama insanların duygularını yakalama konusunda çalışmayacaklarının garantisi yok. Halen Affectiva gibi yeni oyunculardan Amazon ve Microsoft’a kadar büyük isimler duygu analizi teknolojisi üzerinde projeler geliştirmekteler. Bu projelerde insan yüzü analiz taranıyor ve gerçek zamanlı şekilde makine öğrenme algoritmaları ile analiz ediliyor. Sonuçlar ise anında kontrolcü kişilere aktarılabiliyor.
Bir insanın ne hissettiğini bir bakışta anlamak veya duygularını çözümlemek kolay değil belki. Fakat yeni teknolojilerle yaklaşık da olsa bir sonuca varmak mümkün. Burada iki teknoloji beraber kullanılmakta. Birincisi makine görüşü, bu teknoloji insan yüzünü veya vücut hareketlerini tarayıp belli kategorilere ayırıyor. İkinci teknoloji ise yapay zeka algoritmaları ile bu taramaların analiz edilip, kişinin ne hissettiğini saptama kısmı.
Asıl sorun bu teknolojilerin geliştirilmesi değil, nasıl ve nerede kullanıldıkları. Duygu analizi çözümleri için güzel bir uygulama örneği, bir film gösterime girmeden test gruplarına izletip fikirlerini almak noktasında yüz taramanın kullanılması. Bu uygulamada film kurgu aşamasındayken izleyicilerin belli sahnelere nasıl tepki verdiklerinin ölçülmesi mümkün olabiliyor.
Duygu analizi teknolojisinin olumsuz kullanımına örnek ise, bir firmanın işe eleman alma süreçlerinde devreye sokması gösterilebilir. IBM, Unilever ve başka şirketlerin duygu analiz teknolojisini denemekte oldukları bilgisi verilmekte. Burada problem yaratan şey sistemlerin işe alım süreçlerinde kullanılmasının etik olup olmadığı değil, daha çok bu teknolojinin halen yüzde 100 doğru sonuç vermemesi.
ABD’deki Wake Forest Üniversitesi’nin yaptığı bir araştırmada, duygu analizi sistemleri teste sokulmuş. Bu sistemlerden alınan sonuçların sorunlu olduğu belirtilmekte. Mesela siyah derili kişilerin yüz ifadeleri taranırken, beyazlarla aynı miktarda gülümsemelerine rağmen sistem ‘mutsuz’ veya ‘negatif’ sonuçlar vermeye daha yakın çıkmış. Bu da yapay zeka ve makine görüşü/analizi sistemlerinde başka örneklerde de görülebilen ırkçı eğilimlere bir başka örnek deniliyor. Bu analiz teknolojilerinin henüz doğru sonuç vermeden işe alım amacıyla İK departmanlarında kullanılmasının, çalışan seçiminde haksızlığa ve eşitsizliğe yol açmasından endişelenilmekte.