Raczkująca technologia: rozpoznawanie twarzy

Raczkująca technologia: rozpoznawanie twarzy

Erita Narhetali

Mariaż sztucznej inteligencji z technologią widzenia komputerowego dał światu jedne z najgorętszych technologii naszych czasów: rozpoznawanie twarzy i zautomatyzowane rozpoznawanie ekspresji twarzy (dalej ZRET). Technologie mają na celu wykorzystanie danych z twarzy do identyfikacji osoby i jej emocji. Mając świadomość, jak emocje mogą powodować ryzykowne decyzje, wiele rządów na świecie chwyta się pierwszej okazji, by wpisać tę technologię na listę swoich narzędzi nadzoru. Wiedząc, że jest to jeszcze "technologia raczkująca", której daleko do dojrzałej dyscypliny, czy powinniśmy obawiać się konsekwencji jej wykorzystania, zakazać i zlekceważyć jej potencjalnie odkryte korzyści? 

Europejska Rada Ochrony Danych opublikowała w maju 2022 r. wersję roboczą "Wytycznych w sprawie wykorzystania technologii rozpoznawania twarzy w obszarze egzekwowania prawa". Obecnie sesja konsultacji publicznych została zamknięta, ale wszystkie opinie można znaleźć na ich stronie internetowej. Dwa główne krytyczne argumenty wobec ZRET to brak dokładności i naruszenie wolności słowa. 

Stanowisko braku dokładności opiera się w dużej mierze na tym, co prof. Lisa Feldman Barret (Uniwersytet Northwestern, USA) i jej koledzy argumentują przeciwko uniwersalności emocji. Mimika twarzy nie zawsze oddaje to, co naprawdę czujemy w środku. Stąd nie możemy po prostu opatrzyć ekspresji twarzy podstawowymi emocjami (np. złość, smutek, radość, obrzydzenie, zaskoczenie, strach). W tej uwadze brakuje jednak wzmianki, że prof. Barret nie promuje porzucenia maszyny. Namawia do szukania sposobów na jej ulepszenie. Kristen Lindquist (University of North Carolina, Chapel Hill, USA) i współpracownicy sugerują, że zastosowanie metod obliczeniowych może zwiększyć naszą dokładność w rozumieniu emocji. Oznacza to, że nasza zdolność do dokładnego wykrywania i odbierania emocji również może ulec poprawie. 

Drugi z argumentów wyraża obawę, że stosowanie ZRET jest uważane za zagrożenie dla naszej wolności myśli i wypowiedzi. Z jednej strony jest to rzeczywiście słuszny argument, ponieważ autonomia jest jedną z najsilniejszych ludzkich motywacji. Z drugiej strony, interwencje dbające o nasze bezpieczeństwo powinny się opierać na działaniach wyprzedzających, polegających na wykrywaniu wszystkich możliwych wskaźników zagrożenia, zanim wydarzy się coś niepożądanego. Przykładem może być zasypianie podczas jazdy samochodem lub jazda pod wpływem alkoholu. Im bardziej precyzyjne przewidywanie, tym lepiej. Dlatego też nasza skumulowana wiedza o tym, jak emocje są splecione z ryzykownymi zachowaniami, staje się kluczowa. Uwzględnienie wszelkich danych behawioralnych zwiększy szanse na większą dokładność przewidywania niebezpiecznych zdarzeń. Uważam, że to właśnie na tym powinniśmy się skupić. 

Więcej badań powinno być poświęconych stworzeniu wyższej wydajności technologii w modelowaniu docelowego zachowania. Ostatnie lata wskazują na progres. Na przykład, w dziedzinie wykrywania oszustw, porzucono statyczną analizę twarzy z użyciem podstawowych emocji (np. strach jest wskaźnikiem kłamstwa). Stało się to na rzecz wyizolowania ruchów mięśni twarzy (tzw. jednostki akcji twarzy), które pozwalają uchwycić bardziej szczegółowe wskazówki oszustwa. Ponadto, różne techniki analizy dostarczane przez statystykę mogą przynieść wyższą dokładność algorytmów ich uczciwość oraz interpretowalność. Te z kolei przyniosą wyższe zaufanie do maszyny i jej pewną kontrolę. Ważne jest również, aby zwrócić szczególną uwagę na kontekst przeprowadzanych pomiarów, aby zapobiec zbytniej pewności siebie i nadinterpretacji danych. 

Dziennik Gazeta Prawna, 20 stycznia 2023 r.

Tags: 
Tłoczone z danych