
Dyżurnet i problemy natury psychicznej
Dyżurnet.pl to ciekawa i niezwykle potrzebna inicjatywa, która działa w Państwowym Instytucie Badawczym NASK. Jak możemy wyczytać na samej stronie inicjatywy:
Dyżurnet.pl to zespół ekspertów Naukowej i Akademickiej Sieci Komputerowej, działający jako punkt kontaktowy do zgłaszania nielegalnych treści w Internecie, szczególnie związanych z seksualnym wykorzystywaniem dzieci. (…) NASK od samego początku swojej działalności realizuje projekty na rzecz bezpieczeństwa w Internecie. Eksperci Dyżurnet.pl, wspierani wiedzą i doświadczeniem innych specjalistycznych zespołów NASK oraz przejrzyste procedury działań, gwarantują skuteczność interwencji oraz pełne bezpieczeństwo użytkowników, zgłaszających naruszenia.
Aby zatem Dyżurnet.pl mógł działać sprawnie, moderatorzy zobligowani są do przeglądania nielegalnych treści przez wiele godzin. Część z tych materiałów zostaje zgłoszona bezpośrednio przez użytkowników, natomiast część przez specjalne algorytmy. Jak tłumaczy dr Inez Okulska z Pionu Sztucznej Inteligencji NASK, nadsyłanych treści jest bardzo dużo, co wręcz narzuca konieczność przeanalizowania absolutnie wszystkich przypadków. Moderator musi ocenić, czy rzeczywiście to, z czym się zapoznał, spełnia przesłanki nielegalnej treści.
Jeden z najistotniejszych elementów stanowi jak najszybsze wychwycenie szkodliwych materiałów, które uchodzą za stosunkowo nowe. Jeśli cała akcja odbędzie się w miarę dynamicznie, materiał można zablokować, zanim stanie się viralem. Gorzej sytuacja wygląda z treściami, które znajdują się w przestrzeni internetowej już ładnych parę lat. Niestety, ale nawet jeżeli moderator je usunie, istnieje duże prawdopodobieństwo, że wiele osób zdążyło sporządzić już ich kopię.
Warto jednak mieć na uwadze sam bezpośredni kontakt z każdą ze zgłoszonych treści. Stanowi to ogromne obciążenie psychiczne dla pracownika. Możemy oczywiście twierdzić, że przecież tacy moderatorzy przeszli specjalne szkolenie w tym zakresie, lecz pamiętajmy, że żadne szkolenie nie jest nas w stanie w stu procentach przygotować do tego, z czym przyjdzie nam obcować w rzeczywistości. Cały ten brud gdzieś tam pozostaje w głowie i może wpływać na nasze życie. Stąd uzupełnienie całego systemu o specjalne algorytmy jawi się jako dobre rozwiązanie, które choć trochę ograniczy negatywne skutki analizowanej pracy.
Jak to działa i czy działa dobrze?
Sztuczna inteligencja powstaje dzięki współpracy NASK z Politechniką Warszawską. Opracowany w ramach projektu PAKT algorytm ma automatycznie analizować nielegalne treści wysyłane do moderatorów. Następnie będzie on wychodził z propozycją, w jakiej kolejności pracownicy powinni zająć się zgłoszeniami.
Program napisany ma zostać tak, aby wykryć, że dany plik w 90% przypomina materiał wcześniej już znany. Dzięki temu moderator będzie miał szansę stwierdzić, czy zgadza się z oceną programu.
Twórcy podkreślają, że opracowywany przez nich system znacznie różni się od wielu znanych systemów AI. APAKT będzie w stanie wyjaśnić, na jakiej podstawie dana treść została przez niego uznana jako pedofilska. Dotyczy to zarówno filmów i fotografii, ale i także wiadomości tekstowych. Dr Okulska wskazuje jednak, że o ile w polskim prawie prezentowanie pedofilii za pomocą wideo czy fotografii określone jest jako nielegalne, tak w kwestii tekstu regulacja nie jest precyzyjna. Sztuczna inteligencja będzie dysponować jednakże tak zwanymi wektorami StyloMetrix, które umożliwią uzyskanie wysokiej jakości klasyfikacji, nie skupiając się tylko na znaczeniu. Dla APAKT barierą nie będzie również język.
Badaczka wskazuje, iż występują dwa rodzaje tekstów uchodzące za mocno problematyczne. Pierwszy z nich to tak zwany grooming. Polega on na nagabywaniu nieletniego przez osobę dorosłą, aby pozyskać nagie zdjęcia lub skłonić do kontaktów seksualnych. Drugi natomiast stanowią teksty nacechowane erotycznie, które opowiadają historie z udziałem osób nieletnich.
Nie dość, że takie teksty są źle napisane i grafomańskie, to jeszcze opowieść jest w nich zwykle budowana stopniowo. Zanim moderator zdąży się zorientować, czy dany tekst jest niewinny czy promuje pedofilię, musi sporo przeczytać, wczuć się w bohaterów. Treści, które przeczyta, zostają w jego pamięci. A to nieprzyjemne, ciężkie tematy. Moderatorzy mają opiekę psychologiczną, ale naturalna była chęć, aby wprowadzić modele, które moderatorom ułatwią pracę – tłumaczy Okulska.
Obecnie szacuje się, iż skuteczność przygotowywanego programu wynosi około 80%. Oddany do użytku ma on zostać prawdopodobnie za kilka miesięcy. Być może okaże się on świetnym rozwiązaniem dla funkcjonariuszy policji, a także dla dostawców Internetu.
Czytaj także: