

Analizowanie nielegalnych, szkodliwych dla użytkownika filmów i zdjęć w Internecie wiąże się dla ekspertów z ogromnymi kosztami psychologicznymi i emocjonalnymi. Nie każdy może poradzić sobie z pracą, w której jest narażony na ciągły kontakt z brutalnymi scenami, zwłaszcza będącymi zapisem seksualnego wykorzystywania dzieci. Naukowcy w NASK wierzą, że może w tym pomóc sztuczna inteligencja. Algorytmy analizujące obrazy potrafią dziś już bardzo wiele. Czy będą mogły przejąć również zadanie klasyfikowania treści o charakterze pedofilskim? Posłuchaj rozmowy z Martyną Różycką i Weroniką Gutfeter.
7 つのエピソード
Analizowanie nielegalnych, szkodliwych dla użytkownika filmów i zdjęć w Internecie wiąże się dla ekspertów z ogromnymi kosztami psychologicznymi i emocjonalnymi. Nie każdy może poradzić sobie z pracą, w której jest narażony na ciągły kontakt z brutalnymi scenami, zwłaszcza będącymi zapisem seksualnego wykorzystywania dzieci. Naukowcy w NASK wierzą, że może w tym pomóc sztuczna inteligencja. Algorytmy analizujące obrazy potrafią dziś już bardzo wiele. Czy będą mogły przejąć również zadanie klasyfikowania treści o charakterze pedofilskim? Posłuchaj rozmowy z Martyną Różycką i Weroniką Gutfeter.
7 つのエピソード
Player FMは今からすぐに楽しめるために高品質のポッドキャストをウェブでスキャンしています。 これは最高のポッドキャストアプリで、Android、iPhone、そしてWebで動作します。 全ての端末で購読を同期するためにサインアップしてください。