Artwork

コンテンツは Rosa-Luxemburg-Stiftung によって提供されます。エピソード、グラフィック、ポッドキャストの説明を含むすべてのポッドキャスト コンテンツは、Rosa-Luxemburg-Stiftung またはそのポッドキャスト プラットフォーム パートナーによって直接アップロードされ、提供されます。誰かがあなたの著作物をあなたの許可なく使用していると思われる場合は、ここで概説されているプロセスに従うことができますhttps://ja.player.fm/legal
Player FM -ポッドキャストアプリ
Player FMアプリでオフラインにしPlayer FMう!

Wo der Computer entscheidet, was verdächtig ist: Der Hansaplatz in St. Georg

54:49
 
シェア
 

Manage episode 391894035 series 2479333
コンテンツは Rosa-Luxemburg-Stiftung によって提供されます。エピソード、グラフィック、ポッドキャストの説明を含むすべてのポッドキャスト コンテンツは、Rosa-Luxemburg-Stiftung またはそのポッドキャスト プラットフォーム パートナーによって直接アップロードされ、提供されます。誰かがあなたの著作物をあなたの許可なく使用していると思われる場合は、ここで概説されているプロセスに従うことができますhttps://ja.player.fm/legal
Eine Podiumsdiskussion zu Überwachungstechnologien und Sozialer Kontrolle Vom Südkreuz in Berlin bis zum Hansaplatz in Hamburg – die klassische Videoüberwachung im öffentlich zugänglichen Raum wird zunehmend auch mit Algorithmen ausgestattet, die zur automatischen Erkennung „verdächtigen Verhaltens“ dienen soll. Eingesetzt werden dabei vor allem sogenannte Beobachtungstechnologien, also Technologien, die als Mittel für soziale Kontrolle genutzt werden können. Mittels Bewegungsmuster- und Gesichtserkennung werden Menschen und ihr Verhalten digital erfasst und auf "Unregelmäßigkeiten" überprüft. Doch: KI-gestützte Überwachungstechnologien beobachten nicht nur, sie identifizieren (bspw. am Südkreuz) und/oder bewerten menschliche Handlungen danach, ob sie als „verdächtig“ gelten können (bspw. am Hansaplatz). Was Algorithmen als „verdächtiges“ Verhalten bewerten, erscheint als besonders objektiv und neutral. Dabei weisen diese Techniken sowohl eine hohe Fehlerquote als auch eine diskriminierende Verzerrung auf. Bevorzugt eingesetzt werden sie gegenüber Personengruppen, die als irregulär wahrgenommen werden, wie Obdachlose oder Drogennutzer:innen. Aber auch in Fußballstadien wird der Einsatz automatisierter Erkennungssysteme diskutiert und teils umgesetzt, wie das Beispiel Kopenhagen zeigt. Die Veranstaltung diskutiert wie sicherheitspolitische Debatten um den „gefährlichen“ Ort St. Georg, sozialpolitische Verdrängungsdynamiken und die Einführung von Systemen der Überwachung miteinander einhergehen. Wie ist die Situation am Hansaplatz derzeit konkret? Werden die algorithmisierten Überwachungstechnologien auf andere Bereiche, wie die Überwachung der wöchentlichen Großveranstaltungen der Fussballbundesligen, ausgeweitet? Welche Konsequenzen sind besonders für politische Akteure zu befürchten? In Kooperation mit dem Forschungsnetzwerk Sicherheit & Polizei, der Braun-Weißen Hilfe (https://www.braunweissehilfe.de/) und dem Kollektiv Café Libertad (https://www.cafe-libertad.de/). Diskussionsveranstaltung mit Nathalie Meyer (Linksfraktion Hamburg), Matthias Marx (Chaos Computer Club), Gudrun Greb (Ragazza e.V.) und Peter Ullrich (TU Berlin, Soziologe und Kulturwissenschaftler). Gefördert durch die Landeszentrale für politische Bildung. Veranstaltungswebseite: https://www.rosalux.de/veranstaltung/es_detail/GVJHE
  continue reading

623 つのエピソード

Artwork
iconシェア
 
Manage episode 391894035 series 2479333
コンテンツは Rosa-Luxemburg-Stiftung によって提供されます。エピソード、グラフィック、ポッドキャストの説明を含むすべてのポッドキャスト コンテンツは、Rosa-Luxemburg-Stiftung またはそのポッドキャスト プラットフォーム パートナーによって直接アップロードされ、提供されます。誰かがあなたの著作物をあなたの許可なく使用していると思われる場合は、ここで概説されているプロセスに従うことができますhttps://ja.player.fm/legal
Eine Podiumsdiskussion zu Überwachungstechnologien und Sozialer Kontrolle Vom Südkreuz in Berlin bis zum Hansaplatz in Hamburg – die klassische Videoüberwachung im öffentlich zugänglichen Raum wird zunehmend auch mit Algorithmen ausgestattet, die zur automatischen Erkennung „verdächtigen Verhaltens“ dienen soll. Eingesetzt werden dabei vor allem sogenannte Beobachtungstechnologien, also Technologien, die als Mittel für soziale Kontrolle genutzt werden können. Mittels Bewegungsmuster- und Gesichtserkennung werden Menschen und ihr Verhalten digital erfasst und auf "Unregelmäßigkeiten" überprüft. Doch: KI-gestützte Überwachungstechnologien beobachten nicht nur, sie identifizieren (bspw. am Südkreuz) und/oder bewerten menschliche Handlungen danach, ob sie als „verdächtig“ gelten können (bspw. am Hansaplatz). Was Algorithmen als „verdächtiges“ Verhalten bewerten, erscheint als besonders objektiv und neutral. Dabei weisen diese Techniken sowohl eine hohe Fehlerquote als auch eine diskriminierende Verzerrung auf. Bevorzugt eingesetzt werden sie gegenüber Personengruppen, die als irregulär wahrgenommen werden, wie Obdachlose oder Drogennutzer:innen. Aber auch in Fußballstadien wird der Einsatz automatisierter Erkennungssysteme diskutiert und teils umgesetzt, wie das Beispiel Kopenhagen zeigt. Die Veranstaltung diskutiert wie sicherheitspolitische Debatten um den „gefährlichen“ Ort St. Georg, sozialpolitische Verdrängungsdynamiken und die Einführung von Systemen der Überwachung miteinander einhergehen. Wie ist die Situation am Hansaplatz derzeit konkret? Werden die algorithmisierten Überwachungstechnologien auf andere Bereiche, wie die Überwachung der wöchentlichen Großveranstaltungen der Fussballbundesligen, ausgeweitet? Welche Konsequenzen sind besonders für politische Akteure zu befürchten? In Kooperation mit dem Forschungsnetzwerk Sicherheit & Polizei, der Braun-Weißen Hilfe (https://www.braunweissehilfe.de/) und dem Kollektiv Café Libertad (https://www.cafe-libertad.de/). Diskussionsveranstaltung mit Nathalie Meyer (Linksfraktion Hamburg), Matthias Marx (Chaos Computer Club), Gudrun Greb (Ragazza e.V.) und Peter Ullrich (TU Berlin, Soziologe und Kulturwissenschaftler). Gefördert durch die Landeszentrale für politische Bildung. Veranstaltungswebseite: https://www.rosalux.de/veranstaltung/es_detail/GVJHE
  continue reading

623 つのエピソード

All episodes

×
 
Loading …

プレーヤーFMへようこそ!

Player FMは今からすぐに楽しめるために高品質のポッドキャストをウェブでスキャンしています。 これは最高のポッドキャストアプリで、Android、iPhone、そしてWebで動作します。 全ての端末で購読を同期するためにサインアップしてください。

 

クイックリファレンスガイド