1. MZ.de
  2. >
  3. Lokal
  4. >
  5. Nachrichten Halle
  6. >
  7. Uni Halle: Uni Halle: Algorithmus erkennt Hasskommentare

Uni Halle Uni Halle: Algorithmus erkennt Hasskommentare

Von Janine Gürtler 06.02.2017, 14:18
Platz vor dem Löwengebäude der Uni in Halle
Platz vor dem Löwengebäude der Uni in Halle Thomas Meinicke

Halle (Saale) - Gewaltfantasien, Drohungen, Hakenkreuze: Im Internet lassen sich täglich Millionen solcher verbale Attacken finden. Mit der sogenannten „Hate Speech“ sind vor allem soziale Netzwerke wie Facebook oder Twitter überschwemmt.

Uni Halle entwickelt Algorithmus gegen hass im Netz

Wissenschaftler der Martin-Luther-Universität in Halle haben nun einen Algorithmus entwickelt, der erkennt, wenn Nutzer in Kommentaren Hassbotschaften verbreiten. „Das Programm analysiert die Kommentare und sucht nach Wörtern und Wortgruppen, die in einer Datenbank hinterlegt sind“, sagt Uwe Bretschneider, der das Programm geschrieben hat.

Das können zum Beispiel Schimpfwörter oder Aufforderungen zu Gewalt sein. Die Datenbank lässt sich beliebig anpassen und kann daher weiter wachsen. Wird ein Beitrag mit Hate Speech erkannt, kann dieser entweder automatisch gelöscht  oder einem Moderator zur Kontrolle vorgelegt werden.

Programm der Uni Halle geht einen Schritt weiter als bisherige Algorithmen

Das ist erstmal nichts Neues: Andere Informatiker und Unternehmen wie Yahoo haben ähnliche Verfahren entwickelt, mit denen sich Texte auf bestimmte Begriffe durchsuchen lassen. „Für Hate Speech ist es aber zusätzlich wichtig zu wissen, gegen welche Personen sich eine bestimmte Aussage richtet“, sagt Bretschneider.

Deshalb hat der Wirtschaftsinformatiker sein Programm  ergänzt: Es analysiert die Kommentare im Kontext der Diskussion auf Facebook und erkennt dadurch den Adressaten einer Aussage; Bretschneider unterscheidet insbesondere zwischen Aussagen gegen Geflüchtete, Politiker oder Medien.

Algorithmus gegen Hate Speech: Es geht nicht um Zensur

Die Trefferquote des Algorithmus aus Halle liegt bei 70 Prozent. „Das mag zunächst ernüchternd klingen, könnte die Arbeitszeit für Moderatoren aber schon deutlich reduzieren“, sagt Bretschneider.

Einen Zensur- oder Überwachungsalgorithmus habe er nicht entwickelt, sagt Bretschneider, der sich seit längerem mit verschiedensten Formen des digitalen Mobbings beschäftigt: „Es sollte nie darum gehen, das Recht auf freie Meinungsäußerung zu unterdrücken oder bestimmte Meinungen zu verbieten.“

Lediglich die Art und Weise, wie diese Meinungen geäußert werden, könne und dürfe man überprüfen. Den Rest müsse eine Demokratie aushalten. (mz)