@Robin01: "Klar. Die Strafe ist auch höher, wenn nicht gesperrt wird, als wenn gesperrt wird. Bzw. der Aufwand. Sperrst du zuviel meckern halt ein paar Nutzer, sperrst du zu wenig hast du auf jeden Fall einen Gerichtsprozess."
Aber genau da ist ja meiner Meinung nach die Crux.
Der Plattformbetreiber sollte sollte nicht für die Inhalte bestraft werden, die er nicht zu verantworten hat.
Das ist doch genau die Argumentation für den Wegfall der Störerhaftung beim WLAN in Deutschland.
Haftbar ist doch genau derjenige, der einen Rechtsverstoß begeht.
Wenn sich eine Gruppe Einbrecher telefonisch zum Einbruch verabredet wird ja auch nicht der Telefonanbieter bestraft.
Bei E-Mails ist es das gleiche. Kein Richter würde darauf kommen GMX und Konsorten für rechtswidrige E-Mails zu bestrafen. Oder die Post für die Zustellung eines Erpresserbriefes.
Hier muss auch der Verfasser ausfindig gemacht werden.
@Norbie E.: jein. Klar muss der Verfasser ausfindig gemacht werden. Ich sehe da trotzdem die Betreiber in der Verantwortung, die verdienen damit auch Geld. Und zwar nicht wie die Post, die nur transportiert, sondern mit dem Veröffentlichen des Contents der Nutzer. Und damit haben die Anbieter naturgemäß kein Interesse an Regulierung solange die Nutzerzahlen oder die Umsätze steigen.
@Robin01: Ich sehe ja auch die Betreiber in der Verantwortung, aber nur im gesetzlich vorgegeben Rahmen.
Wenn jemand offensichtlich zu einem Rechtsbruch aufruft oder andere Nutzer durch Beleidigung oder Mobbing angreift soll und muss der Betreiber natürlich einschreiten, sobald er davon Kenntnis erlangt.
Ich finde es aber schon grenzwertig, automatisierte Filter einzusetzen die z.B. pauschal Posts löschen, die vielleicht anstößige Wörter beinhalten ohne den Kontext dazu zu berücksichtigen.
In Bayern ist es z.B. nicht unbedingt eine Beleidigung wenn einen jemand, auch als Beispiel, als "Sauhund" bezeichnet. Da kommt es dann darauf an, wer und wie er es sagt und es ist dann u.U. sogar ein Kompliment.
Ein Content-Filter würde das aber wahrscheinlich trotzdem löschen.
@Norbie E.: true. Nur wie gesagt, gerade wenn es bewusst ins Illegale geht sind die Leute sehr erfinderisch. Das kann heutzutage weder eine KI leisten noch kann man es konkret in ein Gesetz fassen. Beispiel sind so Sachen wie: "ich frag ja nur".
Die andere Herausforderung ist natürlich, dass das Internet groß ist und der "Sauhund" aus Bayern das versteht, der Nutzer von der Küste sich aber angegriffen fühlt. Suchen wir da das Problem beim Sender oder beim Empfänger (selbige Herausforderung liegt ja auch diskriminierend aufgefassten Aussagen / Handlungen zugrunde). Da muss man nicht nur den Kontext eines Postings sondern die generelle Allgemeinheit der Aussagen und Handlungen heranziehen.
Die KI wird sicherlich mal intelligenter, aktuell ist es schwer. Für kleinere Anbieter sowieso, die müssen die KI von großen Anbietern einkaufen, was dann irgendwie bedeutet, dass solche Kontextdaten zu Google etc. abfließen. Ob wir das so wollen?
Ich denke um solch diffizile Entscheidungen zu treffen sind wir noch nicht weit genug. Das ist weder mit den aktuellen Möglichkeiten lösbar noch mit "der Gesetzgeber muss die Gesetze präzisieren". Was sicher lösbar wäre, wäre das Beispiel mit den "illegalen" Screenshots auf dem eigenen OneDrive. Weil ja Privatkopien erlaubt sind. Es wäre ja da eher einfach zu sagen: darf nicht an andere Nutzer geteilt werden.
@Robin01: "Die andere Herausforderung ist natürlich, dass das Internet groß ist und der "Sauhund" aus Bayern das versteht, der Nutzer von der Küste sich aber angegriffen fühlt. Suchen wir da das Problem beim Sender oder beim Empfänger (selbige Herausforderung liegt ja auch diskriminierend aufgefassten Aussagen / Handlungen zugrunde)."
Gerade da wirkt doch die Selbstregulierung der Community viel besser als jedes automatisierte System.
Aus meiner Sicht reicht hier der "Melden" Button in vielen System völlig aus.
Fühlt sich jemand durch einen Beitrag beleidigt, so kann er diesen melden. Ein (hoffentlich) unparteiischer Moderator prüft dann den Vorgang und leitet weitere Maßnahmen ein.
Selbst hier bei WF klappt das doch im allgemeinen sehr gut mit den "+" und "-" Buttons.
Benimmt sich jemand daneben, wird er von der Community schon mal abgestraft, indem sein Beitrag irgendwann ausgeblendet wird.
Ich finde es auch gut, dass hier der Beitrag trotzdem noch geöffnet werden kann, damit sich jeder selbst ein Bild machen kann, ob das auch gerechtfertigt ist.
Problematisch könnte es nur in "Echokammern" oder "Meinungsblasen" werden, in denen eben nur gleichgesinnte verkehren. Allerding: Wenn die eh alle der gleichen Meinung sind, stört das auch niemanden und derjenige der sich daran stört muss dieser Community nicht beitreten.
Ich nutze Telegramm zwar nicht aktiv, aber ich würde mich dort auch nicht in Gruppen anmelden, die Themen behandeln, die mich nicht interessieren oder mich aufregen würden.
Genauso wenig wie ich Internetseiten mit rechts-/ links- oder anderweitig radikalen Inhalten aktiv aufrufe.
Rechtsverstöße in diesen Communitys müssen eh die Strafverfolger und die Justiz verfolgen und nicht der einsame Rächer.
@Norbie E.: die Echokammern sind sicherlich das größte Problem, da sich dort die Meinungen recht schnell aufblasen können. Der Capitol-Sturm, die GameStopAktien und die Querdenker-Radikalisierung zeigen deutlich auf, wie schnell es gehen kann, wenn radikale Influenzer auf eine breite Maße an Followern trifft.