BT-Drucksache 18/11856

Transparenz und Recht im Netz - Maßnahmen gegen Hasskommentare, "Fake News" und Missbrauch von "Social Bots"

Vom 4. April 2017


Deutscher Bundestag Drucksache 18/11856
18. Wahlperiode 04.04.2017
Antrag
der Abgeordneten Dr. Konstantin von Notz, Renate Künast, Tabea Rößner,
Dieter Janecek, Luise Amtsberg, Katja Keul, Monika Lazar, Irene Mihalic,
Özcan Mutlu, Ulle Schauws, Hans-Christian Ströbele und der Fraktion
BÜNDNIS 90/DIE GRÜNEN

Transparenz und Recht im Netz – Maßnahmen gegen Hasskommentare,
„Fake News“ und Missbrauch von „Social Bots“

Der Bundestag wolle beschließen:

I. Der Deutsche Bundestag stellt fest:

Hass und Hetze, Beleidigung und Bedrohung, das Schüren von Vorurteilen und Feind-
bildern scheinen seit geraumer Zeit auch im Internet zuzunehmen. Die Grenzen des
Zulässigen sind aber in der digitalen wie der analogen Welt im Grundsatz dieselben:
Grund- und Menschenrechte gelten für alle sich im Internet bewegenden Menschen.
Persönlichkeitsrechte, Kommunikationsfreiheiten und Rechte auf Privatheit sind
gleichermaßen schützenswerte Grundrechte unserer freiheitlichen Ordnung. Die
Rechte anderer dürfen nicht verletzt und gegen die verfassungsmäßige Ordnung darf
nicht verstoßen werden. Die bestehenden Straftatbestände (zum Beispiel hinsichtlich
Beleidigung, übler Nachrede, Verleumdung, Volksverhetzung, falscher Verdächti-
gung, Bedrohung, Aufforderung zu und Billigung von Straftaten) sind ausreichend.
Das gilt grundsätzlich auch für die Rechtsschutzmöglichkeiten bei Verletzungen der
Persönlichkeitsrechte (zum Beispiel Unterlassungs-, Beseitigungs- und Schadenser-
satzansprüche, Störer- und Verbreiterhaftung). Verletzungen von Persönlichkeitsrech-
ten müssen stets mit der durch Artikel 5 Grundgesetz geschützten Meinungs- und In-
formationsfreiheit abgewogen werden. Dies darf nicht den Diensteanbietern überlas-
sen werden, sondern ist im Streitfall Sache der Gerichte.
Angesichts der Massenhaftigkeit und der schnellen Verbreitung im Netz liegen das
Problem und die rechtspolitische Aufgabe aber darin, die tatsächlich wirksame Durch-
setzbarkeit bestehender individueller Rechte und des staatlichen Strafanspruchs zu ge-
währleisten. Betroffene von Hassreden und die Integrität der Kommunikation im Netz
müssen besser geschützt werden. Jede/jeder dritte Internetnutzer ist minderjährig.
Gleichzeitig sind Kinder und Jugendliche besonders gefährdet, Opfer von Hate Spe-
ech, Cybermobbing oder Cybergrooming zu werden und dabei nachhaltig in ihrer Ent-
wicklung gestört zu werden. Frauen und Mädchen sind überdurchschnittlich häufig
von Hass und Gewalt im Netz, „digitaler Gewalt“, betroffen. Diese Form von Gewalt
gegen Frauen, die erhebliche seelische und psychische Beschwerden und häufig auch

Drucksache 18/11856 – 2 – Deutscher Bundestag – 18. Wahlperiode
den Rückzug aus der Netzöffentlichkeit zur Folge hat, muss stärker berücksichtigt wer-
den. Die Bundesregierung ist hier jahrelang nicht ernsthaft tätig geworden. Berechtigte
Schutzansprüche laufen unter der Großen Koalition bisher ins Leere.
Ebenso fehlt es seit langem an Informationspflichten bei der Verwendung von Com-
puterprogrammen, die menschliche Identität und Kommunikation vortäuschen
(„Social Bots“) und zu Zwecken der Manipulation oder Desinformation eingesetzt
werden können.
Eine effektive Verhinderung der intransparenten Beeinflussung demokratischer Wil-
lensbildungsprozesse und der missbräuchlichen Nutzung von Social Bots erfordert
eine gesetzliche Verpflichtung zur Offenlegung einer automatisch ausgelösten Kom-
munikation und Verbreitung von Information. Hierdurch soll eindeutig zu erkennen
sein, ob Mensch oder Maschine agiert.
Die Wahrung von Verantwortung, Freiheit und Recht im Netz bedarf ständiger Acht-
samkeit sowie aktiven Engagements für demokratischen Diskurs und Respekt. Dies
setzt zunächst eine möglichst hohe Medienkompetenz möglichst aller voraus. In einer
Zeit, in der alle möglichen Akteure problemlos publizieren und weiterverbreiten kön-
nen, ohne dass sichergestellt ist, dass Publiziertes durchweg anerkannten journalisti-
schen Sorgfaltspflichten entspricht, muss die Fähigkeit und die Bereitschaft gefördert
werden, Inhalte kritisch zu hinterfragen und bewusst verfälschte und persönlichkeits-
rechtsverletzende Nachrichten und Straftaten als solche zu erkennen. Daher bleibt im
digitalen Zeitalter der Erwerb von Medien- und Datenschutzkompetenz – möglichst
lebenslang – eine zentrale Herausforderung. Der Erwerb dieser Kompetenzen kann die
notwendige Verbesserung der Rechtsdurchsetzung aber nicht ersetzen, sondern muss
sie ergänzen.

II. Der Deutsche Bundestag fordert die Bundesregierung auf,

einen Gesetzentwurf vorzulegen, mit dem
1. das Melde-und Abhilfeverfahren („Notice and take down“) bei rechtswidrigen

Informationen für Diensteanbieter von Telemedien ab einer festzulegenden Grö-
ßenordnung verbindlich strukturiert wird, damit eine sorgfältige Prüfung unter
Einbeziehung der Beteiligten erfolgt, bei der die Rechte beider Seiten gewahrt
bleiben,

2. die Diensteanbieter von Telemedien ab einer festzulegenden Größenordnung ver-
pflichtet werden, auf ihre Kosten
a) zur Gewährleistung effektiver Strafverfolgung und Durchsetzung zivilrecht-

licher Ansprüche
aa) benutzerfreundliche und altersgerechte Möglichkeiten bereitzuhalten,

um rechtswidrige Inhalte zu melden,
bb) innerhalb von 24 Stunden den Meldenden sowie den für den Inhalt der

als rechtswidrig gemeldeten Information Verantwortlichen über den
Verfahrensstand zu informieren und offensichtlich rechtswidrige In-
halte spätestens innerhalb von 24 Stunden nach Meldungszugang zu
löschen,

cc) auf Anfrage innerhalb von 24 Stunden den Strafverfolgungsbehörden
und Gerichten Auskunft über die Herkunft einer als rechtswidrig ge-
meldeten Information zu erteilen,

dd) einen inländischen empfangs- und zustellungsbevollmächtigten Ver-
antwortlichen bei den Diensteanbietern für Meldungen, Beschwerden
und Löschungsforderungen bei rechtswidrigen Inhalten zu bestellen
und leicht erkennbar, unmittelbar erreichbar und ständig verfügbar be-
kannt zu machen,

Deutscher Bundestag – 18. Wahlperiode – 3 – Drucksache 18/11856

ee) Vorkehrungen zur Dokumentation rechtswidriger oder streitiger In-
halte und die fachgerechte Bearbeitung der Meldungen zu treffen, so-
wie im Falle eines erfolgreichen Widerspruchs des Inhalteanbieters ge-
gen die Löschung eine zeitnahe/unverzügliche Wiederzugänglichma-
chung zu gewährleisten,

b) zur Gewährleistung von Transparenz bei Social Bots
aa) von ihnen bereitgestellte eigene Informationen, die in einem automati-

sierten elektronischen Kommunikationssystem erzeugt werden (soge-
nannte Social Bots), leicht erkennbar, unmittelbar erreichbar und stän-
dig verfügbar als auf diese Weise erzeugt zu kennzeichnen,

bb) ihre Nutzer zu verpflichten, von ihnen bereitgestellte Informationen,
die durch ein automatisiertes elektronisches Kommunikationssystem
erzeugt werden (sogenannte Social Bots), leicht erkennbar, unmittelbar
erreichbar und ständig verfügbar als auf diese Weise erzeugt zu kenn-
zeichnen,

cc) benutzerfreundliche Meldewege bereitzuhalten, über die Nutzerinnen
und Nutzer mutmaßlich missbräuchlich eingesetzte Social Bots melden
können,

dd) den Meldungen nachzugehen und den Meldenden sowie den für den
Account Verantwortlichen über den Verfahrensstand zu informieren,

c) regelmäßig öffentlich über die Anzahl von Meldungen rechtswidriger In-
halte, die Art der Erledigung der Meldungen, die für das Melde- und Abhil-
feverfahren eingesetzten Ressourcen und die der Erledigung zugrunde-
liegenden Kriterien zu berichten (Transparenzbericht),

3. effektive Sanktionen für den Fall des Verstoßes gegen die vorstehend unter 2.
benannten Verpflichtungen und gegen diesbezügliche Organisations- und Auf-
sichtspflichten der Diensteanbieter zu ermöglichen durch Bußgelder, die die wirt-
schaftliche Lage solcher Anbieter angemessen erfassen, festgelegt werden,

4. die Pflicht zu unabhängiger externer Evaluierung der Neuregelung vorgeschrie-
ben wird.

III. Der Deutsche Bundestag fordert die Bundesregierung darüber hinaus auf,

1. durch Ergänzung und Konkretisierung der Richtlinien für das Strafverfahren und
das Bußgeldverfahren (RiStBV) Regelungen zu schaffen, durch die die Staatsan-
waltschaft in Fällen des Verdachts strafbarer Online-Äußerung (bzw. Informa-
tion)
a) wegen Schnelligkeit und Reichweite der Verbreitung der ehrverletzenden

Äußerungen das öffentliche Interesse annehmen kann und
b) auch im Falle der Verweisung auf das Privatklageverfahren jedenfalls zuvor

die Herkunft von pseudonymen und anonymen Äußerungen, gegebenenfalls
auch unter Auskunftseinholung vom Diensteanbieter, ermittelt;

2. attraktive und altersgerechte Angebote zu schaffen, die die Fähigkeit und die Be-
reitschaft der Bürgerinnen und Bürger fördern (z. B. in schulischen und außer-
schulischen Institutionen), über Medien (Internet, Rundfunk, Print) verbreitete
Inhalte kritisch zu hinterfragen, bewusst verfälschte Inhalte als solche zu erken-
nen, sie für persönlichkeitsrechtsverletzende Inhalte zu sensibilisieren (Medien-
kompetenz) und das zivilgesellschaftliche Engagement und die Kultur der Ge-
genrede zu unterstützen;

3. unabhängige und kostenfreie Informations- und Beratungsstellen zum Umgang
mit Hate Speech, Fake News, Cybermobbing, Cyberstalking, Cybergrooming,

Drucksache 18/11856 – 4 – Deutscher Bundestag – 18. Wahlperiode

Doxing (Medienkompetenz) zu fördern und dabei eine (Teil-)Finanzierung eines
unabhängigen durch eine verpflichtende Abgabe von Diensteanbietern von Tele-
medien ab einer festzulegenden Größenordnung zu prüfen. Dabei muss sicherge-
stellt sein, dass die Informations- und Beratungsstellen auch Kindern und Jugend-
lichen zur Verfügung stehen, diese entsprechend ansprechen und Berater und Be-
raterinnen in Jugendschutzfragen geschult sind;

4. Diensteanbieter von Telemedien ab einer bestimmten Größe zu verpflichten, Ju-
gendbeauftragte einzusetzen, die Jugendschutzprogramme umsetzen und dafür
verbindliche Kooperationen für den digitalen Kinder- und Jugendschutz mit dem
Zentrum für Kinderschutz im Internet (I-KiZ) einzugehen;

5. sich dafür einzusetzen, dass die einfache Online-Anzeige von Beschwerden oder
rechtswidriger Inhalte per polizeilicher „Internetwache“ in allen Bundesländern
möglich ist;

6. in Zusammenarbeit mit den Ländern darauf hinzuwirken, dass die Strafverfol-
gungsbehörden und Gerichte personell und technisch so ausgestaltet werden, dass
sie die Strafrechtsverstöße im Netz adäquat und in angemessener Zeit bearbeiten
können;

7. auf europäischer und internationaler Ebene Regulierungen mit großer Reichweite
und Einheitlichkeit voranzutreiben und die rechtliche Zusammenarbeit zu inten-
sivieren;

8. die Forschung zur Wirkung von Hate Speech, Fake News und missbräuchlich
eingesetzten Social Bots auf die demokratische Debattenkultur im Netz zu unter-
stützen;

9. die unabhängige und selbstverwaltete Überprüfung von online veröffentlichten
Fakten nach journalistischen Standards („Fact-Checking“) durch beispielsweise
Nichtregierungsorganisationen oder Zusammenschlüsse von Medien zu unter-
stützen und dabei zu prüfen, ob eine (Teil-)Finanzierung eines unabhängigen Re-
cherche-Fonds durch eine verpflichtende Abgabe von Diensteanbietern von Te-
lemedien ab einer festzulegenden Größenordnung zu prüfen ist;

10. eine Selbstverpflichtung der im Netz werbenden Wirtschaft zu initiieren, auf die
Schaltung von Werbung auf solchen Webseiten zu verzichten, deren Geschäfts-
modell ganz überwiegend auf die Verbreitung von zu definierenden Falschmel-
dungen (Fake News) ausgerichtet ist;

11. gemeinsam mit den Ländern zu prüfen, ob es zwecks Gewährleistung effektiven
Jugendmedienschutzes sinnvoll erscheint, den Landesmedienanstalten (bzw. de-
ren Kommission für Jugendmedienschutz) weitere Auskunftsrechte einzuräu-
men;

12. gemeinsam mit den Ländern die Sachgerechtigkeit und Konsistenz der Bund-
Länder-Kompetenzverteilung im Bereich der Telemedien insgesamt angesichts
der Entwicklungen des Internets grundlegend zu überprüfen und notwendige Ver-
änderungen aufzuzeigen, insbesondere gegenüber den Ländern anzuregen, Sank-
tionsmöglichkeiten bei Verstößen von Telemedienanbietern mit journalistisch-
redaktionell gestaltetem Angebot gegen journalistische Sorgfaltspflichten zu
schaffen.

Berlin, den 28. März 2017

Katrin Göring-Eckardt, Dr. Anton Hofreiter und Fraktion

Deutscher Bundestag – 18. Wahlperiode – 5 – Drucksache 18/11856
Begründung

Die einbringende Fraktion BÜNDNIS 90/DIE GRÜNEN hat am 13. Januar 2017 ein umfassendes Konzept „Ver-
antwortung, Freiheit und Recht im Netz“ vorgelegt.1 Die Fraktion der CDU/CSU hat in einem am 20. Januar
2017 beschlossenen Positionspapier2 das Konzept weitgehend aufgegriffen. Ebenso die Fraktion der SPD mit
einem Positionspapier vom 07. März 20173. Angesichts dieser Einmütigkeit sollte die Bundesregierung in der
Lage sein, unverzüglich eine Änderung des Telemediengesetzes mit folgenden Kernpunkten vorzulegen:
Bei Verletzungen des Persönlichkeitsrechts und Straftaten Konkretisierung des Notice-and-take-down-Prinzips
und der Informationspflichten einschließlich der Kennzeichnung von Social Bots – ähnlich wie die gesetzlichen
Informationspflichten bei kommerziellen Kommunikationen – in Verbindung mit der Schaffung verbindlicher
Regeln für effiziente, rasche und beweissichernde Kommunikation zwischen Diensteanbietern wie insbesondere
Plattformbetreibern einerseits sowie Verletzten und Strafverfolgungsbehörden andererseits. Ermöglichung der
Sanktionierung von Verstößen gegen diese Regeln oder diesbezüglicher Organisations-und Aufsichtspflichten
durch Bußgelder und gegebenenfalls Gewinnabschöpfungen, die die wirtschaftliche Lage solcher Unternehmen
angemessen erfassen und damit ökonomisch spürbar sind. Festlegung einer Relevanzschwelle (Größenordnung
der Diensteanbieter), ab der diese Pflichten gelten, durch eine Mindestnutzerzahl. Die Konkretisierungen dienen
zugleich besserem Schutz der Nutzerinnen und Nutzer.
Darüber hinaus sind zivilgesellschaftliches Engagement zahlreicher Menschen und Organisationen, wie die Kam-
pagne „No Hate Speech“ und die „grüne Netzfeuerwehr“ zu begrüßen und unterstützen.
Die Bundesregierung und die sie tragenden Fraktionen tolerieren bis heute, dass sich milliardenschwere Unter-
nehmen mit teils monopolartigem Charakter nicht an geltendes deutsches und europäisches Recht halten. Sie
missachten mit lapidaren Hinweisen auf die eigene Multinationalität, allgemeine Geschäftsbedingungen und sich
selbst gegebene „Gemeinschaftsstandards“ klare rechtliche Vorgaben. Das muss ein Ende haben. Selbstverpflich-
tungen und die bisherigen Bemühungen der Bundesregierung reichen bei Weitem nicht aus. Mit medienwirksa-
men „Task Forces“, offenen Briefen und immer neuen, folgenlosen Fristen hat Bundesjustizminister Maas bis-
lang nichts Wesentliches zur Beseitigung der skizzierten Probleme beigetragen. Das gilt gleichermaßen für bis-
lang folgenlose Positionspapiere der Koalitionsfraktionen. Ein im Anwendungsbereich limitiertes Netzwerk-
durchsetzungsgesetz kann nicht über den Reformbedarf im Telemedienrecht insgesamt hinwegtäuschen. Digitale
Gatekeeper müssen entschlossen dazu gebracht werden, ihrer Verantwortung nachzukommen und geltendes
Recht zu beachten. Digitale Bürgerrechte laufen bisher unter der Großen Koalition ins Leere.

Zu II 1. ( Melde- und Abhilfeverfahren)
Das sogenannte Notice-and-take-down-Verfahren erfolgt derzeit ohne konkrete gesetzliche Regelungen. Das No-
tice-and-take-down-Verfahren ist im Artikel § 14 (1) b) der Richtlinie über den elektronischen Geschäftsverkehr
(Richtlinie 2000/31/EG) und in § 10 Satz 1 des Telemediengesetzes grundsätzlich angelegt. In einer Vielzahl von
Fällen bleibt zunächst offen, ob es sich um klar rechtswidrige Postings handelt. Es bleibt damit den Providern
selbst überlassen, auf welche Art und Weise sie ihren, aus der Kenntnis von Hinweisen auf mutmaßlich rechts-
widrige Inhalte erwachsenden Obliegenheitspflichten nachkommen. Der Bundesgerichtshof hat in einer Reihe
von Entscheidungen zu unterschiedlichen Fallkonstellationen die von Providern zu beachtenden Aspekte wie
etwa die Kontaktaufnahme zu den Inhalte einstellenden Personen und die Einräumung einer knappen Erwide-
rungsfrist lediglich umrissen. Es obliegt dem Gesetzgeber, die zunehmende Anzahl von Auseinandersetzungen
zwischen den durch rechtswidrige und missbräuchliche Postings mutmaßlich Geschädigten und den Inhaltean-
bietern so zu strukturieren, dass sowohl die effektive Durchsetzung des Persönlichkeitsschutzes gewährleistet
wird, als auch die ebenfalls grundrechtlichen Schutz genießenden Kommunikationsfreiheiten der Inhalteanbieter
im Verfahren des Umganges mit den Verdachtsmeldungen gewahrt bleiben.
1 www.gruene-bundestag.de/fileadmin/media/gruenebundestag_de/fraktion/beschluesse/Fraktionsbeschluss_Verantwortung_im_Netz_

Weimar17.pdf
2 Diskussion statt Diffamierung. Aktionsplan zur Sicherung eines freiheitlich-demokratischen Diskurses in sozialen Medien,

www.cducsu.de/sites/default/files/2017-01-24_positionspapier_soziale_medien_-_10_00_uhr.pdf
3 Fake News und Co.: Rechtsdurchsetzung in sozialen Netzwerken verbessern, 07.03.2017. www.spdfraktion.de/system/files/documents/

20170307_positionspapier_fakenews_beschluss_spd-btf.pdf

https://www.gruene-bundestag.de/fileadmin/media/gruenebundestag_de/fraktion/beschluesse/Fraktionsbeschluss_Verantwortung_im_Netz_%0bWeimar17.pdf
https://www.gruene-bundestag.de/fileadmin/media/gruenebundestag_de/fraktion/beschluesse/Fraktionsbeschluss_Verantwortung_im_Netz_%0bWeimar17.pdf
Drucksache 18/11856 – 6 – Deutscher Bundestag – 18. Wahlperiode
Da das Melde- und Abhilfeverfahren bereits im TMG angelegt ist, bietet es sich an, eine Neuregelung ebenfalls
innerhalb des TMG zu treffen. In jedem Fall darf ein Regulierungsvorschlag nicht dazu führen, dass mehrere
Beschwerdeverfahren parallel bestehen und dadurch das Verfahren verkompliziert wird anstelle die Rechtsdurch-
setzung vereinfacht.

Zu II 2. a) (Gewährleistung effektiver Rechtsdurchsetzung)
Die E-Commerce-Richtlinie überlässt den Mitgliedsstaaten ausdrücklich die Möglichkeit, ein Verfahren für die
Entfernung einer Information oder die Sperrung des Zugangs zu ihr festzulegen. Bei offensichtlich rechtswidri-
gen Informationen bedarf es keiner intensiven Abwägung über den Inhalt seitens des Diensteanbieters, sodass
eine kurze Reaktionsfrist zur Sperrung oder Löschung angemessen ist, um die Möglichkeit einer Weiterverbrei-
tung der Informationen zu minimieren. Von einer offensichtlichen Rechtsverletzung ist erst dann auszugehen,
wenn diese so eindeutig ist, dass eine ungerechtfertigte Belastung des Diensteanbieters ausgeschlossen erscheint.
Um Missbrauch vorzubeugen, kann die Rechtswidrigkeit einer Information nicht nur behauptet werden, sondern
sie muss glaubhaft gemacht werden. Für die Glaubhaftmachung genügt es jedoch, dass der Meldende die Tatsa-
chen vorträgt, die das Zutreffen der Behauptung überwiegend wahrscheinlich erschienen lassen. Eine Beschrän-
kung auf bestimmte rechtswidrige Handlungen durch die Begrenzung der Anwendbarkeit des konkretisierten
Verfahrens ausschließlich auf Hasskriminalität ist weder notwendig noch zweckmäßig. Obwohl das Vorgehen
der Diensteanbieter z. B. im Bereich der Pornographiedelikte bereits deutlich effektiver funktioniert als im Be-
reich der Hasskommentare, sollten Inhalte von sexualstrafrechtlicher Relevanz nicht vom Anwendungsbereich
der neuen Regelungen ausgeschlossen sein.
Über die Melde- und Abhilfeverfahren hinaus bedarf es auch einer verbesserten Mitwirkung der Diensteanbieter
bei der Aufklärung von Straftaten durch die Behörden. Die Praxis bemängelt den Umgang der Plattformbetreiber
mit Anfragen seitens der Staatsanwaltschaft, die entweder gar nicht oder mit erheblicher Zeitverzögerung beant-
wortet werden. Um die Ermittlungen zu beschleunigen soll auch hier eine kurze Frist zur Bearbeitung der Anfra-
gen von Strafverfolgungsbehörden und Gerichten gegenüber den Diensteanbietern festgelegt werden.
Für eine effektive Rechtsdurchsetzung ist die Bestellung eines inländischen empfangs-und zustellungsbevoll-
mächtigten Verantwortlichen bei den Dienstanbietern unabdingbar. Damit ist auch Verkehr in deutscher Sprache
sichergestellt. Der inländische Zustellungsbevollmächtigte muss ebenso leicht erkennbar sein wie der Name, die
Anschrift des Diensteanbieters und der Vertretungsberechtigte (vgl. § 5 TMG und § 55 Abs. 2 Rundfunkstaats-
vertrag). Eine Benennung des Ansprechpartners erst im Verfahren gegenüber den Behörden genügt nicht.
Außerdem sollten benutzerfreundliche Melde-Tools bereitgehalten werden.
Die für die Diensteanbieter außerdem geforderten Dokumentationspflichten und Vorkehrungen zur fachgerech-
ten Bearbeitung von Beschwerden etc. dienen der Effizienz und der Beweissicherung. Geltende Datenschutz-
standards müssen dabei gewahrt bleiben.

Zu II 2. b) (Social Bots)
Es gibt sinnvolle Anwendungen von Social Bots: Sie können dazu beitragen, sich tausendfach wiederholende
Abläufe zu automatisieren und Menschen zu entlasten. Sie können dabei helfen, Hilfesuchende auf Fundstellen
aufmerksam zu machen, Nutzerinnen und Nutzer können in sozialen Netzwerken auf neue journalistische Artikel
hingewiesen werden oder Haterinnen und Hater automatisiert auf geltende Diskussionsregeln verwiesen werden.
Genauso können Social Bots bei entsprechender Programmierung aber auch missbräuchlich eingesetzt werden
und demokratische Diskurse vergiften. Mit Social Bots können vermeintliche Mehrheitsverhältnisse und die ge-
sellschaftliche Bedeutung von Themen vorgetäuscht werden. Diskussionen können inhaltlich verzerrt bezie-
hungsweise Desinformationen verbreitet werden. Social Bots können so das Vertrauen in öffentliche (politische)
Debatten und damit in den demokratischen Diskurs untergraben.
Der Einsatz von Social Bots hat nicht nur für die demokratische Debattenkultur gravierende Auswirkungen.
Social Bots werden beispielsweise auch zur Manipulation des Kaufverhaltens von Kundinnen und Kunden ein-
gesetzt oder durch Falschmeldungen zur kurzfristigen Beeinflussung von Aktienmärkten („Influencer Marke-
ting“) genutzt.
Social Bots können auch zum gezielten „Phishing“ und „Social Engineering“ gegenüber Privatpersonen und Un-
ternehmen und als Bestandteil von internationalen Desinformationskampagnen eingesetzt werden. Mit abneh-
menden Kosten und technischem Aufwand steht zu befürchten, dass Social Bots zukünftig vermehrt auch als
Instrument des Mobbings gegen Einzelpersonen eingesetzt werden.

Deutscher Bundestag – 18. Wahlperiode – 7 – Drucksache 18/11856
Die Verbreitung von durch Algorithmen ausgelöster automatischer Kommunikation und Information nimmt ab-
sehbar weiter stark zu. Dem Staat kommt eine wichtige Schutzverantwortung zu. Er sollte Risiken für den demo-
kratischen Diskurs, mögliche Manipulationen, Verzerrungen oder gar Zersetzung von gesellschaftlichen Mei-
nungsbildungs- und politischen Entscheidungsprozessen bis hin zu Wahlentscheidungen frühzeitig entschlossen
begegnen und eine mögliche Transparenz in der digitalen Welt sicherstellen.
Den Einsatz von Social Bots per se zu verbieten, wie es in den vergangenen Wochen wiederholt gefordert wurde,
würde allerdings der skizzierten Ambivalenz nicht gerecht werden. Selbstverpflichtungen, das hat die Vergan-
genheit gezeigt, reichen auch nicht aus.

Zu II 2. c) (Transparenzbericht)
Die Berichtspflichten dienen der Transparenz. Es ist vor allem Interesse der Nutzerinnen und Nutzer, beim Ein-
gehen eines Rechtsverhältnisses mit einem Diensteanbieter erkennen zu können, welche Kriterien die Dienste-
anbieter bei Meldungen rechtswidriger Informationen für ihre Entscheidung zugrunde legen und in welchem
Zeitraum Meldungen tatsächlich bearbeitet werden.

Zu II 3. (Sanktionen)
Vorsätzliche und fahrlässige Verletzung der Kennzeichnungspflichten, der Verfahrens- und der Berichtspflichten
von Diensteanbietern sollen als Ordnungswidrigkeiten wirksam sanktioniert werden können. Der bisherige Ahn-
dungsrahmen von bis zu 50.000 Euro des Telemediengesetzes ist angesichts der wirtschaftlichen Lage der großen
Diensteanbieter unverhältnismäßig niedrig und muss deutlich erhöht werden. Zukunftsfähige Unternehmensver-
antwortung erfordert angemessene und wirksame Sanktionen bei Rechtsverstößen von Unternehmen (siehe dazu
den Antrag der einbringenden Fraktion BÜNDNIS 90/DIE GRÜNEN auf Drucksache 18/10038). Die die Bun-
desregierung tragende Koalition hatte sich zwar 2013 vorgenommen, mit Blick auf Rechtsverstöße im Unterneh-
mensbereich das Ordnungswidrigkeitenrecht auszubauen. Geschehen ist aber bislang nichts.

Zu II 4. (Evaluation)
Angesichts der rasanten Entwicklung des Internets ist eine qualifizierte externe unabhängige Evaluation der Neu-
regelungen unabdingbar.

Zu III 1. (Richtlinien für das Strafverfahren und das Bußgeldverfahren)
Die Richtlinien für das Strafverfahren und das Bußgeldverfahren (RiStBV) stammen bei den hier einschlägigen
Nummern 86 und 87 aus der Zeit vor der Verbreitung des Internets. Sie bedürfen deshalb der Ergänzung.
Zwar wurde 2015 in der Folge der NSU-Taten und der Forderungen des ersten NSU-Untersuchungsausschusses
bereits eine Ergänzung in Nummer 86 Absatz 2 Satz 1 eingefügt, die aber nicht das Ziel des vorliegenden Antra-
ges erfasst (siehe dazu bereits die Anträge der Fraktion BÜNDNIS 90/DIE GRÜNEN „Demokratie stärken –
Dem Hass keine Chance geben“ auf Drucksache 18/7553 und „Hasskriminalität wirkungsvoll statt symbolisch
verfolgen“ auf Drucksache 18/3150).
Delikte wie Beleidigung oder Bedrohung sind als Privatklagedelikte ausgestaltet, d. h., die Staatsanwaltschaft
hat hier zu prüfen, ob ein öffentliches Interesse an der Verfolgung von Amts wegen besteht. Die RiStBV sollen
deshalb künftig die Anweisung enthalten, dass die Staatsanwaltschaft bei der Feststellung des öffentlichen Inte-
resses bei Privatklagedelikten, das die Verfolgung der möglichen Straftat von Amts wegen auslösen würde, die
Umstände der Reichweite der im Internet verbreiteten Äußerungen verstärkt zu berücksichtigen hat. Außerdem
soll die Staatsanwaltschaft im Falle einer Verweisung auf den Privatklageverfahren verpflichtet sein, zuvor die
Herkunft einer im Internet anonym oder pseudonym gemachten strafverdächtigen Äußerung (Information) nach
den einschlägigen strafprozessualen Bestimmungen zu ermitteln. Die Diensteanbieter sind aufgrund von § 14
Abs. 2 i. V. m § 15 Abs. 5 Satz 4 TMG befugt, auf Anordnung der zuständigen Stellen über Bestands- und
Nutzungsdaten Auskunft zu erteilen.

Zu III 2. (Medienkompetenz)
Zur Prävention von Hassreden im Netz und einem kompetenten Umgang mit Informationen und Nachrichten im
Netz ist das Angebot von Medien- und Datenschutzkompetenzvermittlungen deutlich auszuweiten. Die Vermitt-
lung von Medien- und Datenschutzkompetenz muss in den Schulen, der politischen Bildung und als Aufgabe der
Jugendhilfe gestärkt werden. Hierzu braucht es entsprechende Fortbildungsprogramme für die Fachkräfte. Netz-

Drucksache 18/11856 – 8 – Deutscher Bundestag – 18. Wahlperiode
und Medienkompetenz führt ebenso zu einer Verbesserung der technischen und sozialen Fähigkeiten der Medi-
ennutzung und Medienkritik, die insbesondere Mädchen und Frauen darin stärken, sich sicher und selbstbewusst
im Netz zu bewegen und an Online-Prozessen und Diskursen mitzuwirken.

Zu III 3. (Unabhängige Informations- und Beratungsstellen)
Betroffene von Hassreden finden bisher kaum Informationen und Beratung, wie sie individuelle und rechtlich
mit diffamierenden Inhalten umgehen sollen. Diensteanbieter ab einer zu definierenden Größenordnung sollen
auch durch eine (Teil-)Finanzierung ihrer Verantwortung für eine demokratische Debattenkultur nachkommen.
92 Prozent aller Kinder und Jugendlichen zwischen 12 und 17 Jahren verfügen über ein Smartphone, mit dem sie
regelmäßig online sind (JIM-Studie). Sie sind in besonderem Maße gefährdet, Opfer von Hate Speech, Cy-
bermobbing oder Cybergrooming zu werden und dabei nachhaltig in ihrer Persönlichkeitsentwicklung gestört zu
werden. Informations- und Beratungsstellen müssen deshalb niedrigschwellig auch für Kinder und Jugendliche
erreichbar und in Jugendschutzfragen kompetent ausgestattet sein. „Digitale Gewalt“ nimmt mit der wachsenden
Bedeutung von digitaler Kommunikation immer stärker zu. Frauen und Mädchen sind hiervon überproportional
stark betroffen. Der bff – Bundesverband Frauenberatungsstellen und Frauennotrufe berichtet von einem Anstieg
der Beratungsanfragen zu digitalen Gewaltformen. Cybergewalt umfasst Cybermobbing, -grooming, -stalking,
-sexismus und Doxing. Cybermobbing beschreibt das Schikanieren einer Person im Internet, oft auch durch Ver-
öffentlichung von Bildern und tritt in vielen Fällen in Schul- oder Arbeitszusammenhängen auf. Cybergrooming
ist die Anbahnung von sexualisierter Gewalt gegenüber Kindern durch Erwachsene im Netz. Zu einem großen
Anteil handelt es sich hier um männliche Täter, Betroffene sind häufig weiblich. Cyberstalking bedeutet, dass
einer Person durch eine andere online nachgestellt wird. Cybersexismus richtet sich gezielt gegen netzaktive
Frauen und es wird versucht, feministische Äußerungen im Netz zu unterdrücken. Schwere beleidigende Online-
Botschaften, Androhung von Vergewaltigung etc. erleben besonders Bloggerinnen und (Online-)Journalistinnen
sowie Politikerinnen und Wissenschaftlerinnen. Frauen und Mädchen wird es durch systematische anonyme Dro-
hungen erschwert, das Internet gleichberechtigt zu nutzen, ihre Meinung frei zu äußern und damit eine Gegenöf-
fentlichkeit im Netz herzustellen. Doxing ist abgeleitet von der englischen Abkürzung „dox“ für Dokumente und
bezeichnet das Veröffentlichen personenbezogener Daten im Internet, zumeist mit bösartigen Absichten gegen-
über den Betroffenen.

Zu III 4. (Jugendschutzbeauftragte und Jugendschutzprogramme bei Diensteanbietern von Telemedien)
Gemäß § 7 Abs. 1 Satz 2 Jugendmedienschutz-Staatsvertrag haben geschäftsmäßige Anbieter von allgemein zu-
gänglichen Telemedien, die entwicklungsbeeinträchtigende oder jugendgefährdende Inhalte enthalten, sowie An-
bieter von Suchmaschinen bereits die Pflicht, einen Jugendschutzbeauftragten zu bestellen. Diese Pflicht muss
entsprechend umgesetzt und bekannt gemacht werden. Im Zentrum für Kinderschutz im Internet (I-KiZ) beschäf-
tigt sich ein Bündnis von Expertinnen und Experten aus Bund und Ländern, Jugendschutz und Strafverfolgung,
von Anbietern, Plattformbetreibern, Verbänden und Initiativen sowie aus Technik und Wissenschaft mit den
Rahmenbedingungen und Möglichkeiten eines zeitgemäßen Schutzes von Kindern und Jugendlichen im Internet.
Zur effektiven Umsetzung von Jugendschutzprogrammen sollte eine Kooperation der Jugendschutzbeauftragten
bei Diensteanbietern von Telemedien mit dem I-KiZ verbindlich sein.

Zu III 5. (Online-Anzeige)
Eine einfache, schnelle und zeitgemäße Online-Anzeigenerstattung ist noch nicht in allen Bundesländern mög-
lich. Dies gilt für Bayern, Bremen, Rheinland-Pfalz, Saarland und Thüringen.

Zu III 6. (Personal und Ausstattung für Strafverfolgungsbehörden und Gerichte)
Mangel an Personal oder mangelhafte Ausstattung darf nicht dazu führen, dass Täterinnen und Täter nicht ermit-
telt werden können und die Verfahren aus diesem Grunde eingestellt werden müssen. Die Justiz muss technisch
und personell gemeinsam mit den Ländern dem digitalen Zeitalter angemessen ausgestattet werden.

Zu III 7. (Europäische und internationale Ebene)
Angesichts der internationalen Dimension des Netzes sind europäische und internationale Regulierungsansätze
und die rechtliche Zusammenarbeit zu stärken.
Deutscher Bundestag – 18. Wahlperiode – 9 – Drucksache 18/11856
Zu III 8. (Forschung)
Die wissenschaftliche Forschung und empirischen Erkenntnisse zur Auswirkung von Hate Speech, Fake News
und Social Bots auf die öffentliche Debattenkultur stehen noch am Anfang. Die Sachverständigen der Anhörung
„Fake News, Social Bots, Hacks und Co. – Manipulationsversuche demokratischer Willensbildungsprozesse im
Netz“ des Ausschusses Digitale Agenda am 25. Januar 2015 bekräftigten, dass eine Ausweitung der Forschung
dringend geboten sei.

Zu III 9. (Unabhängiges Fact-Checking)
Es werden derzeit bereits erste, teilweise von Diensteanbietern von Telemedien selbst finanzierte, Versuche un-
ternommen, Nachrichten/Fakten durch externe Rechercheeinheiten nach journalistischen Standards überprüfen
zu lassen. In diesem Zusammenhang sollten Standards etabliert werden, die eine verlässliche, dauerhafte und vor
allem unabhängige Faktenüberprüfung sicherstellen, die sich an Modellen wie etwa denen der Freiwilligen
Selbstkontrolle Multimedia-Diensteanbieter, Unterhaltungssoftware Selbstkontrolle und Freiwilligen Selbstkon-
trolle der Filmwirtschaft orientieren. Eine entsprechende Organisation nach dem Modell der Freiwilligen Selbst-
kontrolle sollte nur solche Rechercheeinheiten einsetzen, die bestimmte Qualitätskriterien erfüllen und diese Ein-
haltung auch regelmäßig überprüfen. Zudem wäre eine Kontrolle der Organisation durch etwa die Landesmedi-
enanstalten und außergerichtliche Beschwerdemöglichkeiten sinnvoll. Dabei ist zu prüfen, inwiefern dieses Mo-
dell über eine Verpflichtung der Diensteanbieter von Telemedien ab einer bestimmten definierten Größe, eine
bestimmte Abgabe in einen Recherche-Fonds einzuzahlen, zumindest (teil-)finanziert werden kann.
Zu III 10. (Werbeschaltung im Kontext von Fake News)
Es sind bereits erste internationale Fälle bekannt, bei denen gezielt Falschmeldungen insbesondere zu gesell-
schaftlich relevanten, politischen Ereignissen veröffentlicht wurden, um verstärkt Klickzahlen zu generieren,
dadurch werbliche Attraktivität zu steigern und Gewinne zu erzielen. Um diesen Trend zu unterbinden, wäre eine
Selbstverpflichtung der Wirtschaft sinnvoll, auf die Werbung auf solchen Webseiten zu verzichten. Dabei ist
allerdings eine rechtssichere Definition notwendig, was genau unter „gezielten Falschmeldungen“ (sogenannten
Fake News) verstanden werden soll.

Zu III 11. (Auskunftsrecht der Landesmedienanstalten)
Die Landesmedienanstalten haben für Verstöße im Bereich Hate Speech (wie etwa Rassenhass, Volkverhetzung
u. Ä., siehe § 4 JMStV) im Rahmen des Jugendmedienschutzstaatsvertrages eine klare gesetzliche Zuständigkeit,
die häufig neben der Zuständigkeit der Strafverfolgungsbehörden besteht (§ 20 JMStV). Dabei sind ihnen Unter-
sagung oder auch Bußgelder als Maßnahmen möglich. Allerdings fehlen den Landesmedienanstalten Auskunfts-
rechte, so dass sie häufig ihre Aufgaben nicht durchsetzen können. Gerade zur Entlastung der Strafverfolgungs-
behörden, für Fälle, bei denen das Interesse an der Strafverfolgung nicht gesehen wird und zur Stärkung der
Rechtsdurchsetzung könnte eine Ergänzung der Landesmedienanstalten als Auskunftsberechtigte für die Zwecke
der Verfolgung von Verstößen gegen den Jugendmedienschutzstaatsvertrag sinnvoll sein.

Zu III 12. (Aufsicht über journalistisch-redaktionelle Telemedien)
Die Regelungen nach Telemediengesetz und Rundfunkstaatsvertrag sind nicht zweckmäßig aufeinander abge-
stimmt. Telemedien mit journalistisch-redaktionellen Angeboten können mittlerweile eine der Presse und dem
Rundfunk vergleichbare Breitenwirkung entfalten und damit erheblich auf die öffentliche Meinungsbildung ein-
wirken. Diese Angebote können unter dem Deckmantel eines seriösen Journalismus gezielt Falschmeldungen
verbreiten, aus politischen oder auch gewinnorientierten Absichten. Diese Telemedien sind bereits jetzt journa-
listischen Sorgfaltspflichten unterworfen (§ 54 Abs. 2 Rundfunkstaatsvertrag), im Falle des Verstoßes können
aber keine Aufsichtsmaßnahmen ergriffen werden. Hier sollte sich die Bundesregierung mit den Ländern ins
Benehmen setzen, um zu prüfen, ob Änderungen vorgenommen werden sollten, um beispielsweise den zustän-
digen Landesmedienanstalten die Sanktionsmöglichkeiten des § 59 Absatz 3 Rundfunkstaatsvertrag im Falle von
Verstößen gegen journalistische Sorgfaltspflichten zu eröffnen.

Satz: Satzweiss.com Print, Web, Software GmbH, Mainzer Straße 116, 66121 Saarbrücken, www.satzweiss.com
Druck: Printsystem GmbH, Schafwäsche 1-3, 71296 Heimsheim, www.printsystem.de

anzeiger Verlag GmbH, Postfach 10 05 34, 50445 Köln, Telefon (02 21) 97 66 83 40, Fax (02 21) 97 66 83 44, www.betrifft-gesetze.de

x

Schnellsuche

Suchen Sie z.B.: "13 BGB" oder "I ZR 228/19". Die Suche ist auf schnelles Navigieren optimiert. Erstes Ergebnis mit Enter aufrufen.
Für die Volltextsuche in Urteilen klicken Sie bitte hier.