
KI & Digitale Gewalt
Wie verändert Künstliche Intelligenz unser Miteinander und wo wird sie zur Gefahr?
Diesen Fragen widmeten sich unsere Projektmitarbeiterinnen Daniela Kreklow (TBS NRW) und Sarah Alex (agentur mark GmbH) in ihrem Vortrag zu KI & Digitaler Gewalt, den sie im September 2025 beim Kölner Studierendenwerk in zwei gemeinsam organisierten Veranstaltungen mit der Gleichstellungsbeauftragten Stefanie Nicolini hielten.
Gestartet wurde zunächst mit der Frauenversammlung – eine Woche später folgte die Männerversammlung.
Sensibilisieren – Verstehen – Handeln
Ziel der Veranstaltungen war es, Bewusstsein für digitale Gewalt und ihre Verbindung zu Künstlicher Intelligenz zu schaffen. Digitale Gewalt ist längst kein Randphänomen mehr: Ob über soziale Netzwerke, Messenger-Dienste oder E-Mails – Beleidigungen, Identitätsdiebstahl, Deepfakes oder diskriminierende KI-Algorithmen sind Teil einer neuen digitalen Realität.
In einem Impulsvortrag vermittelte Daniele Kreklow erste Einblicke in die unterschiedlichen Erscheinungsformen digitaler Gewalt – vom Cybermobbing über Deepfakes bis hin zu Doxxing und Voice Cloning.

Deepfakes, Diskriminierung und Vertrauen in Medien
Ein Schwerpunkt des Vortrags lag auf dem Thema Deepfakes – also KI-generierten Bildern, Stimmen oder Videos, die inzwischen täuschend echt wirken. Erschreckend ist dabei, wie einfach es inzwischen geworden ist, Videos und Bildmaterial für Deepfakes zu erzeugen. Mit frei verfügbaren Tools und wenigen Klicks lassen sich täuschend echte Manipulationen erstellen – ein Umstand, der die Hemmschwelle für Missbrauch erheblich senkt und verdeutlicht, wie dringend Aufklärung und digitale Kompetenz geworden sind.
Anhand von Beispielen wurde gemeinsam mit den Teilnehmenden diskutiert, wie schwer es heute fällt, digitale Fälschungen zu erkennen, und welche Risiken daraus für Demokratie, Sicherheit und Privatleben entstehen – aber auch, welche neuen Strategien im Umgang notwendig werden.
Ebenso im Fokus: KI-Diskriminierung. Wenn Algorithmen mit unausgewogenen Daten trainiert werden, spiegeln sie gesellschaftliche Vorurteile wider – etwa, wenn Bewerbungs-KIs Frauen oder Menschen mit Migrationsgeschichte benachteiligen. Deutlich wurde: KI kann viele Prozesse schneller und objektiver machen, braucht dafür jedoch gute Rahmenbedingungen – angefangen bei hoher Datenqualität über nachvollziehbare Algorithmen bis hin zu ethischen Leitplanken.

Austausch und Gruppenarbeit – Vom Erkennen zum Handeln
Im Anschluss an den Impulsvortrag folgte eine Gruppenarbeitsphase, in der reale Fallbeispiele diskutiert wurden:
- Doppelaccount in sozialen Netzwerken
- Deepfake-Fotos von Studierenden
- KI-generierte Fake-Sprachnachrichten
- Manipulierte Kundenbewertungen
- Ungleichheit durch KI-Algorithmen
- Vertrauensverlust in Medien
Die Teilnehmenden analysierten, wo digitale Gewalt beginnt, welche Folgen sie hat und wie man ihr begegnen kann – individuell, organisatorisch und gesellschaftlich. Dabei entstand ein reger Austausch über Schutzmechanismen, Medienkompetenz und Verantwortung im digitalen Raum.

Zwischen Regulierung und Verantwortung
Ein weiterer thematischer Aspekt war der EU AI Act, der seit August 2024 in Kraft ist und bis 2030 schrittweise umgesetzt wird. Die Verordnung bringt nicht nur Transparenzpflichten für KI-Systeme mit sich, sondern verpflichtet Unternehmen auch KI-Kompetenzen bei Mitarbeitenden, die mit KI arbeiten, sicherzustellen.
Im Zusammenhang mit Deepfakes wurde außerdem die Kennzeichnungspflicht für KI-generierte Inhalte thematisiert. Diese soll verpflichtend werden und damit einen wichtigen Beitrag leisten, um Fälschungen im digitalen Raum einzudämmen und das Vertrauen in digitale Mediale zu stärken.
Fazit: KI als Spiegel unserer Gesellschaft
„Wir alle sind gefordert – wer die Schwachstellen kennt, kann sie gestalten. Bewusstsein, Vielfalt und Transparenz sind die besten Schutzmechanismen gegen digitale Diskriminierung.“
Daniela Kreklow
Die zentrale Botschaft: Digitale Gewalt geht uns alle an. Niemand ist vollständig geschützt, aber jede und jeder kann dazu beitragen, digitale Räume sicherer zu gestalten – durch Aufklärung, solidarisches Handeln und einen kritischen Umgang mit KI.
Besonders eindrücklich wurde: KI ist sowohl ein wertvolles Werkzeug als auch ein Risiko. Dieselbe Technologie, die in Medizin, Bildung oder Verwaltung Fortschritt ermöglicht, kann auch zur gezielten Manipulation, Diskriminierung oder Täuschung eingesetzt werden.
Darum braucht es neben Regulierung vor allem eins: ein waches Bewusstsein für Verantwortung, Fairness und Menschlichkeit im digitalen Wandel.
Wir danken dem Kölner Studierendenwerk, insbesondere der engagierten Gleichstellungsbeauftragen Stefanie Nicolini für die Einladung und die großartige Organisation.
Möchten Sie das Thema in Ihrer Einrichtung vertiefen? Ob Workshop, Impulsvortrag oder Dialogformat – wir unterstützen Sie gerne dabei, KI und digitale Verantwortung gemeinsam zu gestalten.
Nehmen Sie gerne Kontakt zu uns auf:
Daniela Kreklow
Zukunftszentrum KI NRW | TBS NRW e.V.
daniela.kreklow@tbs-nrw.de
Sarah Alex
Zukunftszentrum KI NRW | agentur mark GmbH
alex@agenturmark.de
Weitere konkrete Angebote: Diversitätsmanagement, Diskriminierung & KI « Zukunftszentrum KI NRW
Zurück


