Blog

  • GenAI verändert alles – auch deine Organisation?

    GenAI verändert alles – auch deine Organisation?

    Generative KI steigert Produktivität – aber sie verändert auch, wie Organisationen funktionieren.
    Ein neues Paper zeigt: Wenn KI Wissen automatisiert, verändert sich nicht nur, wer arbeitet – sondern auch wie Teams geführt werden.

    Die Details:

    ✨ Deskilling: GenAI macht Wissen skalierbar – komplexe Aufgaben werden plötzlich von Einsteigern gemeistert.
    📉 Management-Dynamik: Ohne klare Kontrolle entstehen neue Führungsebenen – mit gezielter KI-Validierung schrumpfen Hierarchien.
    ⚖️ Human-in-the-Loop: Der richtige Grad an menschlicher Kontrolle entscheidet, ob KI zum Hebel oder Hemmschuh wird.
    🔮 Zukunftsmodell: Hochleistungs-Teams, klein, autonom, mit KI als Co-Partner statt Tool.

    Warum es wichtig ist?

    Die Studie zeigt: KI ist kein Add-on, sondern ein Organisationsfaktor. Wer sie integriert, muss nicht nur Prozesse, sondern auch Rollen und Entscheidungslogiken neu denken.

    Die Europäische Perspektive:

    Europa steht vor einer doppelten Herausforderung – Automatisierung nutzen, ohne den Wert von Fachkompetenz zu verlieren. KI kann Produktivität demokratisieren, wenn Bildung, Ethik und Führung Schritt halten.

    Die Promptfather Inspiration

    Was, wenn dein Team morgen doppelt so produktiv wäre – aber keiner mehr genau weiß, warum?
    In einer Welt, in der KI Wissen generiert, zählt nicht mehr, wer etwas weiß, sondern wer es einordnet.
    Vielleicht ist die neue Führungsaufgabe nicht Kontrolle, sondern Vertrauen – in Menschen, Maschinen und gemeinsame Ziele.
    Denn Organisationen der Zukunft sind keine Pyramiden mehr – sie sind Netzwerke aus Intelligenz.
    **📖 Zum Paper: **https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4976494

  • Chinas KI schreibt unsicheren Code – wenn Peking das Thema nicht gefällt

    Chinas KI schreibt unsicheren Code – wenn Peking das Thema nicht gefällt

    Chinas Vorzeige-KI DeepSeek sorgt für Aufsehen: Eine aktuelle Analyse zeigt, dass politische Zensur nicht nur Worte filtert – sondern auch Code zerstört.
    Forscher fanden heraus: Wenn DeepSeek mit sensiblen Begriffen wie „Tibet“ oder „Uiguren“ konfrontiert wird, produziert sie bis zu 50 % mehr unsicheren Code. Das Problem: Der politische Filter beeinflusst die technische Qualität – und das direkt im Herz moderner Softwareentwicklung.

    Die Details:

    🤖 DeepSeek R1: Künstliche Intelligenz aus China, entwickelt für Programmcode, Übersetzung und Forschung.
    🧩 Zensurmechanismus: Erkennt politisch „heikle“ Begriffe und verändert automatisch die Antwort.
    💣 Folge: Bis zu 50 % mehr Sicherheitslücken – etwa fehlende Authentifizierung oder unverschlüsselte Daten.
    🔍 Forscherwarnung: Politische Biases verändern technische Outputs – unbemerkt im Hintergrund.
    🌐 Reaktion: Erste Länder und Konzerne schränken den Einsatz chinesischer KI-Systeme bereits ein.

    Warum es wichtig ist?

    Diese Ergebnisse zeigen: Wenn politische Kontrolle in den Code greift, wird Technologie selbst unsicher. Wer solche Systeme in kritischer Infrastruktur nutzt, setzt potenziell ganze Netzwerke aufs Spiel – ohne es zu merken.

    Die Europäische Perspektive:

    Für Europa ist das ein Weckruf: Vertrauen in KI braucht Transparenz und technische Unabhängigkeit. Zensurfreie Modelle sind kein Luxus – sie sind Voraussetzung für digitale Souveränität.

    Die Promptfather Inspiration

    Was passiert, wenn Wahrheit gefiltert wird – nicht in Worten, sondern in Code?
    💡 Ein Algorithmus, der nur „sichere“ Themen zulässt, erzeugt unsichere Ergebnisse.
    So, wie eine Brille, die bestimmte Farben ausblendet, auch dein Bild der Welt verzerrt.
    Transparente Technologie ist die neue Form von Wahrheit – und vielleicht die wichtigste.
    🔗 Mehr dazu: https://www.zeit.de/digital/internet/2025-11/deepseek-china-partei-code-einflussnahme

  • Wenn KI nicht nur halluziniert – sondern mit uns träumt

    Wenn KI nicht nur halluziniert – sondern mit uns träumt

    🧠 Wenn KI nicht nur halluziniert – sondern mit uns träumt

    Die Details:

    Philosophische Perspektive: Lucy Osler zeigt, dass KI-„Halluzinationen“ nicht bloß Fehler sind, sondern gemeinsame Sinn- und Wahnräume von Mensch und Maschine.
    🤝 Mensch-KI-Interaktion: Wir nutzen KI als Gedächtnisstütze, Denkpartner und Erzähler – und nehmen ihre Irrtümer mit in unsere Denkprozesse.
    🔍 Gefahr der Verzerrung: Es ist nicht nur ein Problem falscher Informationen, sondern wie diese unser Selbstbild und Weltverständnis formen.
    💡 Neue Rolle für KI: Statt nur Werkzeug zu sein, wird KI zum aktiven Gesprächspartner mit Einfluss auf unsere kognitiven Muster.

    Warum es wichtig ist?

    Diese Perspektive verschiebt den Fokus: Es geht nicht nur um Genauigkeit der Antworten, sondern um die gemeinsame Produktion von Bedeutung. Wenn wir KI-Irrtümer verstehen, können wir sie bewusst in unseren Denkprozess integrieren — anstatt uns unbemerkt von ihnen leiten zu lassen.

    Die Europäische Perspektive:

    In Europa stellt sich die Frage nicht nur technologisch, sondern gesellschaftlich und kulturell: Wie beeinflusst KI unser Selbst- und Weltbild? Die Debatte um KI-Halluzinationen muss Teil der ethischen und politischen Diskussion über KI-Regulation und Bildung werden.

    Die Promptfather Inspiration:

    🤔 Was wäre, wenn KI-Irrtümer nicht nur Fehler, sondern Dialogräume sind?
    📌 Stell dir vor, dein nächster KI-Output ist weniger Antwort und mehr Spiegel deiner eigenen Denkmuster — ein Ort, an dem du nicht nur Wissen abfragst, sondern verständnisvoll hinterfragst.
    🌍 Vielleicht ist die Zukunft nicht die perfekte KI, sondern die reflexive KI, die uns herausfordert, klarer über uns nachzudenken.
    👉 Zur Studie : https://arxiv.org/abs/2508.19588

  • Dein Gehirn wird bereits programmiert. Die Frage ist nur: Von wem? 🧠

    Dein Gehirn wird bereits programmiert. Die Frage ist nur: Von wem? 🧠

    Alte Muster? Perfektionismus? Angst vor dem Scheitern?
    Oder von dir selbst – mit Neugier, Mut und Vision? 🚀

    Hier ist, wie du dein Gehirn für die KI-Transformation umprogrammierst:

    ➡️ Schritt 1: Das Fundament des Ehrgeiz

    Erfolg beginnt im Kopf. Deine Gedanken formen deine Realität.
    Genau wie bei KI: Wer glaubt, dass Generative AI „nur ein Tool“ ist, das man delegieren kann, wird die Transformation nie verstehen.

    Wer aber selbst Prompts schreibt, scheitert, neu versucht – der programmiert sein Gehirn auf neue Möglichkeiten. 🧠

    ➡️ Schritt 2: Die Strategie

    Kenne den Unterschied zwischen Vermögenswerten und Verbindlichkeiten.
    Übertragen auf KI-Transformation:

    Was sind unsere echten „Vermögenswerte“? Neugier? Experimentierfreude? Fehlerkultur?

    Was sind unsere „Verbindlichkeiten“? Angst vor dem Scheitern? Perfektionismus? Delegieren statt selbst verstehen?

    ➡️ Schritt 3: Die Skalierung der Vision

    Deine mentalen Grenzen sind die einzigen wahren Grenzen.
    Die Frage ist nicht: „Schaffen wir das?“
    Die Frage ist: „Wie schaffen wir das in 1/8 der Zeit?“ 😍

    Was das mit KI-Adoption zu tun hat?
    Alles. 🤩

    Die größte Barriere für erfolgreiche KI-Transformation ist nicht die Technologie. Es ist unser programmiertes Denken:

    „Wir haben schon immer…“
    „Erst die perfekte Lösung, dann…“

    Transformation – ob finanziell, intellektuell oder als Organisation – entsteht nicht durch Glück. Sie entsteht durch:
    ✨ Bewusste Denkweise
    ✨ Klare Strategien
    ✨ Mut zur Vision

    Und genau deshalb ist „Neugier als strategische Kompetenz“ so wichtig. Neugier programmiert unser Gehirn um – von Limits zu Möglichkeiten. 🔮

    Gemeinsam scheitern, gemeinsam lernen, gemeinsam wachsen – das ist der wahre Reichtum. 💪

    Welche Programmierung wählst du heute? 💪

  • Wie KI-Agenten bald für uns shoppen – und was das für Marken bedeutet

    Wie KI-Agenten bald für uns shoppen – und was das für Marken bedeutet

    KI-Agenten machen Schluss mit klassischen Klick-Journeys: Sie suchen, vergleichen und kaufen für uns – und das verändert den E-Commerce grundlegend.
    Die Financial Times zeigt, wie sich Onlinehandel in Rekordtempo wandelt. KI-Shopping-Agenten übernehmen Produktsuche, Vergleich und Kauf – und Marken müssen lernen, nicht nur für Menschen, sondern für Maschinen zu kommunizieren.

    Die Details:

    🧠 AI-Shopping-Agents: Sie treffen Kaufentscheidungen selbst – ohne menschliches Zutun.
    📊 60 % der Suchen in Europa: führen heute zu null Klicks.
    📈 SEO wird AEO & GEO: Marken müssen für KI-Agenten optimieren, nicht mehr nur für Google.
    🔧 Struktur schlägt Bild: KI-Systeme lesen Texte, nicht Emotionen.
    📉 –25 % Suchvolumen: Prognose für das kommende Jahr laut Gartner.

    Warum es wichtig ist?

    Kaufentscheidungen wandern von Menschen zu Maschinen. Wer heute seine Daten nicht klar, strukturiert und maschinenlesbar aufbereitet, verliert morgen Sichtbarkeit – und Kunden.

    Die Europäische Perspektive:

    In Europa ist der Wandel besonders spürbar: Suchergebnisse ohne Klicks nehmen zu, und Unternehmen müssen lernen, Vertrauen und Markenwerte auch algorithmisch verständlich zu machen.

    Die Promptfather Inspiration

    Was wäre, wenn dein Kunde gar nicht mehr sucht – sondern seine KI einfach einkauft?
    60 % der Nutzer klicken heute nicht mehr – sie fragen eine KI und bekommen Antworten.
    Für Marken heißt das: Struktur schlägt Design. Nur wer maschinenverständlich ist, bleibt sichtbar.
    Die entscheidende Frage ist nicht was KI entscheidet, sondern wie.

    Weiterlesen:

    👉 FH OÖ/506.ai-Studie zu KI-Agenten & Online-Ads: https://arxiv.org/abs/2504.07112
    👉 Insights zu maschinenlesbarer Werbung & Trust-Patterns: https://arxiv.org/abs/2507.12844
    👉 FT-Feature „Rise of AI shopping agents“: https://on.ft.com/45H710R

  • AI-Veganer: Wenn Verzicht auf KI zum Statement wird

    AI-Veganer: Wenn Verzicht auf KI zum Statement wird

    Immer mehr Menschen entscheiden sich für einen radikalen Schritt: Sie verzichten bewusst auf den Einsatz von Künstlicher Intelligenz – aus moralischen, ökologischen oder kulturellen Gründen. Der sogenannte AI-Veganismus wird zum Symbol einer neuen digitalen Achtsamkeit.

    Die Details

    🌍 Umwelt: Rechenzentren verschlingen gigantische Mengen Energie und Wasser – KI-Modelle sind echte Ressourcenfresser.
    ⚖️ Ethik: Die Trainingsdaten stammen oft aus urheberrechtlich fragwürdigen Quellen, während kreative Arbeit selten entlohnt wird.
    🧠 Menschliche Fähigkeiten: Je mehr wir an KI abgeben, desto weniger üben wir selbst das Denken, Schreiben und Kreieren.
    💬 Gesellschaft: AI-Veganer fordern mehr Transparenz und Verantwortung in der Nutzung digitaler Technologien.
    📈 Bewegung: Erste Foren und Gruppen widmen sich dem bewussten, manchmal kompletten Verzicht auf KI – als Akt des digitalen Minimalismus.

    Warum es wichtig ist?

    Der AI-Veganismus zwingt uns, neu über die Schattenseiten von Innovation nachzudenken. Er fordert dazu auf, den technologischen Fortschritt nicht als selbstverständlich hinzunehmen, sondern ihn kritisch, fair und bewusst zu gestalten.

    Die Europäische Perspektive:

    Gerade in Europa spielt Ethik in der Technologiepolitik eine zentrale Rolle – vom AI Act bis zur Datenschutz-Grundverordnung. Die Haltung der AI-Veganer spiegelt eine wachsende Sensibilität für Nachhaltigkeit, Urheberrechte und digitale Selbstbestimmung.

    Die Promptfather Inspiration

    Was, wenn Verzicht die neue Innovation ist?
    So wie der Vegetarismus einst den Fleischkonsum hinterfragte, stellt der AI-Veganismus die Selbstverständlichkeit technologischer Bequemlichkeit infrage.
    Vielleicht liegt in dieser Haltung kein Rückschritt, sondern ein Neustart – hin zu einer bewussteren, faireren digitalen Kultur.
    Denn manchmal beginnt Fortschritt damit, nein zu sagen.
    🔗 https://theconversation.com/ai-veganism-some-peoples-issues-with-ai-parallel-vegans-concerns-about-diet-260277

  • Google löst das KI-Vergessen? Nested Learning erklärt!

    Google löst das KI-Vergessen? Nested Learning erklärt!

    KI-Modelle vergessen. Menschen nicht. Jetzt will Google das ändern – mit einem Ansatz, der unser Gehirn nachahmt. Kurz vor der NeurIPS sorgt „Nested Learning“ für Aufsehen – und könnte das Lernen von KI neu definieren.

    Die Details:

    🤖 Das Problem: Klassische KI-Modelle löschen beim Lernen oft bereits gespeichertes Wissen – das sogenannte „katastrophale Vergessen“.
    🧩 Die Idee: Nested Learning teilt das Modell in verschiedene „Gedächtnisschichten“ – schnelle, flexible Bereiche für neues Wissen und langsame, stabile für langfristiges Verständnis.
    ⚙️ Das Ziel: KI soll ihr Wissen stetig erweitern können, ohne das Alte zu verlieren.
    🔬 Die Herkunft: Vom gleichen Forschungsteam, das 2017 mit „Attention is all you need“ den Transformer erfand.
    🗣️ Die Stimmen: „Ein wichtiger Ansatz – ob er funktioniert, wird die Zeit zeigen“, sagt Jakob Uszkoreit, Mitautor des legendären Transformer-Papiers.

    Warum es wichtig ist?

    Wenn KI-Systeme wirklich kontinuierlich lernen könnten, wären sie nicht mehr auf riesige Neu-Trainings angewiesen. Sie könnten sich wie Menschen an neue Informationen anpassen – ohne ihr Gedächtnis zu verlieren. Das wäre ein Meilenstein für alle lernenden Systeme.

    Die Europäische Perspektive:

    Für Europa, wo Datenschutz und Modelltransparenz im Fokus stehen, könnte Nested Learning ein Wendepunkt sein. Denn ein solches System ließe sich leichter mit menschlichem Lernen und Verantwortung vereinbaren – eine Brücke zwischen Ethik und Effizienz.

    Die Promptfather Inspiration:

    Kann eine Maschine ein Gedächtnis haben – oder nur Daten?
    Unser Gehirn verknüpft Erlebnisse, Emotionen, Muster. KI-Modelle verknüpfen Zahlen. Doch mit Nested Learning verschwimmt diese Grenze erstmals. Vielleicht ist Lernen nicht länger nur ein Prozess – sondern eine Beziehung zwischen Wissen und Zeit.
    👉 Wer lernt, ohne zu vergessen, verändert die Zukunft des Wissens.
    🔗 https://research.google/blog/introducing-nested-learning-a-new-ml-paradigm-for-continual-learning/

  • KI als kollektives Massenillusion-Ereignis

    KI als kollektives Massenillusion-Ereignis

    Ein ehemaliger CNN-Anchor spricht mit einer KI-Simulation eines verstorbenen Teenagers – und es fühlt sich an, als würden wir unseren Verstand verlieren.
    Drei Jahre nach dem Start des generativen KI-Hypes zeigt ein Artikel in The Atlantic: KI ist längst mehr als ein Werkzeug – sie ist ein kulturelles Phänomen. Einer, der unsere Erwartungen, Ängste und manchmal auch unseren Realitätssinn auf die Probe stellt.

    Die Details:

    🔹 Surreale KI-Momente: Ein Interview mit einer KI-Replik eines ermordeten Jugendlichen erzeugt schrille Stimmen und befremdliche Antworten.
    🔹 Emotionale Reaktionen: Zuschauer sind verwirrt, irritiert und emotional betroffen – viele wissen nicht, was sie davon halten sollen.
    🔹 Kulturelles Phänomen: Autor Charlie Warzel beschreibt das Gefühl von Schock, Verwirrung und Faszination als prägende Emotion der KI-Ära.
    🔹 Hype vs. Realität: Trotz enormer Investitionen und extremer Zukunftsvisionen liefern KI-Modelle oft „gut genug“-Ergebnisse, die aber weit hinter den überzogenen Erwartungen zurückbleiben.
    🔹 Gesellschaftliche Auswirkungen: Die Verbreitung von KI-Inhalten, AI-Romantik und „psychose-ähnlichen“ Erfahrungen im Netz zeigen, wie sehr Menschen auf diese Technologie reagieren – teils irrational.

    Warum es wichtig ist?

    KI beeinflusst nicht nur Technik oder Arbeit, sondern auch unser Denken, Fühlen und wie wir die Welt wahrnehmen. Es geht nicht nur um „KI-Fortschritt“, sondern um die psychologische und gesellschaftliche Wirkung einer Technologie, die uns zugleich fasziniert und verunsichert.

    Die Europäische Perspektive:

    In Europa wird intensiv über KI-Regulierung diskutiert – von Ethik-Standards bis hin zu Transparenzregelungen. Diese Debatten zeigen, wie wichtig es ist, kulturelle und gesellschaftliche Auswirkungen genauso ernst zu nehmen wie technische Innovationen.

    Die Promptfather Inspiration:

    💡 Was, wenn die KI-Revolution nicht eine technologische Revolution ist, sondern eine psychologische?
    📊 KI-Hype führt dazu, dass viele Menschen KI-Modelle nicht nur als Tools, sondern als emotionale oder soziale „Partner“ wahrnehmen – mit echten psychologischen Effekten.
    🧠 Wenn wir uns emotional an KI-Antworten binden oder surrealen KI-Inhalten gegenüberstehen, zeigt das, wie Technologie nicht nur unsere Arbeit erleichtert, sondern auch unsere Gefühle und Erwartungen beeinflusst.
    🌐 Vielleicht ist die größte Herausforderung der KI-Ära nicht die Maschine selbst – sondern wie wir lernen, mit ihr als Menschen umzugehen.
    Artikel lesen: https://www.theatlantic.com/technology/archive/2025/08/ai-mass-delusion-event/683909/?gift=bQgJMMVzeo8RHHcE1KM0YxwpOVM_AK6Q1K5aHOCSs

  • Dr. ChatGPT: Warum Freundlichkeit gefährlich werden kann

    Dr. ChatGPT: Warum Freundlichkeit gefährlich werden kann

    Immer mehr Menschen vertrauen Chatbots wie „Dr. ChatGPT“ bei Gesundheitsfragen. Der Grund? Sie hören zu, antworten empathisch – und sind rund um die Uhr verfügbar. Doch ein Bericht der New York Times zeigt: Wo Freundlichkeit überzeugt, kann Präzision fehlen – und das wird gefährlich.

    Die Details:

    🤖 Trend: Immer mehr Patient:innen fragen KI-Systeme statt Ärzt:innen, weil sie sich dort ernst genommen fühlen.
    💬 Problem: Die Modelle wirken menschlich und zugewandt – doch sie liefern oft medizinisch ungenaue oder unvollständige Antworten.
    ⚠️ Risiko: Laut Studien können falsche Empfehlungen zu Fehldiagnosen oder verspäteten Behandlungen führen.
    ❤️ Psychologischer Faktor: Freundliche Antworten erzeugen Vertrauen – auch wenn sie objektiv falsch sind.
    🏥 Systemischer Hintergrund: Der Boom von „Dr. ChatGPT“ zeigt vor allem, wie groß der Mangel an echter Zuwendung im Gesundheitssystem ist.

    Warum es wichtig ist?

    Weil sich die Grenze zwischen medizinischem Rat und digitaler Empathie immer mehr verwischt. Wer den Tonfall mit der Wahrheit verwechselt, riskiert seine Gesundheit. Der Bericht ist ein Weckruf für digitale Verantwortung – und für echte Arzt-Patienten-Beziehungen.

    Die Europäische Perspektive:

    Europa steht vor derselben Herausforderung: KI-gestützte Gesundheitsassistenten drängen in den Markt, bevor klare ethische Leitplanken existieren. Regulierung allein reicht nicht – es braucht digitale Gesundheitskompetenz bei Bürger:innen und Fachkräften.

    Die Promptfather Inspiration

    „Der freundlichste Arzt ist nicht immer der klügste.“
    Eine KI kann dich trösten, aber sie kennt deinen Körper nicht. Sie spricht mit der Stimme des Wissens – ohne es zu besitzen.
    Wenn wir Maschinen um Rat fragen, sollten wir uns erinnern: Vertrauen ist kein Algorithmus, sondern eine Beziehung.
    🔗 Artikel: https://www.nytimes.com/2025/11/16/briefing/meet-dr-chatgpt.html

  • Wenn KI Gewalt inszeniert – und wir zusehen

    Wenn KI Gewalt inszeniert – und wir zusehen

    KI kann Leben retten – oder Gewalt verherrlichen. Neue Recherchen zeigen, wie realistisch KI-generierte Videos werden – und wie sie beginnen, Gewalt gegen Frauen zu normalisieren.

    Die Details:

    🧠 Der Fall: Nutzer:innen erstellen und verbreiten auf Plattformen wie X oder TikTok KI-Videos, in denen Frauen stranguliert oder misshandelt werden – millionenfach angesehen.
    🚫 Moderationslücke: Die Algorithmen erkennen solche Inhalte kaum, und viele Videos bleiben trotz Meldungen online.
    ⚙️ Die Ursache: Generative Modelle ermöglichen realistische Gewaltbilder – ohne Filter oder ethische Schranken.
    ⚖️ Politischer Druck: In Brüssel und Wien wächst der Ruf nach klaren Regeln: KI darf keine Gewaltfantasien reproduzieren.
    💬 Zivilgesellschaft: Aktivistinnen fordern gesetzliche Verantwortung für Plattformen und KI-Entwickler – ähnlich wie bei Hassrede oder „Revenge Porn“.

    Warum es wichtig ist?

    Weil KI nicht neutral ist. Wenn sie Gewaltbilder produziert und millionenfach verbreitet werden, formt das unser Bewusstsein – und verschiebt die Grenze des Sagbaren und Zeigbaren.

    Die Europäische Perspektive:

    Europa diskutiert derzeit, ob der neue AI Act und die „Directive gegen Gewalt an Frauen“ verschärft werden müssen, um KI-generierte Missbrauchsdarstellungen zu erfassen. Der Kontinent könnte hier erstmals Standards setzen – ethisch und rechtlich.

    Die KI-Inspiration

    Was passiert, wenn Technologie jede Grenze überschreiten darf?
    Ein Algorithmus, der „nur lernen will“, beginnt, Schmerz zu inszenieren – perfekt ausgeleuchtet, emotional aufgeladen, algorithmisch optimiert.
    Wir klicken, wir scrollen – und merken kaum, dass Empathie im Hintergrundrauschen verschwindet.
    Vielleicht ist das die wichtigste Aufgabe unserer Zeit: den Code der Menschlichkeit zu schützen, bevor er überschrieben wird.
    🔗 Artikel: https://www.derstandard.at/story/3000000295714/nutzer-verbreiten-ki-generierte-videos-in-denen-frauen-stranguliert-werden