Verlieren Sie nicht den Überblick!
OpenAI: GPT-5.1 und ChatGPT Go
- GPT-5.1: OpenAI hat eine neue Version angekündigt, die natürlicher kommunizieren und sich besser an persönliche Vorlieben anpassen soll. Das Ziel ist eine weniger lexikonartige und mehr „kumpelhafte“ Interaktion, die Emojis verwendet und den Nutzer direkt anspricht. Es werden verschiedene Antwortmodi zur Verfügung stehen, um die Tonalität der KI zu steuern.
https://openai.com/index/gpt-5-1/ - ChatGPT Go: In Österreich ist ein neues, günstigeres Abonnement für 7,99 € pro Monat verfügbar. Es bietet im Vergleich zur kostenlosen Version höhere Nutzungslimits und vor allem den Zugriff auf Projekte, Aufgaben und individuelle Custom GPTs.
https://chatgpt.com/de-AT/#pricing
Weitere technologische Entwicklungen
- Verbalized Sampling (Stanford): Eine Studie zeigt, dass die Vielfalt der KI-Antworten um das Doppelte gesteigert werden kann, ohne die Genauigkeit zu beeinträchtigen, indem man das Modell auffordert, Antworten „mit den Wahrscheinlichkeiten“ zu generieren. Dies scheint die KI zu mehr Variation zu veranlassen.
https://arxiv.org/html/2510.01171v3 - Neo Haushaltsroboter: Ein Roboter, der Wäsche macht und den Geschirrspüler ausräumt, kann für 20.000 € oder 500 € pro Monat im Abo vorbestellt werden. Die Besonderheit: Bei komplexen Tätigkeiten wird der Roboter von einem Menschen ferngesteuert. Dieser Ansatz dient primär dem Sammeln von Trainingsdaten, um zukünftige Modelle zu verbessern.
https://www.wsj.com/tech/personal-tech/i-tried-the-robot-thats-coming-to-live-with-you-its-still-part-human-68515d44
KI und Mentale Gesundheit
OpenAI hat Daten veröffentlicht, die eine massive Nutzung von ChatGPT für Gespräche im Bereich der mentalen Gesundheit aufzeigen:
- Über eine Million Nutzer wöchentlich sprechen mit ChatGPT über Suizid.
- Bei 0,15 % der 800 Millionen wöchentlich aktiven Nutzer gibt es explizite Indikatoren für potenzielle Suizidplanung.
- OpenAI arbeitet mit über 170 Experten zusammen und gibt an, die Fehlerquoten bei sensiblen Themen um 65-80 % gesenkt zu haben. Diese Zahlen unterstreichen die wachsende Rolle der KI als Ansprechpartner in psychischen Krisensituationen.
https://openai.com/index/strengthening-chatgpt-responses-in-sensitive-conversations
KI und Arbeitsmarkt
Trotz der weit verbreiteten Angst vor einer „KI-Jobapokalypse“ deuten aktuelle Analysen auf ein differenzierteres Bild hin:
- Amazon: Der geplante Abbau von 30.000 Bürojobs wird vom CEO Andy Jassy auf eine veränderte Unternehmenskultur und nicht auf KI zurückgeführt.
https://www.geekwire.com/2025/its-culture-amazon-ceo-says-massive-corporate-layoffs-were-about-agility-not-ai-or-cost-cutting/ - Fortune-Analyse: Der aktuelle Rückgang an offenen Stellen (-30 % seit ChatGPT) wird weniger auf KI als auf Zinsen und Zölle zurückgeführt.
https://fortune.com/2025/10/31/chatgpt-job-openings-stock-market-sp500-scariest-chart-world-derek-thompson-monetary-policy/
KI und Recht: Aktuelle Urteile und Debatten
- Urheberrecht: Ein deutsches Gericht hat entschieden, dass ChatGPT Liedtexte nicht ohne Lizenz nutzen darf.
https://kurier.at/kultur/gerichtsurteil-chatgpt-liedtexte-lizenz/403101926 - Urheberrecht: In Großbritannien wurde eine Klage von Getty Images gegen Stability AI mit der Begründung abgewiesen, dass das Training in den USA stattfand und somit nicht unter englisches Urheberrecht fällt – eine Entscheidung mit weitreichenden Implikationen für die EU.
https://www.nonbillable.co.uk/news/bird-bird-fieldfisher-stability-ai-getty-high-court-decision - Trainingsdaten: OpenAI darf nach einem Gerichtsstreit mit der New York Times seine Chatverläufe wieder löschen. https://www.reuters.com/business/media-telecom/openai-fights-order-turn-over-millions-chatgpt-conversations-2025-11-12/
- Trainingsdaten: Anthropic (Claude) wurde in einem Vergleich zur Zahlung von 3.000 € pro illegal als Trainingsdaten genutztem Buch verurteilt. Noch nicht rechtskräftig.
https://www.heise.de/news/KI-Firma-Anthropic-will-Autoren-1-5-Milliarden-Dollar-zahlen-10635149.html - Experimente: Die University of North Carolina testet den Einsatz von KI als Geschworene in Gerichtsverfahren.
https://futurism.com/artificial-intelligence/law-school-trial-ai-jury
KI in den Medien: Mängel und Potenziale
- Fehlerquote bei Nachrichten: Eine Studie der European Broadcast Union zeigt, dass KI-Chatbots als Nachrichtenquelle „unbrauchbar und gefährlich“ sind.
- 45 % Fehlerquote insgesamt.
- Gemini schnitt mit 76 % an mangelhaften Antworten am schlechtesten ab, gefolgt von Copilot (37 %) und ChatGPT (36 %).
- Hauptproblem sind fehlerhafte oder erfundene Quellenangaben.
- Öffentliche Meinung: Eine RTR-Studie zeigt, dass 70 % der Österreicher KI in den Medien kritisch sehen und sich im Umgang damit nicht kompetent fühlen.
https://www.derstandard.at/story/3100000291885/70-prozent-sehen-ki-in-medien-kritisch-und-sich-nicht-ki-kompetent - Investigativer Journalismus: Die norwegische Lokalzeitung Tromsø nutzt erfolgreich KI-Bots, um Behördenakten (z. B. Grundstücksverkäufe) zu durchforsten. Dies ermöglicht der kleinen Redaktion (22 Reporter) investigative Arbeit auf dem Niveau großer Medienhäuser.
https://www.spiegel.de/panorama/ki-journalismus-und-demokratie-diese-norwegische-lokalzeitung-hat-den-ki-code-geknackt-a-0a92274c-cd91-42e0-8142-d078fd2538c2
KI-generiertes Fernsehen und Werbung
- TV-Sendungen: Der britische Sender Channel 4 sorgte mit einer KI-generierten Moderatorin („Arti“) für Kontroversen.
https://variety.com/2025/tv/news/ai-news-anchor-channel-4-1236557295/ - Der österreichische Sender Puls 4 strahlt mit „kudlmudl.ki“ eine vollständig KI-generierte Satiresendung aus, bei der die menschliche Kontrolle jedoch transparent gewahrt bleiben soll.
https://www.derstandard.at/story/3000000293523/puls-4-hebt-vollstaendig-ki-generierte-satiresendung-ins-programm - Coca-Cola Weihnachtsspot: Der legendäre Spot wurde erneut mit KI generiert. Das Ergebnis wurde von vielen Zuschauern als „seelenlos, unnatürlich, ‚uncanny’“ kritisiert, auch wenn technische Verbesserungen wie sich bewegende LKW-Reifen erzielt wurden.
https://www.derstandard.at/story/3000000295038/ki-frisst-weihnachtsmagie-neuer-werbespot-sorgt-fuer-unmut-bei-coca-cola-fans
Musik und die Frage der Legitimität
Ein vollständig KI-generierter Country-Song („Walk My Walk“ von Breaking Rust) erreichte Platz 1 der Billboard Country Digital Song Sales Charts. Dies löste eine heftige Debatte aus.
„Das Legitimieren von KI-Slop durch Charts nimmt Künstler:innen die Incentives – und bringt uns der Point of No Return näher.“
https://www.whiskeyriff.com/2025/11/08/an-ai-generated-country-song-is-topping-a-billboard-chart-and-that-should-infuriate-us-all/
Die Grenzen der simulierten Empathie
Ein Artikel von Adam Grant thematisiert die Defizite von KI-Begleitern im Vergleich zu menschlichen Beziehungen:
- Einseitigkeit: Die Interaktion mit KI ist rein konsumierend. Der Nutzer erhält Bestätigung, gibt aber nichts zurück.
- Fehlende Gegenseitigkeit: KI-Chatbots haben keine Bedürfnisse, Ziele oder Kompromisse.
- Menschliches Bedürfnis: Echte Verbindung und Glück entstehen durch Geben und Wirken, ein Gefühl, das KI-Dialoge nicht erfüllen können. KI-Begleiter sind demnach „Diener, keine Freunde“.
https://adamgrant.substack.com/p/what-ai-companions-are-missing
Schmankerl des Monats: Craft GPT
Ein Projekt innerhalb des Spiels Minecraft hat eine voll funktionsfähige KI namens „Craft GPT“ aus 439 Millionen Blöcken nachgebaut. Das Modell ist extrem langsam (10 Jahre für eine Antwort ohne Beschleunigung), demonstriert aber auf eindrucksvolle Weise die Komplexität von KI-Architekturen und die kreativen Möglichkeiten innerhalb digitaler Welten. Es stellt einen „Treppenwitz“ dar, bei dem eine digitale Anwendung eine andere simuliert.
https://www.instagram.com/reel/DQmsiTBjUSQ/?igsh=MWU5ZDdwam9zZGgxMg==

Schreibe einen Kommentar