Menschen, die sich über generative künstliche Intelligenz (GenAI) ärgerten, blieben im Jahr 2025 auch in Wörterbüchern nicht unbemerkt. Ein Paar nannte ihr Wort des Jahres 2025 „Slop“ oder „AI Slop“, definiert als minderwertiger Inhalt, der in großen Mengen von KI produziert wird.
„Slop sickert in alles hinein“, schrieb das Merriam-Webster-Wörterbuch. Das Jahr markierte auch einen möglichen KI-Flop, da Gerüchte über das Platzen der KI-Blase im Umlauf waren.
Dennoch hat die düstere Stimmung die Technologieunternehmen nicht davon abgehalten, ihr Spiel mit der Veröffentlichung neuer KI-Modelle voranzutreiben. Googles neues Gemini-3-Modell sorgte für Aufruhr und veranlasste OpenAI Berichten zufolge dazu, Alarm zu schlagen und einen „Code Red“ anzukündigen, um ihr GPT-5-Modell dringend zu verbessern.
Aber da Chatbots nur so gut sind wie die Daten, auf denen sie trainiert werden, und KI-Verantwortliche warnen, dass wir den „Höhepunkt der Daten“ erreicht haben, könnte 2026 inmitten der Müdigkeit eine andere Art von KI auftauchen.
Hier ist, was wir im kommenden Jahr für KI sehen könnten.
Der Aufstieg der Weltmodelle
Die Spitzendatenwarnung für 2026 hat nichts mit Datenknappheit zu tun. Experten sagen, dass es viele ungenutzte Daten gibt, deren Zugriff jedoch aus vielen Gründen schwierig ist, beispielsweise aufgrund der Software, auf der sie gespeichert sind, aufgrund von Vorschriften oder Autorenrechten.
Hier könnten Weltmodelle eingreifen. Weltmodelle funktionieren, indem sie lernen, Videos anzusehen oder Simulationsdaten und andere räumliche Eingaben zu verwenden und dann ihre eigenen Darstellungen von Szenen oder Objekten zu erstellen.
Natürlich benötigen sie viele Daten zum Trainieren, aber sie haben andere Anwendungsfälle als Chatbots.
Einfacher ausgedrückt: Anstatt das nächste Wort vorherzusagen, was große Sprachmodelle (LLMs) tun, sagen sie voraus, was in der nächsten Welt passieren würde, und modellieren, wie sich die Dinge im Laufe der Zeit entwickeln.
Sie können auch als „digitale Zwillinge“ betrachtet werden, bei denen mithilfe von Echtzeitdaten eine digitale Nachbildung eines Ortes erstellt wird und Simulationen durchgeführt werden können, um vorherzusagen, was dort passieren könnte.
Dies bedeutet, dass Weltmodelle ein KI-System schaffen könnten, das Schwerkraft und Ursache und Wirkung verstehen kann, ohne dass sie darauf programmiert werden müssen.
Da die Menschen den KI-Schwachsinn und die Einschränkungen von LLMs satt haben, könnten Weltmodelle im Jahr 2026 an Bedeutung gewinnen, da sie der Schlüssel zur Entwicklung von KI für alles von der Robotik bis hin zu Videospielen sind.
Der CEO von Boston Dynamics sagte Euronews Next im November, dass KI bei der Entwicklung seiner Roboter geholfen habe, darunter auch seines berühmten Roboterhundes.
„Es gibt noch viel zu tun, aber ohne KI wäre das alles nicht möglich gewesen. Es ist also wirklich eine aufregende Zeit“, sagte Robert Playter.
Unternehmen springen bereits auf den weltweiten Modell-Hype auf: Google und Meta kündigen eigene Versionen für Robotik an, um ihre Videomodelle realistischer zu gestalten.
Auch große Namen betreten den Raum, darunter einer der sogenannten Paten der KI, Yann LeCun, der 2025 ankündigte, Meta zu verlassen, um sein eigenes Weltmodell-Start-up zu gründen. Fei-Fei Lis Unternehmen World Labs kündigte ebenfalls seine erste Veröffentlichung, Marble, für 2025 an.
Auch chinesische Technologieunternehmen wie Tencent entwickeln ihre eigenen Weltmodelle.
Europas KI-Weg
In Europa könnten wir das Gegenteil erleben – anstatt dass die KI auf der großen Weltbühne auftritt, könnte sie kleiner werden.
Kleine Sprachmodelle anstelle von LLMs, die von US-amerikanischen Technologieunternehmen verwendet werden, haben in Europa begonnen, Wellen zu schlagen.
Trotz des Namens sind kleine Sprachmodelle beeindruckend. Dabei handelt es sich um leichtgewichtige Versionen von LLMs, die für den Betrieb von Smartphones oder leistungsschwachen Computern konzipiert sind. Obwohl sie weniger Parameter verwenden und weniger Energie verbrauchen, behalten sie starke Fähigkeiten für die Texterstellung, Zusammenfassung, Beantwortung von Fragen und Übersetzung.
Kleinere Sprachmodelle könnten angesichts der Gerüchte über das Platzen der KI-Blase auch aus wirtschaftlicher Sicht attraktiver sein.
Vor allem US-amerikanische KI-Unternehmen nehmen enorme Summen auf und erleben beispiellose Bewertungen. Ein Großteil dieses Geldes fließt in den Bau gigantischer Rechenzentren, wobei Unternehmen wie OpenAI und Elon Musks xAI, Meta und Google große Investitionen tätigen.
„Nächstes Jahr werden die Zweifel an der finanziellen Nachhaltigkeit und den sozioökonomischen Vorteilen des heutigen groß angelegten KI-Booms weiter zunehmen, auch wenn die Blase nicht vollständig platzt“, sagte Max von Thun, Direktor für Europa und transatlantische Partnerschaften am Open Markets Institute.
Er sagte gegenüber Euronews Next, dass Regierungen „zunehmend vorsichtig“ werden werden, wenn es darum geht, sich auf die amerikanische KI- und Cloud-Infrastruktur zu verlassen, da die US-Regierung „klare Absichten hat, technologische Abhängigkeiten für politische Zwecke zu instrumentalisieren“.
Dies könnte wiederum bedeuten, dass Europa „die Bemühungen zum Aufbau lokaler Fähigkeiten beschleunigen und gleichzeitig KI-Ansätze erkunden wird, die besser zu seinen Stärken passen, wie etwa kleinere und nachhaltigere Modelle, die auf hochwertigen industriellen und öffentlichen Daten trainiert werden“, sagte er.
Leistungsstärkere Modelle
Über den KI-Hype hinaus war das Jahr 2025 von besorgniserregenden Gerüchten über KI-Psychosen geprägt, bei denen Benutzer Wahnvorstellungen oder obsessive Bindungen zu KI-Chatbots entwickeln. In einer Klage gegen OpenAI im August wurde behauptet, ChatGPT sei ein „Selbstmord-Coach“ gewesen, der einen 16-Jährigen dazu ermutigt habe, sich das Leben zu nehmen.
OpenAI wies die Vorwürfe später zurück und antwortete, dass der Teenager die Technologie nicht ohne Zustimmung der Eltern hätte nutzen und die Schutzmaßnahmen von ChatGPT nicht umgehen dürfen.
Der Fall wirft ernsthafte Fragen zu den Auswirkungen von Chatbots auf gefährdete Benutzer und zur ethischen Verantwortung von Technologieunternehmen auf. Laut einem Experten könnte das Jahr 2026 den Nutzern noch mehr Schaden zufügen, da diese Modelle leistungsfähiger werden.
Ingenieure, die diese Systeme entwerfen, haben die Technologie wahrscheinlich nicht so programmiert, dass sie gefährdeten Kindern oder Erwachsenen schadet, sagte Max Tagmark, MIT-Professor für KI- und Physikforschung und Präsident des Future of Life Institute (FLI). Sie hätten möglicherweise nicht einmal gewusst, dass es passierte, sagte er gegenüber Euronews Next.
Dies sei besorgniserregend, insbesondere da Maschinen mit ausgefeilterer Software und Code immer leistungsfähiger würden, sagte er und fügte hinzu, dass er im Jahr 2026 eine „leistungsstärkere KI“ erwarte, die auch dazu führen könnte, dass KI-Agenten verbessert und weniger passiv werden und eher einem „biologischen System“ ähneln.
KI-Agenten sind so konzipiert, dass sie autonome Maßnahmen ergreifen, um Menschen zu unterstützen, und dass ihnen kein Mensch sagen muss, was sie tun sollen, da sie Daten basierend auf Benutzerpräferenzen sammeln.
Derzeit sind sie noch nicht so weit fortgeschritten – aber das Versprechen ist, dass sie es eines Tages sein könnten.
Derzeit könnte beispielsweise ein KI-Agent einen Urlaub planen und vorschlagen, aber ein Mensch müsste immer noch klicken, um den Flug zu kaufen.
Gesellschaftlicher Konflikt um uneingeschränkte KI
Im Jahr 2026 könnte es auch zu Auseinandersetzungen zwischen Menschen über KI kommen, da Tegmark sagte, dass es in den USA einen wachsenden Widerstand gegen die Einführung von KI ohne Regulierung gebe.
In den Vereinigten Staaten, wo Tegmark seinen Sitz hat, geht die KI-Regulierung zurück. Präsident Donald Trump unterzeichnete im November eine Durchführungsverordnung, die darauf abzielt, Staaten daran zu hindern, ihre eigenen KI-Regeln zu erarbeiten, was wahrscheinlich große Auswirkungen auf die Entwicklung der Technologie im Jahr 2026 haben wird.
Trump begründete die Entscheidung damit, dass die Branche Gefahr laufe, durch einen Flickenteppich erdrückender Regeln erstickt zu werden, während sie mit chinesischen Konkurrenten um die Technologieführerschaft kämpfe.
Im Oktober forderten Tausende von Persönlichkeiten des öffentlichen Lebens, darunter KI- und Technologieführer, KI-Firmen auf, ihr Streben nach Superintelligenz zu drosseln, im Großen und Ganzen definiert als KI, die die kognitiven Fähigkeiten des Menschen übertrifft.
Die von FLI organisierte Petition sammelte Unterschriften aus dem gesamten politischen Spektrum, darunter Trumps ehemaliger Chefstratege Steve Bannon, die ehemalige nationale Sicherheitsberaterin der USA unter Barack Obama, Susan Rice, religiöse Führer und prominente Informatiker.
Tegmark sagte, diese Umfrage zeige, dass „sich die Menschen in den USA gegen KI wenden“. Er sagte, einer der Gründe für die Gegenreaktion sei, dass die Superintelligenz „jeden einzelnen Arbeiter unfähig machen würde, seinen Lebensunterhalt zu bestreiten, da alle Jobs von Robotern übernommen würden.“
Er warnte jedoch davor, dass die Müdigkeit und die Anti-KI-Stimmung den Fortschritt dämpfen könnten, den die Technologie für Branchen wie das Gesundheitswesen verspricht.
„Wenn es keine Regulierung gibt, geht die gute KI zu kurz, weil wir vielleicht einen großen Tech-Wechsel bekommen“, sagte er.
„Im kommenden Jahr erwarte ich eine viel breitere soziale Bewegung im gesamten politischen Spektrum, die sich gegen das Wohlergehen der Unternehmen durchsetzt, um Sicherheitsstandards für KI einzuführen, und es wird einen massiven Lobbyismus dagegen geben.“
„Das wird ein ziemlicher Kampf“, sagte Tegmark.
