KI-Update kompakt: Nvidia, Grok-3, Alibaba Wan2.1, Call of Duty
Nvidia macht 43-mal mehr Jahresgewinn als AMD
Nvidia hat sein Fiskaljahr 2025 mit einem Nettogewinn von 72,9 Milliarden US-Dollar abgeschlossen – das 43-fache dessen, was Konkurrent AMD im gleichen Zeitraum erwirtschaftete. Der Gesamtumsatz des Unternehmens stieg auf 130,5 Milliarden US-Dollar, was einem Wachstum von 114 Prozent im Jahresvergleich entspricht.
Haupttreiber des Erfolgs sind die KI-Beschleuniger, deren Quartalsumsatz um 18 Prozent auf 32,6 Milliarden Dollar wuchs. Laut CEO Jensen Huang erwirtschaftet auch die neueste Blackwell-Generation bereits Milliardenumsätze. Gleichzeitig verzeichnete das GeForce-Grafikkartengeschäft einen Rückgang um 22 Prozent auf 2,5 Milliarden Dollar, was Finanzchefin Colette Kress auf begrenzte Verfügbarkeit von Chips zurückführt.
Für Forschung und Entwicklung investierte Nvidia im vergangenen Jahr 12,9 Milliarden Dollar – 50 Prozent mehr als im Vorjahr. Für das laufende Quartal prognostiziert das Unternehmen einen weiteren Umsatzanstieg auf etwa 43 Milliarden Dollar.
DeepSeek zieht neues KI-Modell R2 vor
Die chinesische KI-Firma DeepSeek will anscheinend von dem aktuellen Hype um das eigene KI-Modell R1 profitieren und den Nachfolger R2 früher als geplant herausgeben. Ursprünglich war DeepSeek R2 für Anfang Mai vorgesehen, aber jetzt wird berichtet, dass das Unternehmen das neue KI-Modell so früh wie möglich freigeben will. Eine flache Firmenstruktur dürfte dabei helfen, denn DeepSeek organisiert sich anders als andere chinesische Unternehmen.
Die KI-Firma verzichtet auf die traditionellen Hierarchien. Zudem vermeidet DeepSeek den typischen Druck von Tech-Unternehmen Chinas auf niedrig bezahlte Mitarbeiter sowie die "996" genannte Regel: Arbeit von 9 Uhr morgens bis 9 Uhr abends an 6 Tagen pro Woche. Ehemalige Mitarbeiter sprechen von 8-Stunden-Tagen in einer kollaborativen Atmosphäre. R2 soll das Programmieren besser unterstützen und in mehr Sprachen diskutieren können.
Grok 3 bietet Sprachmodus extra für Verschwörungstheorien
Elon Musks KI-Unternehmen xAI hat seine neue Modell-Familie Grok 3 um einen Voice Mode erweitert, der sich deutlich von vergleichbaren Angeboten anderer Anbieter unterscheidet. Im Gegensatz zu OpenAI, Anthropic und Google verzichtet xAI bewusst auf strenge Sicherheitsmaßnahmen und Leitplanken.
Der Sprachmodus bietet verschiedene Stile, darunter "sexy", "verwirrt" und sogar einen speziellen Modus für Verschwörungserzählungen. Die KI kann stöhnen, schreien und fluchen – Verhaltensweisen, die bei anderen Anbietern blockiert werden. Obwohl nur eine weibliche Stimme verfügbar ist, können Nutzer zwischen verschiedenen Stimmungen wählen.
Musk begründet den Verzicht auf Sicherheitsmaßnahmen damit, dass man solche Inhalte "mit Humor nehmen" müsse. Diese Philosophie zeigt sich auch beim Bildgenerator von Grok, der kaum Einschränkungen bei der Erstellung problematischer Inhalte aufweist.
Amazons Alexa+ kann mehr dank KI
Amazon hat in New York den Startschuss für das digitale Assistenzsystem Alexa+ gegeben. Dank generativer KI ist die neue Alexa so zugänglich, wie man es von Dialogen mit KI-Chatbots wie ChatGPT, Google Gemini oder Perplexity kennt. Im Unterschied zur bisherigen Version soll die neue Alexa besser den Kontext erfassen, sich ohne Wiederholung des Aktivierungsworts ansprechen lassen und bei Unklarheiten selbständig nachfragen. Außerdem kann sie als "Agent" auftreten und Bestellungen bei Liefer- und Buchungsdiensten aufgeben. Zudem kann man Alexa unter anderem Videomaterial der zum Konzern gehörenden Ring-Kameras durchsuchen lassen, etwa "ob in den vergangenen Tagen der Hund ausgeführt wurde".
Statt starrer Regeln basiert das neue Modell auf mehreren Sprachmodellen, erklärte Daniel Rausch, Vice President für Alexa und Echo bei Amazon. Zu den Modellen gehören die hauseigene Variante namens Amazon Nova und das Sprachmodell "Claude" von Anthropic (Amazon ist an dem Start-up beteiligt). Welches Modell zum Einsatz kommt, soll Alexa+ je nach Kontext entscheiden, sagt Rausch. Alexas erweiterte KI-Talente wird es erstmals in einem kostenpflichtigen Abo geben, nicht mehr als Gratis-Zugabe zu Lautsprecher-Hardware. Für das Abo werden knapp 20 US-Dollar fällig. Wer Prime bereits abonniert hat, muss nichts extra zahlen. Das neue System läuft allerdings nicht auf allen Bestandsgeräten. Verfügbar ist die überarbeitete Alexa-Version ab März 2025 zunächst nur in den USA als Teil eines öffentlichen Beta-Tests. Ein Deutschlandstart ist geplant, ein Datum nennt Amazon aber noch nicht.
Alibaba veröffentlicht Video-KI-Modelle als Open Source
Alibaba Cloud hat vier Open-Source-Versionen seiner videogenerierenden KI Wan2.1 veröffentlicht. Die Modelle, mit 14 und 1,3 Milliarden Parametern, können hochwertige Videos aus Text- und Bildeingaben erzeugen und sind über die Plattformen Model Scope und Hugging Face frei verfügbar.
Wan2.1 führt laut Alibaba die Bestenliste des VBench-Benchmarks mit 82,22 Prozent Gesamtbewertung an und ist das einzige Open-Source-Modell unter den Top 5 der videogenerierenden KIs. Besonders fortschrittlich ist die Fähigkeit zur "Multi-Objekt-Interaktion", bei der mehrere Personen oder Objekte realistisch miteinander interagieren können.
Die Veröffentlichung folgt dem Beispiel der chinesischen textgenerierenden KI DeepSeek und könnte den Wettbewerb mit US-amerikanischen Entwicklern verstärken. Alibaba plant zudem Investitionen von rund 52 Milliarden US-Dollar in Cloud-Computing und KI-Infrastruktur.
Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.
- Apple Podcasts
- Google Podcasts
- RSS-Feed
- Spotify
- KI-Update als Newsletter abonnieren
- Zu unserem Partner: The Decoder
Auch Sprachmodelle können zu viel nachdenken
Große Sprachmodelle, besonders solche, die für logisches Denken optimiert sind, zeigen eine überraschende Schwäche: Sie denken oft zu viel nach. Eine neue Studie von Forscherinnen und Forschern verschiedener US-Universitäten und der ETH Zürich hat dieses als "Overthinking" bezeichnete Phänomen systematisch untersucht und quantifiziert. In interaktiven Umgebungen, wo KI-Modelle selbstständig Ziele verfolgen und handeln müssen, führt übermäßiges Nachdenken zu einem "Nachdenk-Aktions-Dilemma". Die Modelle verlieren sich in internen Simulationen bzw. dem "Nachdenken" und Vernachlässigen wichtiges Feedback aus der realen Umgebung.
Die gute Nachricht: Bereits einfache Maßnahmen können dieses Problem reduzieren. Besonders vielversprechend erscheint die Verwendung von Werkzeugen wie Programmiersprachen. Hier können die Sprachmodelle einen Lösungsplan erstellen, diesen in Code schreiben und ihn dann ausführen lassen. Das entlastet das "interne Nachdenken" und nutzt die Stärken der Sprachmodelle besser. Als Praxistipp kann man also die Modelle bei schwierigen Problemen bitten, doch bitte Code zu verwenden.
Forscher entdecken, wie KI-Modelle zeitliches Wissen verarbeiten
Wissenschaftler haben erstmals entschlüsselt, wie große Sprachmodelle mit zeitabhängigen Informationen umgehen. Forscher der Korea University, Upstage AI und AIGEN Sciences identifizierten spezielle Komponenten in KI-Systemen, sogenannte "Temporal Heads", die für die Verarbeitung zeitbezogener Daten verantwortlich sind.
Die "Temporal Heads", also Teilbereiche des künstlichen neuronalen Netzes, reagieren nicht nur auf direkte Jahresangaben wie "2004", sondern auch auf beschreibende Zeitreferenzen wie "das Jahr der Olympischen Spiele in Athen". Das deutet darauf hin, dass diese Komponenten eine zeitliche Dimension verarbeiten können, die über bloße Zahlen hinausgeht. Interessanterweise beeinträchtigt die Deaktivierung dieser Komponenten nur die zeitbezogenen Fähigkeiten des Modells, während andere Funktionen intakt bleiben. Die Entdeckung könnte weitreichende Folgen für die Weiterentwicklung von KI-Systemen haben. Entwickler könnten künftig gezielt das zeitabhängige Wissen aktualisieren, ohne das gesamte Modell neu trainieren zu müssen.
KI-Avatar der TK soll internationalen Fachkräften helfen
Die Techniker Krankenkasse (TK) will Führungskräfte dabei unterstützen, internationale Fachkräfte umfassend über die deutsche Sozialversicherung aufzuklären. Dabei beantwortet ein KI-Avatar namens GoVanessa rund um die Uhr mehr als 2000 Fragen in sechs verschiedenen Sprachen, darunter Englisch, Französisch, Spanisch, Hindi, Mandarin und Deutsch. Der KI-Avatar ist ein digitales Abbild der TK-Mitarbeiterin Vanessa Rais, die selbst ausländische Fachkräfte berät und daher die Fragen kennt, die die Künstliche Intelligenz beantworten muss.
Bei GoVanessa kommt laut TK eine sogenannte deterministische KI zum Einsatz, die ausschließlich "auf geprüfte Antworten zurückgreift und keine neuen Inhalte lernt". Zudem bleiben alle Fragen anonym, IP-Adressen werden nicht gespeichert, informiert die Krankenkasse.
Activision verwendet generative KI in "Call of Duty"
Activision hat auf der Spieleplattform Steam offiziell bestätigt, dass bei der Entwicklung von einigen "Call of Duty"-Titeln generative KI zum Einsatz kommt. Auf den Produktseiten mehrerer Spiele der Reihe findet sich nun der Hinweis: "Unser Team setzt generative KI-Tools ein, um ausgewählte Spielelemente zu entwickeln."
Der Disclaimer erscheint bei "Black Ops 6" (2024), "Warzone" (2020) und dem 2022 veröffentlichten "Call of Duty", während ältere Titel wie "Black Ops: Cold War" (2020) keinen entsprechenden Hinweis tragen. Die genaue Art und der Umfang des KI-Einsatzes bleiben jedoch unklar.
Fans hatten bereits länger vermutet, dass Activision KI für Promo-Bilder und Ingame-Items verwendet. Die Anzeige des KI-Hinweises ist Teil einer neuen Steam-Richtlinie, die Entwickler zur Transparenz beim Einsatz generativer KI verpflichtet. Laut einer aktuellen Branchenumfrage nutzen 36 Prozent der Spieleentwickler in ihrem Job KI-Tools.
KI-vertonte Bücher fürs Streaming
Eleven Labs hat den Eleven Reader vorgestellt. Eine App, über die man Bücher und Inhalte veröffentlichen kann, die dann in der App mittels KI-Stimme vorgetragen werden. Ab sofort ist der Dienst offen verfügbar. Die KI-vertonten Inhalte werden zudem von Spotify zugelassen. Dazu kooperieren die beiden Unternehmen seit Kurzem. Die Autorinnen und Autoren werden nicht für die Bereitstellung ihrer Inhalte in der App bezahlt, sie bekommen aber eine Vergütung, sobald Nutzende ihre Inhalte anhören.
Bei einer Hörzeit von elf Minuten sollen die Autorinnen und Autoren 1,10 US-Dollar bekommen. Eleven Labs will so die Vertonung von Büchern leistbarer machen. Dies sei bisher nämlich recht teuer gewesen, sodass nur etwa 5 Prozent aller Bücher als Audio-Version verfügbar sind, schreibt das KI-Unternehmen in einem Blogbeitrag.