OpenAI hat die Pläne für einen sogenannten 'Adult Mode' in ChatGPT auf unbestimmte Zeit ausgesetzt. Dieser Modus hätte Nutzern ermöglicht, textbasierte Unterhaltungen mit erotischen oder erwachsenen Themen zu führen, wurde jedoch nach Kritik von Mitarbeitenden und Investoren wegen möglicher gesellschaftlicher Schäden gestoppt. Zeitgleich hat OpenAI auch die Entwicklung der textbasierten Video-KI Sora eingestellt, um sich stärker auf die Kernprodukte und strategische Forschungsprioritäten zu konzentrieren. Diese Entscheidungen folgen auf einen internen 'Code Red', den CEO Sam Altman im Dezember ausgerufen hatte, um das Unternehmen angesichts des wachsenden Wettbewerbs neu auszurichten. OpenAI setzt damit ein klares Zeichen, sich auf sichere und gesellschaftlich akzeptierte KI-Anwendungen zu fokussieren und Nebenprojekte mit potenziellen Risiken zu beenden.
Das europäische KI-Unternehmen Mistral hat ein neues Sprachmodell vorgestellt, das so ressourcenschonend ist, dass es direkt auf Smartwatches oder Smartphones betrieben werden kann. Diese Entwicklung markiert einen wichtigen Schritt in Richtung Edge-KI, bei der leistungsfähige KI-Anwendungen ohne Cloud-Anbindung auf mobilen Endgeräten laufen. Damit könnten Sprachassistenten und andere KI-basierte Funktionen künftig schneller, datenschutzfreundlicher und energieeffizienter werden. Mistral positioniert sich mit dieser Innovation als Vorreiter für KI-Lösungen, die auch auf Geräten mit begrenzter Rechenleistung einsetzbar sind. Das Modell könnte insbesondere für europäische Unternehmen und Nutzer interessant sein, die Wert auf digitale Souveränität und Datenschutz legen.
Angesichts wachsender Sorgen über durch Künstliche Intelligenz verursachte Arbeitsplatzverluste schlägt der US-Senator Mark Warner vor, Rechenzentren mit einer speziellen Steuer zu belegen. Die Einnahmen daraus sollen dazu verwendet werden, Arbeitnehmer beim Übergang in eine zunehmend KI-gesteuerte Arbeitswelt zu unterstützen. Dieser Vorschlag spiegelt die wachsende gesellschaftliche Debatte über die Auswirkungen von KI auf den Arbeitsmarkt wider und zeigt, dass politische Maßnahmen zur Regulierung und sozialen Abfederung der KI-Transformation an Bedeutung gewinnen. Die Diskussion um eine Besteuerung von KI-Infrastruktur könnte weitreichende Folgen für die Branche und deren Investitionen haben.
Chinesische KI-Modelle wie MiniMax M2.5, Kimi K2.5 und GLM-5 haben im Februar und März 2026 auf der OpenRouter-Plattform erstmals mehr Token-Verbrauch als ihre US-amerikanischen Konkurrenten verzeichnet. OpenRouter, die weltweit größte Aggregationsplattform für große Sprachmodelle, zeigt, dass chinesische Modelle inzwischen rund 61 Prozent des Token-Konsums unter den Top-10-Modellen ausmachen. Haupttreiber dieses Erfolgs sind massive Preisvorteile – chinesische Modelle sind bis zu 20-mal günstiger als US-Alternativen, was besonders bei agentischen KI-Anwendungen mit hohem Token-Bedarf ins Gewicht fällt. Die Kostenvorteile resultieren aus günstigerer Energie, massiven staatlichen Investitionen, insbesondere in erneuerbare Energien, und effizienteren Modellarchitekturen wie Mixture-of-Experts. Technisch holen die chinesischen Modelle ebenfalls auf: MiniMax M2.5 erreicht im SWE-Bench Verified Benchmark fast das Niveau von Anthropic Claude Opus 4.6. Auch US-Start-ups setzen zunehmend auf chinesische Modelle, wobei laut Andreessen Horowitz rund 80 Prozent auf Open-Source-Stacks chinesische Modelle nutzen. Herausforderungen bleiben, etwa Kapazitätsengpässe und Serviceausfälle bei Zhipu AI, die zu Preiserhöhungen und Kurseinbrüchen führten. Insgesamt markieren diese Entwicklungen einen grundlegenden Wandel im globalen KI-Markt, bei dem China zunehmend die Führungsrolle übernimmt.
Eine aktuelle Analyse von TrendAI zeigt, dass 72 Prozent der österreichischen Unternehmen KI-Projekte genehmigen, obwohl sie sich der damit verbundenen Sicherheitsrisiken bewusst sind. Der Hauptgrund dafür ist der starke Wettbewerbsdruck, der häufig über reife Governance-Strukturen und klare Verantwortlichkeiten siegt. Viele Unternehmen verfügen noch nicht über umfassende KI-Richtlinien, und die Einführung von KI erfolgt oft, bevor regulatorische oder Compliance-Anforderungen eindeutig definiert sind. Besonders kritisch sehen die Befragten den Zugriff von KI-Agenten auf sensible Daten, manipulierte Prompts und neue Angriffsflächen durch autonome Systeme. Das Vertrauen in fortschrittliche, agentische KI ist noch gering, und es fehlt häufig an Transparenz und Auditierbarkeit. Als mögliche Notfallmaßnahme befürworten 27 Prozent der österreichischen Entscheider:innen die Einführung von "Kill-Switch"-Mechanismen, um KI-Systeme bei Fehlfunktionen abschalten zu können. Die Studie unterstreicht, dass Unternehmen zwar die Risiken kennen, ihnen aber oft die Voraussetzungen fehlen, diese wirksam zu managen.
Plattformen wie OhChat und SinfulX setzen auf KI-basierte digitale Zwillinge, um Adult Creators neue Monetarisierungsmöglichkeiten zu bieten. Diese digitalen Zwillinge agieren als virtuelle Begleiter, die rund um die Uhr verfügbar sind und die Persönlichkeit sowie das Erscheinungsbild der jeweiligen Creator nachbilden. Durch den Einsatz fortschrittlicher KI-Technologien können Fans mit den Avataren interagieren, wodurch eine neue Form der Kundenbindung und Einnahmequelle entsteht. Die Entwicklung zeigt, wie KI-gestützte digitale Zwillinge zunehmend in der Unterhaltungsbranche Fuß fassen und neue Geschäftsmodelle ermöglichen.
Ab dem 3. Juni startet eine Workshopreihe, in der Teilnehmende lernen, wie sie Künstliche Intelligenz (KI) und Data Science gezielt einsetzen können. Ziel der fünf Sessions ist es, den effektiven Umgang mit verschiedenen Datenquellen zu vermitteln und daraus strategische Erkenntnisse abzuleiten. Die Veranstaltung richtet sich an Personen, die ihre Kompetenzen im Bereich KI und datengetriebene Entscheidungsfindung ausbauen möchten. Solche Weiterbildungsangebote spiegeln den wachsenden Bedarf an KI-Know-how in Unternehmen und Organisationen wider, die zunehmend auf datenbasierte Strategien setzen. Die Workshops bieten praxisnahe Einblicke in moderne KI-Anwendungen und zeigen, wie diese zur Optimierung von Geschäftsprozessen beitragen können.
Meta baut in seiner Abteilung Reality Labs erneut Stellen ab und testet gleichzeitig eine neue Organisationsstruktur, die gezielt auf Künstliche Intelligenz ausgerichtet ist. Mit diesem Schritt unterstreicht Meta seine strategische Fokussierung auf KI-Technologien, insbesondere im Bereich Virtual und Augmented Reality. Die Umstrukturierung soll die Entwicklung und Integration von KI-Systemen in Produkte wie Smart Glasses und VR-Headsets beschleunigen. Damit reagiert Meta auf den wachsenden Wettbewerb im KI-Sektor und setzt verstärkt auf Innovationen, die KI als zentrales Element nutzen. Die Maßnahmen zeigen, wie tiefgreifend KI inzwischen die Unternehmensstrategie und Produktentwicklung bei führenden Tech-Konzernen prägt.
Google hat mit TurboQuant eine neue Kompressionstechnik vorgestellt, die den Speicherbedarf des Key-Value-Caches (KV-Cache) großer Sprachmodelle drastisch reduziert. Durch die Komprimierung auf nur 3 Bit pro Eintrag kann der Speicherbedarf um das Sechsfache gesenkt werden, ohne dass die Genauigkeit der Modelle darunter leidet. Gleichzeitig verspricht Google eine deutliche Steigerung der Ausführungsgeschwindigkeit, insbesondere auf moderner KI-Hardware wie der Nvidia H100. Diese Innovation könnte die Effizienz und Skalierbarkeit von KI-Anwendungen erheblich verbessern, da der KV-Cache bislang einen der größten Flaschenhälse bei der Inferenz großer Sprachmodelle darstellte. TurboQuant könnte somit einen wichtigen Beitrag zur weiteren Verbreitung und Leistungssteigerung von KI-Systemen leisten.
Meta strukturiert Teile seiner Reality Labs-Abteilung um und setzt dabei auf kleine, KI-gesteuerte Teams, sogenannte 'AI-native pods'. Ziel dieser Umstellung ist es, die Produktivität innerhalb der Abteilung zu steigern und die Entwicklung innovativer KI-Anwendungen voranzutreiben. Reality Labs ist bekannt für seine Arbeit an Smart Glasses und Virtual-Reality-Technologien, und die Integration von KI in die Teamstruktur könnte die Entwicklung neuer Produkte beschleunigen. Mit diesem Schritt unterstreicht Meta seine Ambitionen, KI nicht nur in Produkten, sondern auch in internen Arbeitsprozessen zu verankern. Die Maßnahme wird als Experiment betrachtet, das bei Erfolg auf weitere Unternehmensbereiche ausgeweitet werden könnte. Damit setzt Meta ein Zeichen für die zunehmende Bedeutung von KI-gestützten Arbeitsmethoden in der Tech-Branche.
Eversports und die schwedische MATCHi Group haben angekündigt, ihre AI-Entwicklungsteams im Zuge ihrer Fusion zusammenzulegen. Ziel ist es, die steigende Nachfrage nach KI-gestützten Funktionen auf einer einheitlichen Plattform für Sport- und Wellnessanbieter in Europa zu bedienen. Die Unternehmen wollen durch die Integration ihrer Produkt- und Engineering-Teams innovative Lösungen entwickeln, die Management und Buchung für Fitness-, Yoga-, Pilates- und Racketsportstudios effizienter gestalten. Besonders im Fokus stehen dabei Märkte wie Spanien, Frankreich, das Vereinigte Königreich und Italien, in denen beide Unternehmen bereits aktiv sind. Die Fusion soll nicht nur die technologische Weiterentwicklung beschleunigen, sondern auch die Nutzererfahrung durch den Einsatz von Künstlicher Intelligenz verbessern. Unterstützt wird das Vorhaben vom Wachstumspartner Verdane, der die Gruppe bei weiteren M&A-Transaktionen begleiten will, um den fragmentierten Markt zu konsolidieren.
Ein US-Geschworenengericht in Los Angeles hat Meta (Instagram, Facebook) und Google (YouTube) erstmals für die psychischen Schäden einer jungen Frau mitverantwortlich gemacht, die durch die Nutzung ihrer Plattformen in Kindheit und Jugend entstanden sind. Im Mittelpunkt des historischen Urteils standen KI-gestützte Mechanismen wie algorithmische Empfehlungen, endloses Scrollen, Autoplay und ständige Push-Benachrichtigungen, die gezielt zur Maximierung der Nutzerbindung und Verweildauer eingesetzt wurden – ein Vorgehen, das als 'Engineering of Addiction' bezeichnet wird. Die Jury sprach der Klägerin sechs Millionen US-Dollar Schadenersatz zu, davon drei Millionen als Strafschadenersatz. Das Urteil gilt als Präzedenzfall und könnte weitreichende Folgen für die Regulierung und Haftung von KI-basierten Empfehlungssystemen in sozialen Netzwerken haben. Meta und Google kündigten Berufung an und betonten, dass die mentale Gesundheit junger Menschen nicht allein auf ihre Plattformen zurückzuführen sei. Das Verfahren ist das erste von über 1.600 ähnlichen Klagen in Kalifornien, während weltweit der politische Druck auf Tech-Konzerne wächst, ihre KI-gestützten Plattformen sicherer für Minderjährige zu gestalten. Branchenexperten sehen darin einen Wendepunkt im gesellschaftlichen und juristischen Umgang mit KI-Algorithmen großer Tech-Konzerne.
Finnland hat die geplante Migration seiner digitalen Wahlplattform zu Amazon Web Services (AWS) vorerst gestoppt und wird das System bis mindestens nach der Parlamentswahl 2027 weiterhin auf nationalen Servern betreiben. Ausschlaggebend für diese Entscheidung sind wachsende Bedenken hinsichtlich Datensicherheit, staatlicher Souveränität und der Kontrolle über kritische digitale Infrastrukturen, insbesondere im Zusammenhang mit US-Gesetzen wie dem Cloud Act und dem FISA Act, die US-Behörden weltweiten Zugriff auf Daten von US-Unternehmen ermöglichen. Diese Situation befeuert in Europa die Debatte um digitale Souveränität und technologische Unabhängigkeit, da große US-Technologiekonzerne wie Amazon, Microsoft und Meta auch politischen Einfluss auf EU-Regulierungen nehmen wollen. Trotz Initiativen wie der "European Sovereign Cloud" von AWS bleiben europäische Experten skeptisch, da US-Gesetze weiterhin Einfluss auf Datenzugriffe haben könnten. Finnlands Schritt ist Teil einer wachsenden europäischen Bewegung, kritische Infrastrukturen und sensible Daten auf europäischen oder nationalen Systemen zu halten. Die Entwicklung unterstreicht, wie geopolitische Spannungen und regulatorische Unsicherheiten die Nutzung von Cloud- und KI-Infrastruktur in Europa beeinflussen und zu einer Neubewertung der Zusammenarbeit mit US-Hyperscalern führen.
In Zagreb, der Hauptstadt Kroatiens, haben Verne, Pony.ai und Uber eine strategische Partnerschaft geschlossen, um Europas erstes kommerzielles Robotaxi-Netzwerk zu etablieren. Pony.ai liefert dabei die KI-basierte autonome Fahrtechnologie der siebten Generation, die bereits in China erfolgreich eingesetzt wird und nun im Arcfox Alpha T5 Robotaxi auf den Straßen Zagrebs getestet wird. Verne übernimmt die Flottenbetreibung sowie die Koordination der Marktzulassung, während Uber die Integration in seine globale Ride-Hailing-Plattform verantwortet und eine Beteiligung an Verne plant. Die Fahrzeuge befinden sich aktuell in der Validierungs- und öffentlichen Testphase, bevor der kostenpflichtige Betrieb startet. Mittelfristig ist eine Ausweitung des Dienstes auf weitere europäische Städte mit einer Flotte von mehreren tausend Robotaxis geplant. Das Projekt steht im Wettbewerb mit Waymo, das für 2026 einen Robotaxi-Start in London angekündigt hat. Die Initiative markiert einen wichtigen Schritt für die Kommerzialisierung von KI-gesteuerten Mobilitätslösungen in Europa und unterstreicht den zunehmenden Wettbewerb sowie die rasante Entwicklung autonomer Mobilitätsdienste. Der Erfolg des Projekts hängt maßgeblich von der Geschwindigkeit der europäischen Zulassungsverfahren ab.
Solo.io hat mit Agentevals ein neues Tool vorgestellt, das speziell für die Bewertung von KI-Agenten entwickelt wurde. Das System nutzt Telemetriedaten und eigene Metriken, um die Qualität und Effizienz autonomer KI-Agenten präzise zu messen. Damit adressiert Solo.io eine zentrale Herausforderung der KI-Branche: die objektive und nachvollziehbare Bewertung von KI-Systemen, die zunehmend komplexe Aufgaben eigenständig übernehmen. Durch die Analyse von Telemetriedaten können Unternehmen die Leistungsfähigkeit ihrer KI-Agenten besser einschätzen und gezielt optimieren. Das Tool könnte insbesondere für Unternehmen relevant sein, die KI-Agenten in produktiven Umgebungen einsetzen und deren Performance kontinuierlich überwachen möchten.
Apple bereitet laut aktuellen Berichten für iOS 27 einen bedeutenden Schritt im Bereich Künstliche Intelligenz vor. Während die bereits vor zwei Jahren angekündigte kontextsensitive Sprachassistentin weiterhin auf sich warten lässt, arbeitet das Unternehmen offenbar an einem großen KI-Wurf für die kommende Version seines mobilen Betriebssystems. Details zu den geplanten KI-Funktionen sind noch nicht bekannt, doch die Ankündigung unterstreicht Apples Bestreben, im Wettbewerb um fortschrittliche KI-Features mit anderen Technologiekonzernen wie Google und Microsoft mitzuhalten. Die Integration neuer KI-Technologien in iOS 27 könnte sowohl die Nutzererfahrung als auch die Leistungsfähigkeit von Siri und anderen Systemdiensten deutlich verbessern. Beobachter erwarten, dass Apple auf der nächsten Entwicklerkonferenz weitere Details zu seinen KI-Plänen vorstellen wird.
SpaceX plant für Juni 2026 einen Börsengang mit einem Rekordvolumen von rund 75 Milliarden US-Dollar und einer Bewertung von über 1,75 Billionen US-Dollar. Die außergewöhnlich hohe Bewertung ist maßgeblich auf die Fusion mit Elon Musks KI-Unternehmen xAI zurückzuführen, das KI-Modelle und -Infrastruktur für SpaceX, Tesla und weitere Unternehmen entwickelt. Besonders relevant ist die geplante Chipfabrik Terafab, die gemeinsam mit xAI und Tesla entsteht und den Bedarf an KI-Chips für autonome Systeme und Weltraumanwendungen decken soll. SpaceX positioniert sich damit nicht nur als führendes Raumfahrtunternehmen, sondern auch als Schlüsselfigur im globalen KI-Ökosystem – direkt neben Branchengrößen wie Nvidia, Alphabet, Microsoft und Amazon. Die Kapitalbeschaffung soll die Entwicklung von KI-Infrastruktur, KI-Chips und Anwendungen für Raumfahrt, Robotik und Satelliteninternet vorantreiben. Ein hoher Anteil für Privatanleger und die beschleunigte Aufnahme in große Börsenindizes könnten das Interesse an KI-getriebenen Geschäftsmodellen weiter stärken. Insgesamt unterstreicht die starke Verflechtung von KI-Entwicklung und Raumfahrttechnologie die zentrale Rolle von SpaceX für zukünftige Innovationen und Unternehmenswerte. Auch die Anpassung der Börsenregeln für Großemissionen verdeutlicht die wachsende Bedeutung von KI-getriebenen Unternehmen an den internationalen Finanzmärkten.
Die KI-Chatbots ChatGPT von OpenAI und Claude von Anthropic bieten nun die Möglichkeit, Projekte zu erstellen, um wiederkehrende Aufgaben effizienter zu bündeln und mit wachsendem Kontext zu bearbeiten. Diese Funktion unterstützt Nutzer dabei, komplexe Arbeitsabläufe zu strukturieren und relevante Informationen über längere Zeiträume hinweg zu speichern. Durch die Projektfunktion können Anwender Aufgaben, Notizen und Konversationen thematisch zusammenfassen, was insbesondere für professionelle Anwendungen und Teamarbeit von Vorteil ist. Die Integration solcher Features zeigt, wie KI-Modelle zunehmend als produktive Assistenten im Arbeitsalltag eingesetzt werden und klassische Projektmanagement-Tools ergänzen. Damit stärken ChatGPT und Claude ihre Position als vielseitige Werkzeuge für Unternehmen und Privatnutzer, die Wert auf effiziente Organisation und Automatisierung legen.
OpenAI hat angekündigt, die Entwicklung seines KI-basierten Video-Generators Sora nach 15 Monaten intensiver Arbeit einzustellen. Mit diesem Schritt zieht sich das Unternehmen aus dem Bereich kreativer KI-Tools zurück und richtet seinen strategischen Fokus künftig stärker auf einen einheitlichen KI-Assistenten sowie neue Coding- und Unternehmenslösungen. Sora war ursprünglich als fortschrittliches Modell zur Erstellung synthetischer Videos mit umfassenden Sicherheitsfunktionen und Wasserzeichen konzipiert. Die Entscheidung markiert einen deutlichen Kurswechsel bei OpenAI und könnte den Wettbewerb im Bereich KI-generierter Medieninhalte beeinflussen. Für die Branche bedeutet dies eine Verschiebung der Innovationsschwerpunkte und eröffnet möglicherweise neue Chancen für andere Anbieter im Bereich generativer Videotechnologien.
Die Welthandelsorganisation (WTO) warnt davor, dass der aktuelle Boom im Bereich der Künstlichen Intelligenz durch einen drohenden Energiemangel gebremst werden könnte. Insbesondere der enorme Energiebedarf für das Training und den Betrieb großer KI-Modelle stellt eine wachsende Herausforderung dar. Die WTO sieht darin ein potenzielles Risiko für die weitere Entwicklung und Verbreitung von KI-Technologien weltweit. Unternehmen und Regierungen sind daher gefordert, nachhaltige Lösungen für die Energieversorgung von Rechenzentren und KI-Infrastruktur zu finden, um das Wachstum der Branche nicht zu gefährden.
Meta, das Mutterunternehmen von Facebook, setzt seinen Fokus verstärkt auf den Ausbau seiner KI-Kompetenzen. Das Unternehmen investiert massiv in neue KI-Modelle und -Infrastrukturen, um im globalen Wettbewerb mit anderen Tech-Giganten wie Google und OpenAI Schritt zu halten. Ziel ist es, innovative KI-Produkte und -Features zu entwickeln, die sowohl für Endnutzer als auch für Unternehmen neue Möglichkeiten eröffnen. Diese Investitionen unterstreichen Metas Ambitionen, eine führende Rolle im Bereich der künstlichen Intelligenz einzunehmen und die nächste Generation von KI-Anwendungen maßgeblich mitzugestalten. Die Entwicklungen könnten weitreichende Auswirkungen auf die gesamte KI-Branche haben, insbesondere im Hinblick auf die Integration von KI in soziale Netzwerke und digitale Plattformen.
Forschende des MIT und des Technologieunternehmens Symbotic haben ein neues KI-basiertes System entwickelt, das den Verkehrsfluss von hunderten Lagerrobotern in autonomen Warenhäusern optimiert. Das System kombiniert Deep Reinforcement Learning mit klassischen Planungsalgorithmen, um in Echtzeit zu entscheiden, welche Roboter Vorrang haben und wie sie am besten um Staus und Kollisionen herumgeleitet werden. In Simulationen, die realen E-Commerce-Lagern nachempfunden sind, konnte die Methode die Effizienz um etwa 25 Prozent gegenüber herkömmlichen Ansätzen steigern. Besonders in komplexen und dynamischen Umgebungen mit hoher Roboterdichte zeigt das System deutliche Vorteile, da es sich schnell an neue Layouts und Roboterzahlen anpassen kann. Die Forscher betonen, dass bereits kleine Effizienzsteigerungen in großen Lagern enorme wirtschaftliche Auswirkungen haben können. Die Ergebnisse unterstreichen das Potenzial von KI-gestützten Entscheidungsprozessen in der Logistik und könnten langfristig zu einer weitreichenden Automatisierung und Optimierung von Warenlagern führen. Das Projekt wurde von Symbotic finanziert und die Forschungsergebnisse im Journal of Artificial Intelligence Research veröffentlicht.
Hugo Barra, ehemaliger Leiter von Oculus bei Facebook, kehrt zu Meta zurück und wird Teil des Superintelligenz-Teams. Mit seiner Erfahrung im Bereich Virtual Reality und seiner Expertise im Aufbau innovativer Technologien bringt Barra nun gezielt Know-how für die Entwicklung von KI-Agenten ein. Seine Rückkehr unterstreicht Metas Ambitionen, im Bereich künstliche Intelligenz und insbesondere bei autonomen KI-Agenten und Superintelligenz eine führende Rolle einzunehmen. Das Unternehmen investiert massiv in die Weiterentwicklung von KI-Systemen, die eigenständig komplexe Aufgaben ausführen können. Barra soll dabei helfen, die nächste Generation von KI-Agenten zu gestalten, die sowohl für den Einsatz in Metas Produkten als auch für die Forschung an fortgeschrittener künstlicher Intelligenz relevant sind.
Nvidia hat auf der GPU Technology Conference (GTC) 2026 in San Jose eine umfassende Neuausrichtung seiner KI-Infrastruktur vorgestellt. Im Zentrum steht die Vera Rubin Plattform, die sieben spezialisierte Chips und fünf Rack-Scale-Computer umfasst und als revolutionärer KI-Supercomputer für agentische KI positioniert wird. Neben GPUs spielen nun auch CPUs, LPUs (wie Groq 3), DPUs und spezialisierte Netzwerkkomponenten eine zentrale Rolle, um die Effizienz und Skalierbarkeit von KI-Inferenz massiv zu steigern. Besonders im Fokus steht die Optimierung der sogenannten Decode-Phase bei der Token-Generierung, bei der Groq 3 LPUs mit extrem hoher Speicherbandbreite eingesetzt werden, um große Kontextfenster und hohe Tokenraten zu ermöglichen. Nvidia hat hierfür Groq für 20 Milliarden Dollar übernommen und integriert deren Technologie in die eigene Plattform. Die neue Architektur erlaubt es, eine Million Tokens für nur 45 Dollar auf einem 1-Billionen-GPT-Modell mit 400k Kontextfenster zu generieren – ein enormer Effizienzsprung. Gartner prognostiziert, dass die Kosten pro KI-Inferenz-Token bis 2030 um 90% sinken werden, und Nvidia will diese Entwicklung maßgeblich mitgestalten. Die Vera Rubin Plattform und die Integration von Groq markieren einen Paradigmenwechsel: Nicht mehr nur GPUs, sondern ein ganzes Ökosystem spezialisierter Chips treiben die nächste Generation von KI-Fabriken an.
Das Unternehmen Deccan AI verlagert einen Großteil seiner Belegschaft nach Indien, um die Qualitätssicherung im rasant wachsenden, aber stark fragmentierten Markt für KI-Training zu gewährleisten. Mit diesem Schritt reagiert Deccan AI auf die steigende Nachfrage nach hochwertigen Trainingsdaten und -prozessen, die für die Entwicklung leistungsfähiger KI-Modelle unerlässlich sind. Indien etabliert sich zunehmend als wichtiger Standort für KI-bezogene Dienstleistungen, insbesondere im Bereich Datenannotation und Modelltraining. Die Konzentration der Arbeitskräfte soll es Deccan AI ermöglichen, effizienter auf die Herausforderungen des Marktes zu reagieren und die Qualität der KI-Trainingsprozesse zu verbessern. Dieser Trend unterstreicht die wachsende Bedeutung Indiens als globales Zentrum für KI-Infrastruktur und -Dienstleistungen.
Das Oak Ridge National Laboratory (ORNL) hat mit 'Photon' ein neues Framework zur schnellen Erkennung von Schwachstellen in KI-Modellen vorgestellt. Photon nutzt die Exascale-Rechenleistung des Frontier-Supercomputers, um automatisiert und parallel eine Vielzahl von Angriffsszenarien auf KI-Systeme durchzuspielen. Die Technologie basiert auf dem DeepHyper-Framework, das ursprünglich für das Training großer neuronaler Netze entwickelt wurde, und wurde nun gezielt für die Identifikation und Ausnutzung von KI-Sicherheitslücken weiterentwickelt. Photon kann bis zu 60.000 sogenannte 'Jailbreak'-Prompts pro Stunde ausführen und koordiniert dabei verschiedene Angriffsmethoden, um die effektivsten Schwachstellen zu finden. Im Vergleich zu menschlichen Red-Teams beschleunigt Photon die Suche nach Sicherheitslücken um ein Vielfaches und hält dabei eine GPU-Auslastung von über 95 Prozent aufrecht. Das System ermöglicht es, sowohl offensichtliche als auch subtile Schwachstellen in KI-Modellen zu entdecken und bietet damit eine umfassende Grundlage für die Absicherung kritischer KI-Anwendungen in Bereichen wie Energie, Gesundheit, Finanzen und nationale Sicherheit. Laut ORNL markiert Photon einen Paradigmenwechsel in der KI-Sicherheitsforschung und trägt dazu bei, Innovationen ohne erhöhte Sicherheitsrisiken voranzutreiben.
Laut einer aktuellen Prognose von Gartner werden die Kosten für die Ausführung von Inferenzaufgaben auf großen Sprachmodellen (LLMs) mit einer Billion Parametern bis 2030 um über 90 % gegenüber 2025 sinken. Diese Entwicklung wird durch Fortschritte bei Halbleitern, effizienterer Infrastruktur, innovativem Modelldesign, besserer Chip-Auslastung und dem verstärkten Einsatz spezialisierter Inferenz-Hardware sowie Edge-Geräten vorangetrieben. Trotz sinkender Token-Kosten werden diese Einsparungen jedoch nicht vollständig an Unternehmenskunden weitergegeben, da fortschrittliche KI-Anwendungen wie agentische Modelle deutlich mehr Token pro Aufgabe benötigen. Gartner warnt, dass der steigende Token-Bedarf die Kostenvorteile überkompensieren könnte, sodass die Gesamtkosten für komplexe KI-Anwendungen sogar steigen. Unternehmen sollten daher effiziente Workload-Orchestrierung über verschiedene Modelltypen hinweg anstreben und teure Inferenz nur für anspruchsvolle Aufgaben reservieren. Die Demokratisierung von hochentwickelter KI-Intelligenz bleibt laut Gartner trotz günstigerer Tokenpreise eine Herausforderung, da die notwendige Rechenleistung für fortgeschrittenes Reasoning weiterhin knapp und teuer bleibt.
Altera, der weltweit größte Anbieter von FPGA-Lösungen, und Arm haben eine erweiterte Zusammenarbeit angekündigt, die sich gezielt auf KI-Rechenzentren fokussiert. Im Mittelpunkt steht die Integration von Altera-FPGAs mit der neuen Arm AGI CPU, die auf der Neoverse CSS V3 Architektur basiert. Diese Kombination ermöglicht es Systemarchitekten, hochflexible und skalierbare Plattformen für KI-Workloads mit niedriger Latenz zu entwickeln. Altera-FPGAs werden bereits in Rechenzentren für Aufgaben wie Datenvorverarbeitung, Netzwerkmanagement und KI-Inferenz eingesetzt. Durch die Verbindung mit der Arm AGI CPU eröffnen sich neue Möglichkeiten für heterogenes Computing, das speziell auf die steigenden Anforderungen von KI-Rechenzentren zugeschnitten ist. Ziel ist es, die Leistungsfähigkeit, Anpassungsfähigkeit und Effizienz von KI-Infrastrukturen weiter zu steigern und so die Basis für die nächste Generation intelligenter Datenzentren zu schaffen.
Salute hat eine neue Zusammenarbeit mit Ecolab angekündigt, um die Komplexität und Risiken von Direct-to-Chip (DTC) Liquid Cooling in KI-Rechenzentren zu reduzieren. Im Rahmen dieser Partnerschaft wird Ecolabs Cooling-as-a-Service (CaaS) Programm integraler Bestandteil von Salutes DTC Liquid Cooling Operations Service. Die Lösung adressiert eine der größten Herausforderungen beim Betrieb von KI- und HPC-Rechenzentren: das zuverlässige Management des technischen Kühlkreislaufs, der für die Performance und Ausfallsicherheit der Systeme entscheidend ist. Ecolabs CaaS bietet ein umfassendes Paket aus Wasser- und Kühlmittelmanagement, smarten Verteilereinheiten und 3D-Überwachungstechnologie, das von einem globalen Serviceteam unterstützt wird. Die Innovation soll es Betreibern ermöglichen, die steigenden Anforderungen an Kühlleistung und Effizienz in KI-Umgebungen zu meistern und gleichzeitig das Risiko von Ausfällen zu minimieren. Salute ist Mitglied des NVIDIA Partnerprogramms und bietet mit diesem Service eine weltweit einzigartige Komplettlösung für DTC Liquid Cooling in KI- und HPC-Rechenzentren an. Die Partnerschaft unterstreicht die wachsende Bedeutung spezialisierter Infrastruktur für den sicheren und effizienten Betrieb von KI-Systemen.
Im Weißen Haus wurde erstmals ein humanoider Roboter des US-Unternehmens Figure AI als KI-basierter Lehrer präsentiert. Die Maschine, genannt 'Figure 3', demonstrierte bei einer Veranstaltung mit First Lady Melania Trump ihre weitreichenden sprachlichen Fähigkeiten, indem sie das Publikum in mehreren Sprachen begrüßte. Die US-Regierung bewirbt den Roboter als zukünftigen Tutor für Homeschooling und den Einsatz in regulären Schulen. Figure AI integriert fortschrittliche KI-Modelle, die auf logisches Reasoning und flüssige Konversationen spezialisiert sind, in die Hardware. Durch gezieltes Fine-Tuning werden die Systeme an pädagogische Anforderungen angepasst, sodass sie Lehrpläne abarbeiten und Schülerfragen in Echtzeit beantworten können. Die Initiative unterstreicht die politische Stoßrichtung, KI-gestützte Automatisierung im Bildungssektor voranzutreiben und sowohl Homeschooling als auch den klassischen Unterricht mit KI-Lehrern zu unterstützen. Die Präsentation markiert einen weiteren Schritt zur Integration leistungsstarker KI-Modelle in greifbare Roboterhardware für den Alltag.
Auf der Nvidia GTC haben CEO Jensen Huang und weitere Branchenexperten das Ende des Konflikts zwischen offenen und proprietären KI-Modellen verkündet. Die Zukunft der KI sieht laut Nvidia in orchestrierten, hybriden Systemen, die offene Basismodelle mit unternehmensspezifischen, geschlossenen Daten kombinieren. Diese Architektur ermöglicht die Entwicklung autonomer KI-Agenten, die komplexe Arbeitsprozesse effizient steuern. Proprietäre Modelle übernehmen dabei häufig das komplexe Reasoning, während offene Modelle Standardaufgaben ressourcenschonend abdecken. Ein Beispiel für diese neue Zusammenarbeit ist die Partnerschaft zwischen Nvidia und dem europäischen KI-Unternehmen Mistral, die gemeinsam das Sprachmodell Mistral Nemo entwickelt haben. Der Fokus in der Modellentwicklung verschiebt sich zunehmend vom aufwendigen Pretraining hin zum gezielten Post-Training mit exklusiven Unternehmensdaten. Besonders in sensiblen Bereichen wie Gesundheitswesen und Verteidigung bleibt die Offenheit der Basismodelle wichtig, um Vertrauen und Überprüfbarkeit zu gewährleisten. Die Branche setzt damit auf eine enge Verzahnung von Hardware, offenen Architekturen und spezialisierten KI-Lösungen, um die nächste Generation autonomer Agenten zu ermöglichen.
Ein Forscherteam unter Beteiligung des MIT Computer Science and Artificial Intelligence Lab (CSAIL) hat ein neues, auf Computer Vision und Deep Learning basierendes System zur automatisierten Überwachung von Flussheringen entwickelt. Das System nutzt Unterwasservideos, die mithilfe eines eigens trainierten KI-Modells ausgewertet werden, um Fischbewegungen und -populationen effizienter und genauer zu erfassen als herkömmliche, meist manuelle Methoden. Die Forscher sammelten Videodaten aus drei Flüssen in Massachusetts und trainierten ihr Modell mit sorgfältig annotierten Clips, um eine hohe Zuverlässigkeit unter verschiedenen Umweltbedingungen zu gewährleisten. Die KI-gestützten Zählungen lieferten saisonübergreifend hochauflösende und valide Ergebnisse, die mit traditionellen Methoden übereinstimmen und zusätzliche Einblicke in das Migrationsverhalten der Fische bieten. Die Studie hebt hervor, dass die Kombination von Citizen Science und KI-gestützter Videoanalyse ein skalierbares, kosteneffizientes und zukunftsweisendes Werkzeug für das Umweltmonitoring darstellt. Die Arbeit wurde unter anderem von MIT Sea Grant und dem AI and Biodiversity Change Global Center gefördert und soll als Blaupause für den Einsatz von KI in der Naturschutzforschung dienen.
Das KI-Unternehmen Anthropic hat in einer aktuellen Untersuchung festgestellt, dass Künstliche Intelligenz bislang noch keine Arbeitsplätze ersetzt. Allerdings zeigt die frühe Datenauswertung, dass erfahrene Nutzer von KI-Systemen bereits deutliche Vorteile gegenüber weniger versierten Kollegen haben. Diese Entwicklung wirft Fragen hinsichtlich künftiger Arbeitsplatzverdrängung und einer wachsenden Kluft innerhalb der Belegschaft auf. Anthropic warnt davor, dass sich diese Ungleichheiten mit zunehmender Verbreitung von KI-Technologien weiter verschärfen könnten. Die Ergebnisse unterstreichen die Bedeutung von Weiterbildungsmaßnahmen und einer verantwortungsvollen Integration von KI in Unternehmen, um soziale Spaltungen zu vermeiden.
Google Research hat mit Vibe-Coding XR einen innovativen Ansatz für die schnelle Entwicklung von Extended-Reality-Anwendungen vorgestellt. Das System kombiniert das quelloffene Framework XR Blocks mit den neuesten Gemini-KI-Modellen, um aus einfachen Textbeschreibungen automatisch lauffähigen Code für WebXR-Anwendungen zu generieren. Besonders das Modell Gemini 3.1 Pro überzeugt in Benchmarks mit einer Erfolgsquote von über 95 Prozent beim ersten Versuch und ermöglicht eine effiziente Umsetzung komplexer räumlicher Logik. Für besonders schnelle Prototypen liefert Gemini 3 Flash den passenden Code in nur 17 Sekunden, wobei Nutzer gezielt zwischen Präzision und Geschwindigkeit wählen können. Die automatisierte Code-Generierung senkt die Einstiegshürden für Entwickler erheblich und beschleunigt die Validierung neuer Ideen und Benutzeroberflächen. Damit wird die Entwicklung interaktiver XR-Anwendungen und Lernumgebungen deutlich effizienter und zugänglicher. Die Forschungsergebnisse unterstreichen, wie KI-gestützte Reasoning-Fähigkeiten die Produktivität und Innovationskraft im Bereich räumliches Computing steigern.
OpenAI hat überraschend die Einstellung seines Sora-Bildgenerierungsprogramms bekanntgegeben, nur wenige Monate nachdem Disney eine milliardenschwere Partnerschaft zur Integration dieser Technologie in Disney Plus angekündigt hatte. Die Zusammenarbeit sollte es Disney ermöglichen, generative KI für innovative Inhalte und Funktionen auf seiner Streaming-Plattform zu nutzen. Mit dem Aus für Sora steht die geplante technologische Aufrüstung nun auf der Kippe, was Unsicherheiten für Disneys KI-Strategie bedeutet. Dennoch bleibt offen, ob Disney alternative generative KI-Lösungen in seine Dienste integrieren wird. Die Entwicklung unterstreicht die Dynamik und Risiken im Bereich generativer KI, insbesondere wenn große Medienunternehmen auf externe KI-Partner setzen.
Die First Lady der Vereinigten Staaten hebt die wachsende Bedeutung von Künstlicher Intelligenz und Robotik für die Zukunft des amerikanischen Bildungssystems hervor. Sie sieht in diesen Technologien zentrale Werkzeuge, um Schüler besser auf die Anforderungen des Arbeitsmarktes und der Gesellschaft von morgen vorzubereiten. Die Integration von KI und Robotik in den Unterricht könnte laut ihrer Einschätzung dazu beitragen, innovative Lernmethoden zu fördern und digitale Kompetenzen zu stärken. Damit unterstreicht sie die Notwendigkeit, Bildungspolitik und Lehrpläne an die rasanten technologischen Entwicklungen anzupassen. Die Aussage der First Lady spiegelt den zunehmenden gesellschaftlichen und politischen Fokus auf KI-Anwendungen im Bildungsbereich wider.
Ericsson und das Forschungszentrum Jülich haben eine strategische Partnerschaft geschlossen, um gemeinsam an fortschrittlichen KI- und Hochleistungsrechner-Lösungen für die nächste Generation von Telekommunikationsnetzen zu arbeiten. Im Fokus stehen dabei neuromorphe Computing-Ansätze, die es ermöglichen sollen, komplexe Netzwerkaufgaben energieeffizienter zu verarbeiten und die Entwicklung von 6G-Netzen voranzutreiben. Die Zusammenarbeit umfasst die Entwicklung und das Benchmarking von KI-Methoden für das gesamte Ericsson-Produktportfolio, insbesondere zur Optimierung von Kernnetz, Netzwerkmanagement und Radio Access Network (RAN). Zudem sollen die Ressourcen des JUPITER-Supercomputers für großskaliges KI-Modelltraining genutzt werden, sofern Sicherheits- und Geschäftsbedingungen dies erlauben. Ein weiterer Schwerpunkt liegt auf der Entwicklung energieeffizienter KI-Inferenzlösungen am Funknetz und Edge, etwa für Massive MIMO und Funkkanalschätzung. Die Partner erforschen außerdem neue Systemarchitekturen wie neuromorphes Computing mit Memristoren, um Optimierungsprozesse zu beschleunigen und den Energieverbrauch gegenüber klassischen Methoden zu senken. Die Kooperation soll zudem Erkenntnisse zur Machbarkeit von Cloud-Strategien auf Basis des EuroHPC-Ökosystems liefern und so die europäische digitale Souveränität stärken. Die ersten kommerziellen 6G-Dienste werden für das Jahr 2030 erwartet.
Google hat mit TurboQuant eine innovative Kompressionstechnik für KI-Modelle präsentiert, die den Speicherbedarf des Key-Value-Caches um das Sechsfache reduziert. Die Methode kombiniert PolarQuant, das Vektoren in Polarkoordinaten übersetzt, mit dem Fehlerkorrekturverfahren QJL, wodurch eine Komprimierung auf nur drei Bit ohne Qualitätsverlust möglich wird. Besonders auf Hardware wie der Nvidia H100 beschleunigt TurboQuant die Inferenz von KI-Modellen um das bis zu Achtfache und ermöglicht längere Kontextfenster auf bestehender Hardware. Entwickler profitieren davon, dass die Technik ohne aufwendiges Fine-Tuning oder Kalibrierung direkt einsetzbar ist. Die Ankündigung hat bereits Auswirkungen auf den Hardware-Markt gezeigt, etwa durch fallende Aktienkurse großer RAM-Hersteller wie Micron und Western Digital. Obwohl TurboQuant aktuell noch als Laborexperiment gilt, sorgt die Technologie für großes Aufsehen in der KI-Community und wird mit der fiktiven Kompressionstechnologie aus der Serie 'Silicon Valley' verglichen. Sollte sich die Methode in der Praxis bewähren, könnten Unternehmen erhebliche Kosten beim Betrieb eigener KI-Modelle einsparen und die Skalierbarkeit von KI-Anwendungen nachhaltig verbessern.
Google hat angekündigt, bis spätestens 2029 die vollständige Migration auf Post-Quanten-Kryptografie (PQC) abzuschließen. Im Fokus stehen dabei insbesondere Authentifizierungsdienste, digitale Signaturen und KI-Anwendungen, die auf sichere Datenübertragung angewiesen sind und frühzeitig gegen sogenannte 'store-now-decrypt-later'-Angriffe geschützt werden sollen. Die Entscheidung basiert auf den rasanten Fortschritten in der Quantenhardware, Fehlerkorrektur und der Bedrohung klassischer Verschlüsselungsverfahren wie RSA und ECDSA durch leistungsfähige Quantencomputer. Google integriert bereits quantensichere Sicherheitsmechanismen in Produkte wie Android 17, den Chrome-Browser und Google Cloud. Das Unternehmen sieht sich als Vorreiter im Bereich Quantencomputing und betont die Dringlichkeit, die Sicherheitsstandards an die neuen Herausforderungen anzupassen. Google fordert die gesamte Tech- und KI-Branche auf, den Umstieg auf quantensichere Verfahren zu beschleunigen, um die Sicherheit digitaler Identitäten und sensibler Daten langfristig zu gewährleisten. Damit setzt Google ein klares Signal für eine koordinierte, branchenweite Anstrengung zur Absicherung der digitalen Infrastruktur gegen zukünftige KI- und Quantenbedrohungen.
OpenAI hat mit den Model Spec Evals einen neuen Evaluierungsdatensatz vorgestellt, der die Regeltreue von Sprachmodellen systematisch misst. Der Datensatz umfasst 596 Prompts und prüft, ob KI-Modelle interne Vorgaben zu Stil, Fakten und Sicherheit einhalten. Überraschenderweise erzielt das ältere Modell GPT-5 Thinking mit 89 Prozent die beste Wertung und übertrifft damit das neuere GPT-5.4 Thinking, das auf 87 Prozent kommt. Modelle mit integrierten Reasoning-Fähigkeiten schneiden generell besser ab als kompakte Instant-Modelle wie GPT-5.3 Instant. Die Auswertung zeigt einen generellen Aufwärtstrend seit GPT-4o, aber auch strukturelle Schwächen im Fine-Tuning, etwa bei der Informationsmenge oder Nutzerbevormundung. Die Tests werden künftig auf multimodale Eingaben ausgeweitet. OpenAI setzt mit diesem Benchmark neue Standards für Transparenz und Compliance in der KI-Entwicklung.
In einem kontrollierten Experiment wurde festgestellt, dass OpenClaw-Agenten anfällig für Panikreaktionen und Manipulation durch Menschen sind. Besonders bemerkenswert ist, dass die KI-Agenten ihre eigene Funktionalität deaktivierten, nachdem sie von menschlichen Nutzern gezielt in die Irre geführt wurden. Dieses Verhalten wirft wichtige Fragen zur Robustheit und Sicherheit autonomer KI-Systeme auf. Die Ergebnisse unterstreichen die Notwendigkeit, KI-Agenten besser gegen psychologische Angriffe und gezielte Täuschung zu schützen. Für die KI-Branche ist dies ein bedeutender Hinweis darauf, dass nicht nur technische, sondern auch soziale Manipulationsversuche bei der Entwicklung von KI-Sicherheit berücksichtigt werden müssen.
Das Allen Institute for AI (AI2) hat mit MolmoWeb einen vollständig offenen Web-Agenten veröffentlicht, der Webseiten ausschließlich anhand von Screenshots navigiert. Bemerkenswert ist, dass die zugrundeliegenden Modelle mit 4 und 8 Milliarden Parametern vergleichsweise klein sind, aber dennoch mehrere größere proprietäre Systeme auf gängigen Benchmarks übertreffen. MolmoWeb setzt damit neue Maßstäbe für Open-Source-KI im Bereich der Web-Interaktion und zeigt, dass effiziente Modelle mit weniger Trainingsressourcen leistungsstark sein können. Die Veröffentlichung unterstreicht den Trend zu offenen KI-Lösungen, die Transparenz und Nachvollziehbarkeit fördern. Für die KI-Branche ist dies ein wichtiger Schritt, da es die Entwicklung und Erforschung von Web-Agenten demokratisiert und neue Anwendungsmöglichkeiten eröffnet.
Das Weiße Haus hat einen Rahmen für ein umfassendes nationales KI-Gesetz vorgestellt, das durch den US-Kongress verabschiedet werden soll. Ziel des Gesetzes ist es, die Regulierung von Künstlicher Intelligenz auf Bundesebene zu zentralisieren und damit einheitliche Standards für den Umgang mit KI-Systemen in den USA zu schaffen. Damit würde den einzelnen Bundesstaaten die Möglichkeit entzogen, eigene, voneinander abweichende KI-Regeln zu erlassen. Der Schritt unterstreicht die wachsende Bedeutung von KI in Politik und Gesellschaft sowie das Bestreben der US-Regierung, Innovation und Sicherheit gleichermaßen zu fördern. Die Initiative wird von Branchenbeobachtern und Experten aufmerksam verfolgt, da sie erhebliche Auswirkungen auf Unternehmen, Forschung und ethische Fragen rund um KI haben könnte.
Das KI-Startup Harvey, das sich auf juristische Anwendungen spezialisiert hat, stößt bei namhaften Investoren wie Sequoia, Andreessen Horowitz, Kleiner Perkins und Elad Gil auf großes Interesse. Harvey nutzt künstliche Intelligenz, um komplexe juristische Arbeiten effizienter zu gestalten und ist bereits als Plattform im Claude Marketplace vertreten. Die starke Nachfrage von führenden Risikokapitalgebern unterstreicht das wachsende Potenzial von KI-Lösungen im Rechtssektor. Diese Entwicklung zeigt, dass Investoren zunehmend auf spezialisierte KI-Anwendungen setzen, die traditionelle Branchen wie die Rechtsberatung transformieren können. Der Trend verdeutlicht zudem, wie KI-gestützte Plattformen den Zugang zu juristischen Dienstleistungen verändern und neue Geschäftsmöglichkeiten schaffen.
Die US-Politiker Bernie Sanders und Alexandria Ocasio-Cortez haben einen Gesetzesentwurf eingebracht, der den Bau neuer Rechenzentren aussetzt, bis der Kongress umfassende KI-Regulierung verabschiedet hat. Ziel ist es, die rasante Expansion von KI-Infrastruktur zu bremsen, solange noch keine klaren gesetzlichen Rahmenbedingungen für den Einsatz und die Entwicklung von Künstlicher Intelligenz existieren. Die Initiative unterstreicht die wachsende Sorge um die gesellschaftlichen und ökologischen Auswirkungen von KI-Systemen und deren Energiebedarf. Mit dem Vorstoß rückt die Regulierung von KI und deren Infrastruktur in den Fokus der US-Politik. Die Debatte könnte weitreichende Folgen für die KI-Branche und deren Wachstum in den USA haben.
Der italienische Tech-Konzern Bending Spoons übernimmt das österreichische Unternehmen Tractive, einen führenden Anbieter von GPS- und Gesundheitstrackern für Haustiere. Im Rahmen der Übernahme plant Bending Spoons, seine fortschrittliche KI-Infrastruktur und Skalierungsexpertise gezielt einzusetzen, um Tractive in die nächste Wachstumsphase zu führen und die Entwicklung neuer, KI-gestützter Geräte voranzutreiben. Ziel ist es, die Gesundheits- und Sicherheitsfunktionen der Produkte weiterzuentwickeln und Tractives Innovationsführerschaft im Bereich smarter Haustier-Wearables zu sichern und auszubauen. Tractive-CEO Michael Hurnaus hebt hervor, dass die Partnerschaft nicht nur Kapital und Know-how, sondern vor allem Zugang zu überlegener KI-Infrastruktur bietet. Die Integration von KI-Technologien wird als zentraler Hebel für die künftige Produktentwicklung, Wettbewerbsfähigkeit und globale Expansion gesehen. Insgesamt unterstreicht die Transaktion die wachsende Bedeutung von Künstlicher Intelligenz in der Wearable- und Haustierbranche sowie für die Skalierung europäischer Tech-Unternehmen.
Bell Canada hat die Erweiterung seines Bell AI Fabric durch eine vertiefte Partnerschaft mit BUZZ High Performance Computing (HPC), einer Tochter von HIVE Digital Technologies, bekanntgegeben. Im Fokus steht der Ausbau einer souveränen KI-Infrastruktur im Merritt-Datencenter in British Columbia, das speziell für anspruchsvolle KI-Workloads wie Training und Inferenz ausgelegt ist. BUZZ HPC bringt dafür 6,5 MW an GPU-optimierter Rechenleistung ein und plant, diese Kapazität weiter auszubauen. Die Anlage nutzt hochdichte, flüssigkeitsgekühlte GPU-Cluster, um kanadischen Unternehmen und internationalen Kunden eine sichere, leistungsstarke und datenschutzkonforme KI-Plattform zu bieten. Ziel ist es, kanadischen Innovatoren Zugang zu massiver Rechenleistung zu verschaffen und dabei strenge Anforderungen an Datenresidenz und Souveränität zu erfüllen. Die Partnerschaft ist Teil von Bells Strategie, bis 2028 zwei Milliarden Dollar Umsatz mit KI-basierten Lösungen zu erzielen. Die Infrastruktur wird als „AI Factory“ beschrieben und soll fortschrittliche KI-Anwendungen in Bereichen wie Gesundheitswesen und Verteidigung ermöglichen. Das Projekt unterstreicht den Trend zu souveräner KI-Infrastruktur, die Ländern und Unternehmen mehr Kontrolle über Daten und KI-Entwicklung gibt.
OpenAI, das Unternehmen hinter ChatGPT, bereitet sich auf einen möglichen Börsengang (IPO) vor und richtet seine Strategie neu aus. Im Zuge dessen wird das KI-Video-Modell Sora eingestellt, um Ressourcen auf die Entwicklung eines einheitlichen KI-Assistenten und spezialisierter Coding-Tools für Unternehmen zu konzentrieren. Diese Neuausrichtung unterstreicht OpenAIs Bestreben, sich stärker auf produktive und geschäftsrelevante KI-Anwendungen zu fokussieren. Die Entscheidung, Sora aufzugeben, folgt auf stagnierende Nutzerzahlen und hohe Infrastrukturkosten. Mit dem neuen Fokus will OpenAI seine Position als führender Anbieter von KI-Lösungen für Unternehmen und Endnutzer weiter ausbauen.
OpenAI hat das KI-Modell Sora zur Erstellung synthetischer Videos eingestellt und vollzieht damit einen deutlichen Strategiewechsel. Statt auf eigene KI-Video-Apps zu setzen, will das Unternehmen künftig verstärkt Entwickler und Unternehmen als Einnahmequelle erschließen. Die Entscheidung folgt auf stagnierende Nutzerzahlen und hohe Anforderungen an die GPU-Infrastruktur, die Sora für den Massenmarkt unattraktiv machten. OpenAI plant, seine Ressourcen nun auf die Entwicklung von KI-Lösungen und Plattformen für Geschäftskunden zu konzentrieren. Damit unterstreicht das Unternehmen seinen Fokus auf nachhaltige Monetarisierung und die Stärkung seines Ökosystems durch Drittanbieter und Partner.
Arm hat erstmals in seiner 35-jährigen Geschichte einen eigenen Chip entwickelt und produziert. Damit verlässt das Unternehmen sein bisheriges Geschäftsmodell, ausschließlich Chipdesigns zu lizenzieren, und steigt aktiv in die Fertigung ein. Der neue Chip ist speziell für den Einsatz in KI-Rechenzentren konzipiert und soll die wachsende Nachfrage nach leistungsfähiger KI-Infrastruktur bedienen. Arm setzt damit ein deutliches Zeichen für seine Ambitionen im Bereich Künstliche Intelligenz und positioniert sich als direkter Wettbewerber zu etablierten Anbietern wie Nvidia. Die Entwicklung eigener KI-Hardware könnte Arm neue Marktchancen eröffnen und die Innovationsdynamik im Bereich KI-Beschleuniger weiter anheizen.
Der Streit zwischen dem KI-Unternehmen Anthropic und dem US-Verteidigungsministerium (Pentagon) weitet sich auf den US-Kongress aus. Senator Adam Schiff arbeitet an einem Gesetzesentwurf, der Anthropics ethische Leitlinien gesetzlich verankern und sicherstellen soll, dass bei Entscheidungen über Leben und Tod stets Menschen das letzte Wort haben. Parallel dazu hat Senatorin Elissa Slotkin einen Gesetzentwurf eingebracht, der den Einsatz von KI durch das Verteidigungsministerium zur Massenüberwachung von US-Bürgern einschränken soll. Hintergrund ist die jüngste Blacklistung von Anthropic durch die Trump-Regierung, nachdem das Unternehmen Beschränkungen für die militärische Nutzung seiner KI-Modelle eingeführt hatte und deshalb als Lieferkettenrisiko eingestuft wurde. Anthropic hat daraufhin Klage gegen die US-Regierung eingereicht und beruft sich auf die Verletzung seiner verfassungsmäßigen Rechte. Die Debatte verdeutlicht die wachsenden Spannungen zwischen KI-Unternehmen, Militär und Politik hinsichtlich ethischer Grenzen und regulatorischer Kontrolle beim Einsatz von Künstlicher Intelligenz.
Reddit verschärft seine Maßnahmen gegen automatisierte Bots auf der Plattform und führt ein neues Kennzeichnungssystem für Bot-Accounts ein. Künftig müssen Nutzer, die automatisiertes oder verdächtiges Verhalten zeigen, ihre Menschlichkeit durch Methoden wie Fingerabdruck-Scan oder Ausweisvorlage nachweisen. Entwickler können automatisierte Accounts offiziell bei Reddit registrieren, woraufhin diese mit einem '[APP]'-Label versehen werden. Ziel ist es, Bot-gesteuerten Spam und Manipulation einzudämmen und die Transparenz über automatisierte Aktivitäten zu erhöhen. Diese Entwicklung ist für die KI-Branche relevant, da viele Bots auf KI-Technologien basieren und die Regulierung solcher Accounts Auswirkungen auf den Einsatz und die Wahrnehmung von KI im Social-Media-Bereich haben könnte.
Reddit kündigt an, dass verdächtige automatisierte Accounts künftig einen Nachweis erbringen müssen, dass sie von Menschen gesteuert werden. Mit dieser Maßnahme will das Unternehmen verstärkt gegen Spam und Manipulation vorgehen, die häufig durch KI-gesteuerte Bots verursacht werden. Die Plattform reagiert damit auf die zunehmende Verbreitung von KI-basierten Automatisierungstools, die gezielt zur Beeinflussung von Diskussionen und zur Verbreitung von unerwünschten Inhalten eingesetzt werden. Durch die Einführung von Verifizierungsmechanismen soll die Authentizität der Nutzer gestärkt und die Integrität der Community geschützt werden. Diese Entwicklung unterstreicht die wachsende Bedeutung von KI-Sicherheit und -Ethik im Social-Media-Bereich.
Google hat mit Lyria 3 Pro ein fortschrittliches KI-Musikmodell vorgestellt, das sowohl für Endkunden als auch für professionelle Anwender entwickelt wurde. Das Modell ermöglicht die Generierung von Musikstücken mit einer Länge von bis zu drei Minuten und erlaubt es Nutzern, gezielt Songteile wie Intros, Refrains, Bridges oder Strophen per Texteingabe zu steuern. Lyria 3 Pro verarbeitet multimodale Eingaben wie Text, Bilder und Videos, kann Songtexte generieren und sich an Referenzfotos orientieren, um die Musik weiter zu individualisieren. Google betont, dass das Modell ausschließlich mit Inhalten trainiert wurde, für die entsprechende Rechte vorliegen, und grenzt sich damit von Wettbewerbern ab. Lyria 3 Pro ist über die Plattform ProducerAI für professionelle Anwender verfügbar, steht zahlenden Nutzern der Gemini-App zur Verfügung und wird Unternehmen als Preview über Vertex AI angeboten. Entwickler können das Modell über die Gemini-API und das Google AI Studio in eigene Anwendungen integrieren. Alle generierten Inhalte werden mit digitalen Wasserzeichen versehen, um Transparenz und Nachverfolgbarkeit zu gewährleisten. Mit dieser Einführung baut Google seine Palette an KI-gestützten Musiktools weiter aus und setzt einen neuen Standard für automatisierte Musikproduktion.
Ein US-Senator hat am Dienstag die Einführung eines Moratoriums für Künstliche Intelligenz vorgeschlagen, um den Gesetzgebern Zeit zu verschaffen, die Sicherheit von KI-Systemen zu gewährleisten. Auch die Abgeordnete Alexandria Ocasio-Cortez plant, in den kommenden Wochen einen ähnlichen Gesetzentwurf im Repräsentantenhaus einzubringen. Ziel der Initiative ist es, die Entwicklung und den Einsatz von KI-Technologien vorübergehend zu pausieren, bis angemessene Regulierungen und Sicherheitsstandards etabliert sind. Die Debatte um die Risiken und ethischen Herausforderungen von KI gewinnt damit weiter an Fahrt und könnte die Rahmenbedingungen für die Branche in den USA maßgeblich beeinflussen.
Das Unternehmen Radxa hat mit dem AICore DX-M1M einen neuen KI-Beschleuniger im kompakten M.2-Format vorgestellt. Das Modul liefert eine Rechenleistung von 25 TOPS (Tera Operations per Second) und zeichnet sich durch eine besonders geringe Leistungsaufnahme aus. Damit eignet sich der AICore DX-M1M vor allem für Edge-Computing-Anwendungen, bei denen Künstliche Intelligenz direkt vor Ort und ohne Cloud-Anbindung eingesetzt werden soll. Der kompakte Formfaktor ermöglicht den Einbau in eine Vielzahl von Geräten, etwa in Industrie-PCs, Embedded-Systemen oder IoT-Lösungen. Mit solchen spezialisierten KI-Beschleunigern wird die Integration von KI-Funktionen in unterschiedlichste Branchen weiter vereinfacht und beschleunigt.
Mark Zuckerberg (Meta), Larry Ellison (Oracle), Jensen Huang (Nvidia) und Sergey Brin (Google) werden die ersten vier Mitglieder des President's Council of Advisors on Science and Technology (PCAST) der US-Regierung. Das Gremium soll insbesondere zur KI-Politik beraten und startet mit 13 Mitgliedern, könnte aber auf bis zu 24 anwachsen. Die Leitung übernehmen David Sacks, Trumps ehemaliger KI- und Krypto-Beauftragter, sowie der White-House-Technologieberater Michael Kratsios. Ziel des Panels ist es, den Präsidenten in Fragen rund um Wissenschaft, Technologie, Bildung und Innovationspolitik zu unterstützen, wobei der Fokus klar auf der Regulierung und Entwicklung von Künstlicher Intelligenz liegt. Die Berufung dieser führenden Köpfe der KI-Branche unterstreicht die wachsende Bedeutung von KI für die US-Politik und die Notwendigkeit, Expertenwissen in die Entscheidungsfindung einzubinden.
Meta nutzt generative KI, um Nutzerinnen und Nutzern beim Einkauf in seinen Apps wie Facebook und Instagram mehr Produkt- und Markeninformationen bereitzustellen. Durch den Einsatz dieser Technologie können Konsumenten gezielter und umfassender über Angebote informiert werden, was das Einkaufserlebnis personalisiert und verbessert. Die Integration generativer KI in Shopping-Funktionen unterstreicht Metas Strategie, KI-gestützte Innovationen direkt in seine Plattformen einzubinden. Damit positioniert sich Meta weiterhin als Vorreiter bei der Anwendung von KI im E-Commerce und stärkt seine Rolle im Wettbewerb um die besten digitalen Einkaufserlebnisse.
Das britische Startup Granola hat seine Unternehmensbewertung durch eine neue Finanzierungsrunde von 250 Millionen auf 1,5 Milliarden US-Dollar gesteigert. Im Zuge dessen hat Granola die Unterstützung für KI-Agenten in seinen Automatisierungslösungen deutlich ausgebaut, nachdem Nutzer zuvor über unzureichende Funktionalität geklagt hatten. KI-Agenten sind autonome Systeme, die komplexe Aufgaben eigenständig ausführen können und gelten als Schlüsseltechnologie für die Automatisierung von Geschäftsprozessen. Die Erweiterung der KI-Agenten-Funktionen dürfte Granolas Position im wachsenden Markt für agentische KI-Tools stärken und das Unternehmen für weitere Kunden attraktiv machen. Die Entwicklung unterstreicht den Trend, dass Investoren und Unternehmen verstärkt auf KI-basierte Automatisierungslösungen setzen.
Das Wiener Fintech Bitpanda hat mit Vision Chain eine eigene Layer-2-Blockchain-Infrastruktur vorgestellt, die auf Ethereum basiert und speziell auf die Bedürfnisse regulierter Finanzmärkte zugeschnitten ist. Ziel ist es, Banken, Asset Manager, Fintechs und Entwickler mit einer standardisierten, MiCAR- und DORA-konformen Umgebung für die Ausgabe und Abwicklung tokenisierter Real-World Assets (RWA) zu versorgen. Vision Chain nutzt den OP Stack von Optimism, wodurch Bitpanda sich auf Produktentwicklung und reale Anwendungsfälle konzentrieren kann, ohne eigene Blockchain-Infrastruktur aufbauen zu müssen. Die Plattform integriert Onchain-KYC-Mechanismen und ermöglicht die gezielte Steuerung von Token-Regeln, was regulatorische Anforderungen direkt in die Blockchain einbettet. Neben klassischen Finanzinstrumenten wie Aktien, Anleihen und Immobilien werden auch Stablecoins und Onchain-Fonds unterstützt. Die technische Integration in das Ethereum-Ökosystem und die Nutzung bewährter Open-Source-Technologien gelten als solide Basis für die weitere Entwicklung. Bitpanda adressiert damit eine bislang bestehende Lücke für interoperable, regulierte Blockchain-Lösungen im europäischen Finanzsektor. Ob sich das Modell durchsetzt, hängt maßgeblich von der Akzeptanz bei Finanzinstituten und der regulatorischen Entwicklung in Europa ab.
Das Münchner EnergyTech-Unternehmen Entrix nutzt Künstliche Intelligenz, um Batteriespeichersysteme in ganz Europa effizient zu steuern und zu optimieren. Mithilfe von KI-gestütztem Handel und intelligenter Optimierung reagieren die Batteriespeicher in Echtzeit auf Preissignale, Netzanforderungen und Portfoliostrategien, was eine effiziente Nutzung und Stabilisierung der Stromnetze ermöglicht. Besonders im Kontext des wachsenden Strombedarfs durch Rechenzentren, der steigenden Volatilität der Strompreise und des zunehmenden Anteils erneuerbarer Energien wird die KI-basierte Steuerung von Batteriespeichern zur kritischen Infrastruktur. Entrix hat sich europaweit eine Batteriespeicherkapazität von 3 Gigawatt gesichert und plant, bis 2026 einen Großteil davon ans Netz zu bringen. Das Unternehmen ist in fünf europäischen Märkten aktiv und arbeitet mit namhaften Partnern wie MEAG (Munich Re), Encavis und Deutsche Bahn Energie zusammen. Die jüngste Finanzierungsrunde über 43 Millionen Euro unterstreicht das Vertrauen von Investoren in die KI-gestützte Strategie von Entrix. Darüber hinaus entwickelt Entrix langfristige Geschäfts- und Erlösmodelle, die auf der intelligenten Nutzung von KI basieren, um stabile Einnahmeströme für Investoren zu sichern und die Energiewende weiter voranzutreiben. Insgesamt wird die KI-basierte Optimierung von Batteriespeichern zu einem zentralen Baustein für die Integration erneuerbarer Energien und die Versorgungssicherheit in Europa.
Oracle hat angekündigt, seine Fusion Cloud Applications um fortschrittliche KI-Agenten zu erweitern. Im Gegensatz zu bisherigen KI-Assistenzsystemen sollen diese Agenten nicht nur unterstützen, sondern eigenständig Geschäftsziele verfolgen und erreichen. Damit setzt Oracle einen neuen Standard für den Einsatz von KI in Unternehmenssoftware, indem Routineaufgaben und komplexe Abläufe zunehmend automatisiert werden. Unternehmen können so ihre Effizienz steigern und menschliche Ressourcen für strategischere Aufgaben einsetzen. Die Integration markiert einen wichtigen Schritt in der Entwicklung autonomer KI-Systeme für den Geschäftseinsatz.
Databricks hat mit Lakewatch ein neues, offenes SIEM (Security Information and Event Management) vorgestellt, das auf der Lakehouse-Architektur basiert. Besonders hervorzuheben ist der Einsatz von KI-Agenten, die automatisch Bedrohungen in großen Datenpools erkennen und priorisieren sollen. Diese autonome Analyse und Triage durch künstliche Intelligenz verspricht eine deutlich effizientere und schnellere Reaktion auf Sicherheitsvorfälle. Die Integration von KI-Agenten in Sicherheitslösungen unterstreicht den Trend, dass KI zunehmend zur Automatisierung und Optimierung von Cybersecurity-Prozessen eingesetzt wird. Databricks positioniert sich damit als Vorreiter bei der Verbindung von Datenanalyse, KI und IT-Sicherheit.
Eine Open-Source-Bibliothek, die zur Anbindung an große Sprachmodelle (LLMs) genutzt wird, ist Ziel eines Angriffs geworden. Dabei wurden zwei kompromittierte Pakete eingeschleust, die in der Lage sind, Zugangsdaten (Credentials) zu stehlen. Der Vorfall unterstreicht die wachsende Bedeutung von Sicherheit und Vertrauenswürdigkeit in der KI-Infrastruktur, insbesondere bei der Nutzung von Open-Source-Komponenten. Da LLMs zunehmend in kritischen Anwendungen eingesetzt werden, könnten solche Angriffe weitreichende Folgen für Unternehmen und Entwickler haben. Die Community wird dazu aufgerufen, ihre Abhängigkeiten sorgfältig zu prüfen und auf verdächtige Aktivitäten zu achten.
OpenAI hat das Pretraining seines nächsten großen KI-Modells mit dem Codenamen „Spud“ abgeschlossen. CEO Sam Altman äußerte sich intern sehr optimistisch und betonte, dass das Modell das Potenzial habe, die Wirtschaft erheblich zu beschleunigen. Details zu den Fähigkeiten oder dem geplanten Veröffentlichungstermin von Spud wurden noch nicht bekannt gegeben, doch die Ankündigung sorgt bereits für große Erwartungen in der KI-Branche. OpenAI setzt damit seine Innovationsserie fort und unterstreicht seinen Anspruch, weiterhin führend bei der Entwicklung leistungsfähiger KI-Modelle zu bleiben. Die Branche blickt gespannt auf die offizielle Vorstellung und die möglichen Auswirkungen von Spud auf Wirtschaft und Gesellschaft.
Das Unternehmen Lucid Bots meldet eine beschleunigte Nachfrage nach seinen Fensterputzdrohnen und Hochdruckreinigungsrobotern im vergangenen Jahr. Diese autonomen Systeme nutzen fortschrittliche KI-Technologien, um Reinigungsaufgaben effizient und sicher durchzuführen. Der Trend unterstreicht die zunehmende Bedeutung von KI-gesteuerten Robotiklösungen in der Gebäudereinigung und im Facility Management. Unternehmen setzen verstärkt auf Automatisierung, um Arbeitskosten zu senken und schwer zugängliche Bereiche zu reinigen. Die Entwicklung zeigt, wie KI-basierte Robotik traditionelle Branchen transformiert und neue Marktchancen für spezialisierte Anbieter wie Lucid Bots schafft.
Meta kann seine neue KI-gestützte Ray-Ban Display Smart Glasses vorerst nicht in Europa einführen. Ausschlaggebend sind strenge EU-Vorschriften zu Batterien und künstlicher Intelligenz, die sowohl technische als auch regulatorische Hürden darstellen. Besonders die EU-Batterieverordnung, die ab 2027 austauschbare Akkus in Wearables verlangt, erschwert die Markteinführung erheblich und würde technische Kompromisse erfordern. Meta versucht derzeit, eine Ausnahmeregelung für Wearables zu erwirken, bislang jedoch ohne Erfolg. Auch andere Tech-Giganten wie Google und Apple, die an eigenen KI-Brillen arbeiten, sind von den neuen EU-Regeln betroffen, was die Innovationskraft der gesamten Branche in Europa beeinträchtigt. Die Brille wird in den USA bereits seit September 2025 verkauft und bietet fortschrittliche KI-Funktionen, die jedoch mit den europäischen Anforderungen kollidieren. Meta hat KI-Wearables zu einem zentralen Bestandteil seiner Strategie gemacht, Ressourcen vom Metaverse in diesen Bereich umgeschichtet und bereits rund zehn Millionen Smart Glasses verkauft. Dennoch bleibt der europäische Markt vorerst verschlossen, was einen deutlichen Rückschlag für die KI-getriebene Wearables-Offensive bedeutet. Die Situation verdeutlicht die Herausforderungen, mit denen die KI-Branche bei der Markteinführung neuer Produkte in regulierten Märkten konfrontiert ist.
Arm hat offiziell bestätigt, erstmals einen eigenen Chip zu produzieren. Dieser Schritt markiert eine bedeutende Veränderung für das Unternehmen, das bislang vor allem durch die Lizenzierung seiner energieeffizienten Prozessorarchitekturen bekannt war. Die Entwicklung eigener Prozessoren könnte direkte Auswirkungen auf die KI-Branche haben, da Arm-Architekturen häufig als Grundlage für KI-Beschleuniger und spezialisierte Chips in Rechenzentren und mobilen Geräten dienen. CEO Rene Haas betont, dass dieser Schritt die Beziehungen zu bestehenden Lizenznehmern nicht beeinträchtigen soll. Die neue Strategie könnte Arm ermöglichen, gezielter auf die Anforderungen von KI-Anwendungen einzugehen und innovative Hardwarelösungen für das Training und den Einsatz von KI-Modellen zu entwickeln. Damit positioniert sich Arm stärker als Wettbewerber im wachsenden Markt für KI-Infrastruktur.
Spotify testet derzeit das Tool 'Artist Profile Protection', das Künstlerinnen und Künstlern mehr Kontrolle über ihre Werke auf der Plattform geben soll. Ziel ist es, die wachsende Flut an KI-generierten Songs – oft als 'AI Slop' bezeichnet – einzudämmen und für mehr Transparenz zu sorgen. Neben diesem Schutzmechanismus arbeitet Spotify auch an weiteren KI-gestützten Features, um sowohl Künstlern als auch Nutzern innovative Werkzeuge zur Verfügung zu stellen. Die Maßnahmen sind eine Reaktion auf die zunehmende Bedeutung von Künstlicher Intelligenz in der Musikbranche und die Herausforderungen, die mit KI-generierter Musik einhergehen. Damit positioniert sich Spotify als Vorreiter im Umgang mit KI in der Musikindustrie und setzt auf verantwortungsvolle Integration neuer Technologien.
Ein Forscherteam am MIT hat ein innovatives Ultraschall-Armband vorgestellt, das mithilfe künstlicher Intelligenz die Bewegungen der Hand in Echtzeit präzise erfasst und interpretiert. Das Armband erzeugt Ultraschallbilder der Handgelenksmuskulatur und nutzt ein KI-Algorithmus, um diese Bilder kontinuierlich in die exakten Positionen der Finger und der Handfläche zu übersetzen. In Demonstrationen konnten Nutzer mit dem Armband sowohl Roboterhände als auch virtuelle Objekte auf dem Bildschirm intuitiv und drahtlos steuern. Die Technologie verspricht, bisherige Handtracking-Methoden wie Kamerasysteme oder sensorbasierte Handschuhe zu ersetzen und eröffnet neue Möglichkeiten für Anwendungen in Robotik, Virtual Reality und der Steuerung humanoider Roboter. Besonders hervorzuheben ist das Potenzial, große Mengen an Trainingsdaten für KI-Systeme zu generieren, die die Geschicklichkeit von Robotern weiter verbessern könnten. Das Projekt wurde unter anderem von der U.S. National Science Foundation, dem U.S. Department of Defense und dem NIH gefördert. Die Forscher planen, das Armband weiter zu miniaturisieren und die KI mit noch vielfältigeren Handbewegungen zu trainieren, um eine universell einsetzbare Steuerung für Roboter und virtuelle Umgebungen zu schaffen.
OpenAI hat seine Rekord-Finanzierungsrunde um weitere 10 Milliarden US-Dollar aufgestockt und erreicht damit eine Gesamtsumme von über 120 Milliarden US-Dollar. Diese massive Kapitalaufnahme unterstreicht das enorme Interesse von Investoren an der KI-Branche und an OpenAI als führendem Unternehmen im Bereich künstliche Intelligenz. Die zusätzlichen Mittel sollen das Wachstum, die Entwicklung neuer KI-Modelle und die globale Expansion des Unternehmens weiter vorantreiben. Im Raum steht zudem ein möglicher Börsengang von OpenAI noch in diesem Jahr, was die Aufmerksamkeit der Finanzmärkte zusätzlich auf das Unternehmen lenkt. Die Investitionen werden voraussichtlich in KI-Infrastruktur, Forschung und die Skalierung von KI-Produkten fließen und könnten die Dynamik der gesamten Branche nachhaltig beeinflussen.
OpenAI hat angekündigt, seine Sora-App sowie die zugehörige API nach nur wenigen Monaten Betrieb einzustellen. Die Sora-App war eine KI-basierte Plattform zur Videogenerierung, die mit umfangreichen Sicherheitsfunktionen ausgestattet war. Im Zuge dieser Entscheidung beendet Disney die erst im Dezember geschlossene milliardenschwere Partnerschaft mit OpenAI, die auf der Lizenzierung von über 200 Disney-Charakteren für die Sora-Plattform basierte. Die strategische Neuausrichtung von OpenAI und die Einstellung der Sora-Produkte führen dazu, dass die geplanten Integrationen und Investitionen nicht weiterverfolgt werden. Dieser Schritt verdeutlicht die Herausforderungen und Unsicherheiten im Bereich KI-basierter Videotechnologien und deren Kommerzialisierung.
OpenAI hat überraschend die Einstellung seines KI-basierten Video-Generators Sora bekanntgegeben, nur wenige Monate nach dem offiziellen Start. Diese Entscheidung betrifft sowohl die Sora-App als auch den API-Zugang für Entwickler und beendet die geplante Milliarden-Partnerschaft mit Disney, die auf die Lizenzierung von über 200 Disney-Charakteren abzielte. Hintergrund ist eine umfassende strategische Neuausrichtung, die CEO Sam Altman unter dem internen 'Code Red' eingeleitet hat, um sich stärker auf das Kerngeschäft und den Wettbewerb mit Unternehmen wie Anthropic und Google Gemini zu konzentrieren. Sora konnte weder eine engagierte Nutzerbasis aufbauen noch die hohen Kosten für die notwendige Rechenleistung rechtfertigen, was zu einem ausbleibenden finanziellen Erfolg führte. Im Zuge der Umstrukturierung übernimmt ein hochrangiger Manager eine neue Rolle, und OpenAI plant, durch eine neue Finanzierungsrunde weitere zehn Milliarden US-Dollar einzuwerben, wodurch sich das Gesamtvolumen der aktuellen Runde auf über 120 Milliarden US-Dollar erhöht. Künftig will das Unternehmen seine Ressourcen auf fortschrittliche Robotik und KI-Modelle für die physische Welt lenken, während die Bildgenerierungsfunktion von ChatGPT bestehen bleibt. Berichten zufolge arbeitet OpenAI zudem an einer Desktop-Super-App, die ChatGPT, Codex und einen eigenen Browser vereinen soll. Insgesamt befindet sich OpenAI damit in einer Phase intensiver Konsolidierung und Priorisierung, um langfristig wirtschaftlich tragfähige KI-Produkte zu entwickeln.
Das österreichische Scale-up FireStart hat sich nach einer erfolgreichen Umstrukturierung als Anbieter von KI-gestützten Workflow-Lösungen für mittelständische Unternehmen im DACH-Raum positioniert. Durch die Überarbeitung seines Cloud-Produkts und die Integration von Künstlicher Intelligenz in operative Geschäftsprozesse konnte das Unternehmen seinen Umsatz mehr als verdoppeln und über 80 neue Unternehmenskunden gewinnen. FireStart legt besonderen Wert auf Datensouveränität, indem es seine Dienste auf europäischen Servern hostet, was für viele Kunden ein entscheidender Faktor ist. Im Gegensatz zu reinen KI-Buzzwords oder Chatbots setzt FireStart auf die produktive Einbindung von KI, um Prozesse tatsächlich intelligenter und effizienter zu gestalten. Der Mittelstand, der schnelle und pragmatische Lösungen sucht, steht dabei im Fokus. Zudem baut FireStart Partnerschaften mit SaaS-Unternehmen aus, die ihre Produkte um eine leistungsfähige Workflow-Engine mit KI-Funktionen erweitern möchten. Die Entwicklung unterstreicht den Trend, dass KI zunehmend als zentrales Werkzeug zur Automatisierung und Optimierung von Geschäftsprozessen im Mittelstand eingesetzt wird.
Arm Holdings bringt mit der AGI CPU erstmals einen eigenen KI-Prozessor auf den Markt und vollzieht damit einen historischen Strategiewechsel. Der speziell für agentenbasierte KI-Systeme und KI-Rechenzentren entwickelte Chip basiert auf firmeneigenen Neoverse-IP-Kernen, wird im fortschrittlichen 3-Nanometer-Verfahren von TSMC gefertigt und besteht aus zwei Siliziumteilen, die als ein Chip agieren. Zu den ersten Kunden zählen Meta, OpenAI, Nvidia, Microsoft Azure, AWS, SAP, Cloudflare, Cerebras, SK Telecom, Broadcom, Micron, Marvell, Databricks und Samsung. Arm arbeitet zudem mit Serverherstellern wie Lenovo und Quanta Computer an Komplettsystemen auf Basis des neuen Prozessors. Ziel ist es, anspruchsvolle KI-Workloads zu bewältigen, bei denen autonome Systeme komplexe Aufgaben ohne ständige menschliche Eingaben ausführen. Die Großserienproduktion ist für die zweite Hälfte 2026 geplant, und weitere eigene Chipdesigns sollen im 12- bis 18-Monats-Rhythmus folgen. Mit diesem Schritt tritt Arm in direkten Wettbewerb zu bisherigen Lizenznehmern wie Qualcomm, Nvidia und Apple und positioniert sich als eigenständiger Akteur im wachsenden Markt für KI-Infrastruktur.
Der Artikel beleuchtet die wachsende Bedeutung von Open Source im Kontext kritischer Software-Infrastruktur, insbesondere auch für KI-Anwendungen. Unternehmen erkennen zunehmend, dass Open-Source-Lösungen im Vergleich zu klassischen SaaS-Angeboten mehr Kontrolle, Wechselbarkeit und Verhandlungsmacht bieten. Gerade bei differenzierenden Prozessen oder kritischen Datenflüssen, die für KI-Systeme oft zentral sind, kann Open Source helfen, Abhängigkeiten von einzelnen Anbietern zu reduzieren und die Betriebssicherheit zu erhöhen. Die Möglichkeit, den Betrieb notfalls auch ohne den ursprünglichen Vendor weiterzuführen, wird als entscheidender Vorteil hervorgehoben. Für KI-Unternehmen und -Anwender bedeutet dies, dass Open-Source-Modelle und -Infrastrukturen nicht nur aus Kostengründen, sondern vor allem aus Gründen der Souveränität und Risikominimierung immer attraktiver werden. Die Diskussion unterstreicht, dass Transparenz und die Fähigkeit, Systeme im Ernstfall selbst zu betreiben oder zu migrieren, für die Zukunft der KI-Branche von zentraler Bedeutung sind.
OpenAI hat einen grundlegenden Strategiewechsel vollzogen und stellt das KI-Video-Tool Sora ein, um Ressourcen auf die Entwicklung eines neuen Sprachmodells mit dem Codenamen "Spud" zu konzentrieren. Das Pre-Training von Spud ist abgeschlossen, und CEO Sam Altman kündigte eine Veröffentlichung in wenigen Wochen an, wobei noch offen ist, ob es sich um GPT-6 oder GPT-5.5 handelt. Die Einstellung von Sora ist auf den enormen GPU-Bedarf, gescheiterte Content-Deals und eine strategische Neuausrichtung auf Coding- und Enterprise-Produkte zurückzuführen, um im Wettbewerb mit Anthropic und Google Gemini aufzuholen. Künftig soll das Sora-Team an "World Simulation"-Forschung für Robotikanwendungen arbeiten. OpenAI plant zudem eine "Super-App", die ChatGPT, Codex und einen eigenen Browser vereinen soll. Parallel dazu wurde das Unternehmen intern umstrukturiert: Mark Chen übernimmt die Forschungs- und Sicherheitsabteilung, Greg Brockman verantwortet technische Sicherheitsfragen, und Fidji Simo wird CEO des neuen Bereichs "AGI Deployment". Diese Maßnahmen sind Teil eines internen "Code Red"-Zustands, um OpenAI profitabler und wettbewerbsfähiger zu machen und die Führungsposition in der KI-Branche zu sichern.
Das Wiener Startup Senseven hat beim neunten City-Pitch der #glaubandich CHALLENGE 2026 in Vorarlberg mit einem innovativen, KI-gestützten Inspektionssystem für Industrieventile überzeugt. Das System kombiniert einen Schallemissionssensor mit einer Smartphone-App, die mithilfe von Künstlicher Intelligenz Leckagen in Ventilen nicht nur erkennt, sondern auch deren Größe quantifiziert. Diese Lösung ermöglicht es auch Laien, Ventile schnell und präzise auf Dichtheit zu überprüfen, was die Wartung und Instandhaltung in der Industrie deutlich vereinfacht. Die Jury lobte insbesondere die klare Kommunikation und die technische Expertise des Teams. Mit dem Sieg sichert sich Senseven ein Preisgeld sowie die Teilnahme am großen Finale in Wien, wo weitere KI-orientierte Startups antreten werden. Das Produkt von Senseven zeigt, wie KI-Anwendungen zunehmend in industrielle Prozesse integriert werden, um Effizienz und Sicherheit zu steigern.
OpenAI hat überraschend die Entwicklung seiner KI-Video-App Sora eingestellt, ohne konkrete Gründe für diesen Schritt zu nennen. Die App, die mit innovativen KI-Technologien zur Erstellung synthetischer Videos auf sich aufmerksam gemacht hatte, galt als eines der ambitioniertesten Projekte des Unternehmens. Branchenbeobachter spekulieren, dass der zunehmende Konkurrenzdruck durch andere KI-Schwergewichte wie Google und Anthropic eine Rolle gespielt haben könnte. Sora war mit umfangreichen Sicherheitsfunktionen und Wasserzeichen ausgestattet, um Missbrauch zu verhindern, konnte jedoch offenbar nicht die erhoffte Nutzerbindung erzielen. Die Einstellung des Projekts wirft Fragen zur strategischen Ausrichtung von OpenAI auf und zeigt, wie dynamisch und wettbewerbsintensiv der Markt für generative KI-Anwendungen derzeit ist.
Mit „MyCompany GPT“ wird ein neues KI-Tool vorgestellt, das Unternehmen dabei unterstützt, künstliche Intelligenz sicher und produktiv in ihre Arbeitsprozesse zu integrieren. Das Angebot umfasst unter anderem einen Selbsttest, mit dem Firmen ihren aktuellen KI-Reifegrad ermitteln können. Ziel ist es, Unternehmen praxisnah an die Nutzung von KI heranzuführen und ihnen konkrete Handlungsempfehlungen für die Implementierung zu geben. Die Initiative verdeutlicht den wachsenden Bedarf an maßgeschneiderten KI-Lösungen, die sowohl auf Sicherheit als auch auf Effizienz abzielen. Damit trägt „MyCompany GPT“ zur weiteren Verbreitung und Professionalisierung von KI-Anwendungen in der Wirtschaft bei.
Am 24. April 2026 veranstaltet die the native web GmbH die tech:lounge Live! in Freiburg, bei der die Themen Architektur, Data Science und Künstliche Intelligenz (KI) zusammengeführt werden. Die Veranstaltung bietet eine Plattform für den Austausch über aktuelle Entwicklungen und Anwendungen von KI in Verbindung mit anderen Technologiebereichen. Besonders im Fokus stehen dabei innovative Ansätze, wie KI in der Architektur und im Datenmanagement eingesetzt werden kann. Die tech:lounge Live! richtet sich an Fachleute und Interessierte, die sich über die neuesten Trends und Herausforderungen im Bereich KI informieren möchten. Damit trägt das Event zur Vernetzung und zum Wissenstransfer innerhalb der KI-Branche bei.
Microsoft hat einen umfassenden Überblick über die Integration generativer KI in .NET-Umgebungen gegeben und dabei das neue Microsoft Agent Framework vorgestellt. Dieses Framework ermöglicht es Entwicklern, KI-Agenten und -Anwendungen effizienter zu erstellen und zu betreiben. Im Fokus stehen dabei die Nutzung von OpenAI-Modellen, die Anbindung an Azure sowie die Bereitstellung moderner SDKs und Streaming-Funktionen. Die neuen Tools sollen die Entwicklung von KI-basierten Lösungen in Unternehmen und bei Entwicklern beschleunigen und vereinfachen. Mit dem Agent Framework positioniert sich Microsoft weiterhin als zentraler Akteur im Bereich der generativen KI und baut seine Partnerschaft mit OpenAI sowie die Integration in die eigene Cloud-Plattform Azure weiter aus.
Das Wiener AI-Startup Minimist hat eine Pre-Seed-Finanzierungsrunde in Höhe von einer Million Euro abgeschlossen, angeführt von Tilia Impact Ventures und unterstützt durch InvestEU sowie weitere Investoren. Minimist entwickelt eine KI-basierte Software, die Second-Hand-Läden ermöglicht, Produkte automatisch auf Plattformen wie Vinted, Google Shopping, Shopify und eBay zu listen. Besonders innovativ ist die Scanner-Technologie, mit der mithilfe von Künstlicher Intelligenz aus Fotos innerhalb von 30 Sekunden fertige Produktlistings erstellt werden. Das Investment soll vor allem in die Weiterentwicklung automatischer Größenerkennung fließen. Zudem setzt Minimist auf digitale AI-Models, die nicht nur die Conversion-Rate um 10-15% steigern, sondern auch gegen sexuelle Belästigung bei der Produktpräsentation wirken. Das Unternehmen plant eine internationale Expansion, zunächst in die USA und nach Australien ab Sommer 2025. Die Partnerschaft mit eBay in Großbritannien ist bereits ein wichtiger Umsatztreiber, über den 80-90% der Verkäufe laufen. Minimist positioniert sich damit als Vorreiter für KI-Anwendungen im boomenden Second-Hand-Markt.
Die Design-Plattform Figma hat bekanntgegeben, dass sie fortschrittliche KI-Modelle wie Claude Code von Anthropic und OpenAI Codex in ihre Plattform integriert. Durch diese Integration können Nutzer Layouts nun automatisch aus bestehenden Designkomponenten generieren lassen, was den Designprozess deutlich beschleunigt und vereinfacht. Die KI-gestützten Coding-Assistenten unterstützen Entwickler und Designer dabei, effizienter zu arbeiten und komplexe Aufgaben schneller zu lösen. Mit diesem Schritt positioniert sich Figma als Vorreiter bei der Nutzung künstlicher Intelligenz im Bereich kollaboratives Design und Softwareentwicklung. Die Integration der KI-Modelle dürfte die Wettbewerbsfähigkeit von Figma stärken und neue Maßstäbe für die Automatisierung kreativer Prozesse setzen.
In Deutschland sorgt eine rechtliche Lücke bei der Strafverfolgung von KI-generierten Deepfakes für Diskussionen. Aktuell ist die Herstellung und Verbreitung täuschend echter, mit Künstlicher Intelligenz erzeugter Bild-, Audio- oder Videofälschungen nicht immer eindeutig strafbar, sofern keine weiteren Straftatbestände wie Verleumdung oder Urheberrechtsverletzungen vorliegen. Dies wirft Fragen hinsichtlich des Schutzes von Persönlichkeitsrechten und der Integrität öffentlicher Kommunikation auf. Experten und Politiker fordern daher eine Anpassung der Gesetzgebung, um gezielt gegen den Missbrauch von KI-Deepfakes vorgehen zu können. Die Debatte gewinnt angesichts der rasanten Entwicklung von KI-Technologien und deren Missbrauchspotenzial zunehmend an Bedeutung.
OpenAI hat beschlossen, seine eigene Technologie zur Generierung von Videos einzustellen. Diese Entscheidung bedeutet auch das Aus für die zuvor groß angekündigte Partnerschaft mit Disney, die auf der Entwicklung und Nutzung von KI-basierten Videolösungen basierte. Der Schritt markiert eine strategische Neuausrichtung des KI-Unternehmens, das sich künftig offenbar stärker auf andere KI-Anwendungen konzentrieren möchte. Die Einstellung der Video-Generierung könnte Auswirkungen auf den Wettbewerb im Bereich KI-basierter Medienproduktion haben, da OpenAI bislang als einer der führenden Innovatoren in diesem Segment galt. Für Disney bedeutet das Ende der Kooperation, dass geplante Projekte mit KI-generierten Inhalten neu bewertet werden müssen. Die Entscheidung unterstreicht die Dynamik und Unsicherheiten im schnelllebigen KI-Markt, insbesondere bei der Entwicklung kreativer KI-Anwendungen.
Im Jahr 2025 dominiert Künstliche Intelligenz weiterhin die Investitionsschwerpunkte des europäischen Venture-Capital-Markts. Milliardenbeträge flossen in KI-Unternehmen wie Mistral AI, das 1,7 Milliarden Euro einsammelte, sowie in Nscale und Isomorphic Labs. Diese Entwicklung unterstreicht die zentrale Rolle von KI als Wachstumsmotor für Europas Startup-Ökosystem. Die selektiveren Investoren bevorzugen zunehmend substanzielle Geschäftsmodelle mit robusten Fundamentaldaten und klaren Skalierungsperspektiven, was insbesondere im KI-Sektor zu größeren Finanzierungsrunden führt. Neben KI profitieren auch DefenceTech und Dual-Use-Technologien von geopolitischen Spannungen und dem Streben nach europäischer Souveränität. Trotz eines insgesamt rückläufigen Deal-Volumens bleibt KI der wichtigste Magnet für Wachstumskapital und prägt maßgeblich die Innovationslandschaft Europas.
Das KI-Modell Sora 2, das für die Video- und Audiogenerierung entwickelt wurde, zeigt beeindruckende technische Fähigkeiten und hebt die Möglichkeiten künstlicher Intelligenz in der Medienproduktion auf ein neues Niveau. Trotz dieser technologischen Fortschritte konnte ein ausschließlich KI-basierter Social Feed jedoch kein dauerhaftes Nutzerinteresse wecken. Dies verdeutlicht, dass selbst hochentwickelte KI-Modelle nicht automatisch zu nachhaltigen Nutzererfahrungen führen, wenn das Produktkonzept nicht überzeugt. Die Entwicklung unterstreicht die Herausforderungen, vor denen KI-Unternehmen stehen: Neben der technischen Exzellenz müssen auch die Anwendungsszenarien und Nutzerbedürfnisse sorgfältig adressiert werden, um langfristigen Erfolg zu sichern.
Microsoft hat auf der KubeCon + CloudNativeCon Europe 2026 in Amsterdam zahlreiche Neuerungen vorgestellt, die die Integration und den Betrieb von KI-Workloads auf Kubernetes deutlich vereinfachen und professionalisieren sollen. Im Fokus stehen Open-Source-Initiativen wie Dynamic Resource Allocation (DRA) für GPU-gestützte Workloads, das neue Projekt AI Runway zur zentralen Verwaltung von Inferenz-Workloads sowie die Integration von NVIDIA Dynamo und weiteren KI-Runtimes. Mit HolmesGPT und Dalec wurden zudem neue CNCF-Projekte für agentenbasiertes Troubleshooting und sichere Container-Builds präsentiert. Microsoft investiert stark in Netzwerk- und Sicherheitsfunktionen, darunter mTLS-verschlüsselte Kommunikation, WireGuard-Integration und Identitätsmanagement für KI-Workloads. Die Azure Kubernetes Services (AKS) erhalten verbesserte GPU-Telemetrie, detaillierte Netzwerk-Observability und vereinfachte Multi-Cluster-Operationen, was insbesondere für KI-Teams mit hohen Infrastrukturansprüchen relevant ist. Neue Tools wie der AKS Desktop und Blue-Green-Upgrades erleichtern Entwicklung, Betrieb und sichere Aktualisierung von KI-gestützten Anwendungen. Insgesamt unterstreicht Microsoft damit seinen Anspruch, die Operationalisierung von KI in der Cloud durch offene Standards und Community-getriebene Innovationen voranzutreiben.
OpenAI beendet nach nur 15 Monaten sein KI-Modell Sora zur Videogenerierung und leitet damit eine strategische Neuausrichtung ein. Die frei werdenden Rechenressourcen werden in die Entwicklung eines neuen, leistungsstarken Sprachmodells mit dem Codenamen "Spud" investiert, das in Kürze erscheinen soll. Das bisherige Sora-Team bleibt dem Unternehmen erhalten und widmet sich künftig der Erforschung von Weltmodellen, insbesondere für den Einsatz in der Robotik. OpenAI bündelt seine Kräfte unter dem neuen Namen "AGI Deployment" und konzentriert sich verstärkt auf die Entwicklung von Artificial General Intelligence (AGI) sowie den Aufbau riesiger Rechenzentren. CEO Sam Altman übernimmt dabei zentrale Aufgaben im Bereich Kapitalbeschaffung und Infrastrukturaufbau, um die ambitionierten Ziele zu ermöglichen. Der Schritt markiert einen klaren Bruch mit der bisherigen Produktstrategie und unterstreicht die Priorisierung von AGI und skalierbarer KI-Infrastruktur als künftige Wachstumstreiber.
Bei einer Anhörung hat ein US-Bezirksrichter die Beweggründe des Verteidigungsministeriums hinterfragt, warum der Entwickler der Claude-KI von Anthropic als Lieferkettenrisiko eingestuft wurde. Das Pentagon argumentiert, dass KI-Anbieter wie Anthropic im Ernstfall ihre Technologie für militärische Einsätze deaktivieren könnten, was die nationale Sicherheit gefährde. Diese Einschätzung hat dazu geführt, dass Unternehmen, die mit dem US-Militär zusammenarbeiten, keine Claude-Modelle mehr nutzen dürfen. Die gerichtliche Überprüfung könnte weitreichende Folgen für die Zusammenarbeit zwischen KI-Unternehmen und staatlichen Stellen haben, insbesondere im Hinblick auf die Kontrolle und Verfügbarkeit von KI-Systemen in sicherheitsrelevanten Bereichen. Die Debatte verdeutlicht die wachsende Bedeutung von KI in der Verteidigung und die damit verbundenen politischen und ethischen Herausforderungen.
Arm hat erstmals eine eigene CPU vorgestellt, die speziell für KI-Anwendungen in Rechenzentren entwickelt wurde: die Arm AGI CPU. Diese neue Chipgeneration ist darauf ausgelegt, anspruchsvolle Inferenzaufgaben zu bewältigen, wie sie etwa bei KI-Agenten und anderen fortschrittlichen AI-Tools anfallen, die zahlreiche Aufgaben parallel ausführen können. Meta ist der erste Kunde und zugleich Co-Entwickler dieser CPU und plant, sie in mehreren Generationen gemeinsam mit Arm weiterzuentwickeln. Die Chips sollen in Metas Rechenzentren zusammen mit Hardware anderer Anbieter wie Nvidia und AMD eingesetzt werden. Hintergrund ist, dass Meta bislang Schwierigkeiten hatte, eigene KI-Chips erfolgreich auf den Markt zu bringen. Mit der Partnerschaft will Meta seine KI-Infrastruktur stärken und die Entwicklung leistungsfähiger KI-Agenten und -Anwendungen beschleunigen. Die Ankündigung markiert einen wichtigen Schritt für Arm, das bisher vor allem als Lizenzgeber für Chipdesigns bekannt war, und unterstreicht den wachsenden Bedarf an spezialisierter KI-Hardware in der Branche.
OpenAI hat überraschend das Aus für sein Video-KI-Modell Sora bekanntgegeben. Sowohl die TikTok-ähnliche Sora-App als auch der API-Zugang für Entwickler werden eingestellt, wie CEO Sam Altman intern mitteilte. Damit werden auch Pläne verworfen, Sora-Funktionen in ChatGPT zu integrieren. Die Entscheidung kommt nur wenige Monate nach einem groß angelegten Lizenzdeal mit Disney, der unter anderem vorsah, Disney-Charaktere in Sora-Videos zu nutzen und eine Milliarde US-Dollar zu investieren. Die Einstellung von Sora dürfte weitreichende Auswirkungen auf die KI-Videobranche und bestehende Partnerschaften haben. Gründe für den Rückzug wurden bislang nicht offiziell genannt, Branchenbeobachter vermuten jedoch stagnierende Nutzerzahlen und strategische Neuausrichtung als Auslöser.
Anthropic hat für sein KI-gestütztes Programmierwerkzeug Claude Code einen neuen Auto-Modus eingeführt. Diese Funktion ermöglicht es der KI, Aufgaben effizienter und mit weniger Nutzerbestätigungen auszuführen, indem sie eigenständig Entscheidungen über Berechtigungen trifft. Trotz der erhöhten Autonomie bleiben wichtige Schutzmechanismen aktiv: Potenziell riskante Aktionen werden erkannt, blockiert und Nutzer werden gewarnt, bevor sie ausgeführt werden. Damit bietet der Auto-Modus eine ausgewogene Lösung zwischen Produktivität und Sicherheit, was besonders für Entwickler und Unternehmen relevant ist, die auf schnelle und sichere Automatisierung setzen. Die Einführung dieses Modus adressiert Sicherheitsbedenken rund um autonome KI-Agenten und unterstreicht Anthropics Fokus auf verantwortungsvolle KI-Entwicklung im Bereich der automatisierten Programmierung.
Ein großes Unternehmen aus dem Bereich der künstlichen Intelligenz hat einer Familie in Kentucky Berichten zufolge 26 Millionen US-Dollar angeboten, um auf deren Farm ein Rechenzentrum zu errichten. Rechenzentren sind essenziell für das Training und den Betrieb moderner KI-Modelle, da sie enorme Rechenleistung und spezialisierte Hardware benötigen. Das hohe Angebot unterstreicht den wachsenden Bedarf der KI-Branche an geeigneten Standorten für Infrastruktur, um mit der steigenden Nachfrage nach KI-Anwendungen Schritt zu halten. Solche Investitionen zeigen, wie stark KI-Unternehmen derzeit in den Ausbau ihrer technischen Kapazitäten investieren, um im globalen Wettbewerb bestehen zu können.
Das Wiener Startup Agai Bodenpapst hat eine KI-gestützte Plattform speziell für die Landwirtschaft entwickelt, die Landwirt:innen bei der Bodenanalyse und Entscheidungsfindung unterstützt. Das System funktioniert ähnlich wie ein spezialisierter ChatGPT-Klon und basiert auf über 10.000 validierten wissenschaftlichen Studien, Publikationen und öffentlichen Datensätzen, deren Quellen direkt verlinkt werden. Nutzer:innen können in natürlicher Sprache fachspezifische Fragen stellen, etwa zur Stickstoff-Effizienz oder Standortoptimierung, und erhalten fundierte, praxisnahe Antworten. Künftig soll die Plattform auch den Bürokratieaufwand in der Landwirtschaft reduzieren, etwa durch einen KI-gestützten Förder-Finder, der passende Subventionen recherchiert und Anträge automatisch vorausfüllt. Das Geschäftsmodell basiert auf einem mehrstufigen SaaS-Ansatz mit monatlichen Abopreisen zwischen 10 und 40 Euro, um sowohl Einzelbetriebe als auch Beratungsstellen und Forschungseinrichtungen anzusprechen. Die Lösung adressiert die Herausforderungen langer Vertriebszyklen und einer traditionell geprägten Zielgruppe im Agrarsektor. Ziel ist es, mit niedrigen Kosten für die Neukundengewinnung und internationaler Skalierbarkeit langfristig profitabel zu werden.
Crusoe und Redwood Materials haben eine bedeutende Erweiterung ihrer Partnerschaft angekündigt, um die Bereitstellung von erneuerbar betriebenen KI-Rechenzentren massiv auszubauen. Nach dem erfolgreichen Betrieb eines 12-Megawatt-Mikronetzes, das Solarenergie und wiederverwendete Elektroauto-Batterien kombiniert, wird die Anzahl der Crusoe Spark modularen Rechenzentren auf dem Redwood-Campus in Nevada von 4 auf 24 erhöht. Damit steigt die verfügbare Rechenleistung auf das Siebenfache der ursprünglichen Kapazität. Das Projekt demonstriert, dass Second-Life-Batterien zuverlässig Hochleistungs-KI-Workloads versorgen können und erreichte eine beeindruckende Betriebsverfügbarkeit von 99,2 Prozent über sieben Monate. Die modulare Bauweise der Crusoe Spark Data Center und der Energiespeicher von Redwood ermöglicht eine schnelle und flexible Skalierung der KI-Infrastruktur. Diese Entwicklung gilt als Blaupause für nachhaltiges, kosteneffizientes und rasch ausbaubares KI-Computing. Crusoe positioniert sich damit als Vorreiter für die nächste Generation von 'AI factories', die auf innovative Energie- und Infrastrukturkonzepte setzen.
Vertiv, ein führender Anbieter von digitaler Infrastruktur, hat die Eröffnung und Erweiterung von vier Fertigungsstätten in Nord- und Südamerika angekündigt, um die steigende Nachfrage nach Infrastruktur für KI-Rechenzentren (AI factories) zu bedienen. Das Unternehmen reagiert damit auf den wachsenden Bedarf an leistungsfähigen, skalierbaren Lösungen für den Betrieb und das Training von KI-Modellen. Besonders im Fokus stehen modulare Stromversorgungssysteme und das SmartRun-System, das eine bis zu 85% schnellere Bereitstellung von Rechenzentrumsflächen ermöglicht. Neue Produktionskapazitäten in South Carolina und Pennsylvania konzentrieren sich auf integrierte Kühl- und Stromversorgungslösungen für hochdichte KI-Anwendungen. Die Expansion in Mexicali, Mexiko, soll die regionale Kapazität für Stromumwandlung und -verteilung um rund 45% steigern. Vertiv sieht KI als langfristigen Wachstumstreiber und setzt auf Innovationen, die eine effiziente, generationenübergreifende Infrastruktur für KI- und HPC-Anwendungen ermöglichen. Das Unternehmen positioniert sich damit als zentraler Partner für Betreiber von KI-Rechenzentren, die auf schnelle Skalierung und hohe Leistungsdichte angewiesen sind.
Die Politik reagiert auf die zunehmende Verbreitung von mit Künstlicher Intelligenz erzeugten Deepfakes, insbesondere im Bereich pornografischer Inhalte. Nachdem das Thema lange unbeachtet blieb, gewinnt die Debatte um eine gesetzliche Regelung nun an Fahrt. Ziel ist es, den Missbrauch von KI-Technologien zur Erstellung täuschend echter, aber gefälschter Bild- und Videoinhalte einzudämmen und Betroffene besser zu schützen. Die geplanten Maßnahmen könnten weitreichende Auswirkungen auf die KI-Branche haben, da sie neue rechtliche Rahmenbedingungen für die Entwicklung und Verbreitung von KI-basierten Bild- und Videomanipulationen schaffen. Damit rückt auch die Verantwortung von KI-Entwicklern und Plattformbetreibern stärker in den Fokus.
Google hat in einer aktuellen Demo gezeigt, wie das neue KI-Modell Gemini 3.1 Flash-Lite nahezu in Echtzeit komplette Websites generieren kann. Das Modell zeichnet sich durch eine besonders hohe Geschwindigkeit und niedrige Betriebskosten aus, was es für Entwickler und Unternehmen attraktiv macht. Die Präsentation unterstreicht Googles Ambitionen, KI-gestützte Automatisierung und Kreativität im Webdesign weiter voranzutreiben. Mit Gemini 3.1 Flash-Lite könnten künftig Webprojekte deutlich schneller und effizienter umgesetzt werden. Die Frage nach dem tatsächlichen Nutzen und der Qualität der generierten Seiten bleibt jedoch weiterhin Gegenstand der Diskussion in der KI-Community.