EINORDNUNG & PERSPEKTIVE
Superintelligenz in „zwei Jahren“ – und niemand hat eine Notbremse?
Auf dem AI Impact Summit in Neu-Delhi (16.–20. Februar 2026) ist etwas passiert, das man nicht als übliches „Tech-Konferenz-Theater“ abtun sollte: Sam Altman (OpenAI) hat seine bislang deutlichste Zeitansage zur Superintelligenz gemacht – und gleichzeitig offen eingeräumt, dass es keinen belastbaren globalen Sicherheitsmechanismus gibt.
Altman sprach davon, dass wir nur „ein paar Jahre“ von frühen Formen „echter Superintelligenz“ entfernt sein könnten – und dass bis Ende 2028 ein Großteil der weltweiten „intellektuellen Kapazität“ in Rechenzentren liegen könnte, nicht mehr außerhalb.
Das ist keine akademische Debatte mehr. Es ist ein Zeithorizont, der in Strategiezyklen von Unternehmen passt: 2026–2028 ist nicht „ferne Zukunft“, sondern laufende Roadmap.
Wenn selbst der OpenAI-CEO eine „IAEA für KI“ fordert, ist das ein Signal
Altman hat in Neu-Delhi sinngemäß gefordert, die Welt brauche eine internationale Koordinations- und Aufsichtsstruktur nach Vorbild der Internationalen Atomenergieagentur (IAEA) – also eine Art „Atombehörde für KI“.
Wichtig ist dabei weniger, ob genau dieses Modell politisch realistisch ist. Entscheidend ist das Meta-Signal:
- Die führenden Labore rechnen mit Systemrisiken, die nationale Regulierung überfordern.
- Gleichzeitig läuft die Kommerzialisierung so aggressiv, dass Governance strukturell hinterherhinkt.
Das ist der Kernkonflikt 2026: Maximale Geschwindigkeit trifft minimale internationale Steuerungsfähigkeit.
Der Geldstrom zeigt, dass „Bremsen“ gerade nicht im Marktmodell steckt
Parallel zu den Risiko-Warnungen laufen Finanzierungsrunden, deren Dimensionen man früher nur bei Staaten oder Ölkonzernen verortet hätte. Berichtet wird, dass OpenAI eine Runde von über 100 Mrd. USD anstrebt; im Raum steht eine Bewertung um ~830–850 Mrd. USD – und Nvidia soll dabei nahe an einem Investment in der Größenordnung von ~30 Mrd. USD sein.
Auch Anthropic hat eine neue Runde von 30 Mrd. USD kommuniziert, bewertet mit 380 Mrd. USD (post-money).
Diese Zahlen sind nicht nur „beeindruckend“. Sie bedeuten:
- Der Markt preist ein, dass Compute + Daten + Modelle zu einer kritischen Infrastruktur werden.
- Wer investiert, erwartet Dominanz-Effekte (Skalierung, Lock-in, Plattformmacht).
- Und: Je größer der Einsatz, desto geringer die Bereitschaft, freiwillig zu bremsen.
Politischer Gegenwind: Sanders fordert „Slow down“ – bis hin zum Moratorium
Die Warnungen kommen inzwischen auch aus der Politik. Bernie Sanders hat bei einem Stanford-Event öffentlich betont, die USA seien auf Geschwindigkeit und Ausmaß der KI-Umwälzung nicht vorbereitet – inklusive Forderungen, den Ausbau von KI-Rechenzentren zu bremsen (bis hin zu einem Moratorium).
Ob man diese Forderung teilt oder nicht: Sie zeigt, dass sich die Debatte von „Innovationspolitik“ zu Infrastruktur- und Machtpolitik verschiebt – und damit härter wird.
Was heißt das für Unternehmen in Deutschland?
Für die meisten Organisationen ist die wichtigste Erkenntnis nicht „kommt Superintelligenz 2028?“. Sondern:
Die nächsten 24 Monate werden zum Governance-Stresstest.
Und zwar unabhängig davon, welches Labor bei Frontier-Fähigkeiten vorne liegt.
1) Vendor- und Compute-Risiko ist ein Business-Risiko
Wenn Kapital, Compute und Modelle immer stärker konzentriert werden, steigen:
- Abhängigkeitsrisiken (Preis-/Feature-Shifts, Datentransfers, Modellwechsel),
- Verfügbarkeitsrisiken (Rate Limits, geopolitische Exportregeln),
- Audit-/Nachweisrisiken (wer kann was belegen, wenn’s kracht?).
2) „AI Governance“ ist nicht Bürokratie – es ist Steuerungsfähigkeit
Wer KI produktiv nutzt, braucht mindestens:
- Use-Case-Inventar (wo ist KI drin?),
- Rollen/RACI (wer verantwortet Risiko, Qualität, Freigabe?),
- Dokumentation & Logging (Outputs, Datenquellen, Modellversionen),
- Incident-Prozesse (Fehlerbilder, Eskalation, Rollback).
3) Kommunikationsfähigkeit wird Pflicht
Die Kernfrage wird häufiger kommen – von Kund:innen, Aufsicht, Betriebsrat, Öffentlichkeit:
„Welche KI nutzen Sie – und wie stellen Sie Verlässlichkeit und Rechtmäßigkeit sicher?“
Wer darauf nur „wir nutzen da ein Tool…“ antwortet, hat kein Tool-Problem, sondern ein Governance-Problem.
AiNJA-Einordnung: 2026 ist das Jahr der Umsetzung – nicht der Debatte
Die Kombination aus (1) drastischen Zeitansagen aus den Laboren, (2) gigantischen Finanzierungsrunden und (3) wachsendem politischen Druck führt zu einem einfachen Befund:
Wir sind im Übergang von Experimenten zu Infrastruktur.
Und Infrastruktur wird reguliert, verhandelt, abgesichert – und manchmal geopolitisch instrumentalisiert.
Für Unternehmen heißt das: jetzt Strukturen bauen, statt später hektisch nachzudokumentieren. Das ist günstiger, schneller und reputationssicherer.
Quellen
AP News – AI Impact Summit, Neu-Delhi
https://apnews.com/article/67c2b5a37f98e0a6ebb81136e0287969
Economic Times – Altman zu Superintelligenz bis 2028
https://m.economictimes.com/ai/ai-insights/ai-impact-summit-2026-sam-altman-openai-superintelligence-india-2028-forecast-advanced-artificial-intelligence-could-arrive-within-a-few-years/articleshow/128546196.cms
Reuters – Nvidia & OpenAI Funding
https://www.reuters.com/business/nvidia-close-finalizing-30-billion-investment-openai-funding-round-ft-reports-2026-02-20/
Anthropic – Funding Round
https://www.anthropic.com/news/anthropic-raises-30-billion-series-g-funding-380-billion-post-money-valuation
The Guardian – Bernie Sanders zu KI-Geschwindigkeit
https://www.theguardian.com/us-news/2026/feb/21/ai-revolution-bernie-sanders-warning

