Google bringt Nano Banana Pro
«Ich kann KI nicht mehr von der Realität unterscheiden»

Im Internet sorgt ein neues KI-Modell für Furore. Google hat Ende November «Nano Banana Pro» lanciert. Die Ergebnisse sind so gut, dass Nutzer an der Realität zweifeln.
Kommentieren
Mit dem millionenschweren Kunstwerk (Bild) von Maurizio Cattelan hat Nano Banana nichts am Hut. Es ist der Codename für Googles neues KI-Tool namens Gemini 3 Pro Image.
Foto: imago/UPI Photo

Darum gehts

  • Google veröffentlicht Nano Banana Pro, eine neues KI-Tool für Bildgenerierung
  • Realistische Bilder mit verbesserter Detailgenauigkeit und höherer Auflösung möglich
  • Nano Banana Pro basiert auf Gemini-3-Pro-Image und erzeugt bis zu 2k-Auflösung
Die künstliche Intelligenz von Blick lernt noch und macht vielleicht Fehler.
nnnnnnn.jpg
Tobias BolzernRedaktor Digital

«Ich kann das nicht mehr von der Realität unterscheiden.» – «Mir macht das Angst.» In den Online-Foren wie reddit.com überschlagen sich gerade die Kommentare. Der Grund: Google hat sein neues KI-Modell von der Leine gelassen. Name: Gemini 3 Pro Image, inoffiziell Nano Banana Pro.

Vorbei sind die Zeiten von sechs Fingern und verformten Gesichtern. Nano Banana Pro liefert deutlich weniger Firlefanz, dafür mehr Fotorealismus. Blick hat den Vergleich gemacht: Vorgängermodell gegen Pro-Version, beide gefüttert mit denselben Befehlen (Prompts). Schnell wird klar: Die Unterschiede sind deutlich.

Wichtig: Blick setzt KI-basierte Tools wie ChatGPT, Nano Banana, Midjourney und Co. nicht für die Erstellung von fotorealistischen News-Bildern ein. Die Bilder in diesem Artikel dienen der Illustration, wie weit diese KI-Tools in wenigen Monaten gekommen sind. Der Einsatz von KI für illustrationsähnliche Bilder ist bei Blick gestattet. 

Banana an der Bahnhofstrasse

Nano Banana (alt): Die Stimmung ist romantisch, aber falsch. Das Tram ist rot, solche gibt es nicht in Zürich. Und die Schrift «Bahnpomf» nur Kauderwelsch.

Nano Banana Pro: Volltreffer! Das Cobra-Tram in Blau-Weiss (VBZ). Die Namen der Läden (Globus, Jelmoli) sind immerhin teilweise richtig. Perfekt ist es nicht – an der Bahnhofstrasse gibt es kein Kopfsteinpflaster, und die Linie 22 existiert auch nicht, aber die Google-KI kennt Zürich besser als mancher Tourist. 

Banana und Brauchtum

Nano Banana (alt): Alpabzug in Appenzell? Die KI scheitert am Brauchtum. Die Kuh wird zum Fabelwesen mit Blumenschmuck: Kitsch, keine Realität.

Nano Banana Pro: Ein riesiger Sprung. Die Tracht sitzt, die Glocke glänzt realistisch. Auch die Stickerei am Riemen ist gut getroffen. Kurz: Das Bild transportiert Atmosphäre. Verliert sich aber bei den feinen Details. 

Promi-Check mit Tim Cook

Huch, was ist denn mit Apple-CEO Tim Cook passiert? Ein Falthandy von Samsung und ein Windows-Shirt. Natürlich alles fake! In Europa kann Googles KI-Modell keine berühmten Personen ausspucken. In den USA schon. Mit speziellen Tricks kann man diese Sperrung jedoch aushebeln. 

Nano Banana (alt): Ein adretter, Mann, aber nicht Apple-Chef Tim Cook. Auf dem Shirt steht «Sindows 95». Das Licht wirkt künstlich, die Szene wie aus einem billigen Computerspiel.

Nano Banana Pro: Eindeutig Tim Cook. Die Falten stimmen, das Lachen wirkt echt. Der Text «Windows 95» ist korrekt. Das Licht bricht realistisch im Fenster, ist aber ein bisschen zu perfekt und auch die Haltung des Telefons wirkt etwas krampfig.

Der Selbsttest: Autor als Jazzsänger

Wie würde ich mich als Sänger in den roaring 20ies schlagen? Die KI ist besonders gut darin, Gesichter in bestimmte Szenen einzufügen. Im Beispiel ein Jazzclub. 

Nano Banana (alt): Ein netter Herr im Anzug, aber das bin nicht ich. Die KI hat mein Foto als Vorlage kaum verstanden. Das Resultat: ein generischer Dressman, glattgebügelt, aber fremd.

Nano Banana Pro: Moment, bin das ich? Die KI hat meine Gesichtszüge (fast) perfekt übernommen. Die Ähnlichkeit ist ein wenig unheimlich. Einzig die Narbe unter dem linken Auge gibt es in der Realität nicht.

Auto bei Nacht: Realismus Härtetest

Nano Banana (alt): Wirkt wie ein Screenshot aus einem älteren Videospiel. Das Licht ist flach, das Auto wirkt wie ein Spielzeug-Modell.

Nano Banana Pro: Täuschend echt. Das harte Licht und die Reflexionen auf dem Lack sind gut getroffen. Einzig das Nummernschild verrät den Schwindel.

Was du wissen musst

Was ist Nano Banana Pro?

Es ist ein sogenannter KI-Bildgenerator. Eine künstliche Intelligenz, die Textbefehle in Pixel umwandelt. Das «Pro» steht für die neuste Ausbaustufe mit mehr Power und besserem Verständnis für Zusammenhänge. Zudem kann es Bilder in höhere Auflösung ausgeben (2k) als noch der Vorgänger. Während Nano Banana auf Gemini‑2.5‑Flash‑Image basiert, basiert Nano Banana Pro auf Gemini‑3‑Pro‑Image.

Was sind die Unterschiede?

Pro erzeugt schärfere, detailreichere Bilder (Text, Texturen, komplexe Szenen), während Nano Banana in den Details eher schwächelt. Dafür ist Nano Banana schneller. Pro braucht etwas mehr Zeit pro Bild.

Wie funktioniert Nano Banana Pro?

Der Nutzer tippt eine Beschreibung ein (Prompt). Die KI hat Milliarden von Fotos analysiert und gelernt, wie Objekte, Licht und Texturen aussehen. Sie setzt das Bild neu zusammen. Der Output basiert – wie bei KI-Texten – auf Wahrscheinlichkeit.

Seit wann gibt es die Pro-Version?

Google hat das Update Ende November lanciert.

Wie nutze ich Nano Banana Pro?

Über den gemini.google.com oder über die Gemini App. Du musst das Tool «🍌 Bilder erstellen» auswählen und das Thinking-Modell (Gemini 3 Pro) aktiviert haben. Nutzerinnen und Nutzer der kostenlosen Gemini-Version können das neue Modell zwar testen. Nachdem das Kontingent aufgebraucht ist, kommt das normale Modell zum Einsatz. Google AI Plus-, Pro- und Ultra-Abos haben höhere Kontingente. 

Fazit: Nano Banana Pro

Nano Banana Pro ist ein Meilenstein – und ein Warnschuss. Das blinde Vertrauen in Bilder hat ausgedient, denn die perfekte Fälschung ist jetzt Massenware. Die Hürde, Täuschungen zu erstellen, war noch nie so tief. Das wahre Problem sitzt jedoch in unseren Köpfen: Unser Gehirn ist darauf programmiert zu glauben, was es sieht. Die KI hackt diesen Ur-Instinkt. 

Doch auch KI-Tools sind nicht fehlerfrei. Generierte Bilder und Videos verraten sich oft im Detail. Ein einfacher Trick: Schau dorthin, wo nichts passiert, also an den Bildrand, in den Hintergrund. Dort patzen viele Modelle. Eine wichtige Frage ist auch: Wer ist der Absender? Kommt das Video von einem offiziellen Account oder aus einer dubiosen Telegram-Gruppe? Viele KI-Tools kennzeichnen ihren Output sichtbar oder unsichtbar. Google hat mit SynthID ein unsichtbares Wasserzeichen für KI-Inhalte entwickelt. Gute Idee – aber mit Haken: Es funktioniert nur bei Googles eigenen KI-Inhalten und das auch nicht immer. Ein guter Tipp ist, selbst mit den Tools herumzuspielen. Nur wer die Mechanismen kennt, kann sie durchschauen. Hier gibt es weitere Tipps

Was sagst du dazu?
Heiss diskutiert
    Meistgelesen