Mehr als 150 Journalistinnen und Journalisten berichten rund um die Uhr für Sie über das Geschehen in Deutschland und der Welt.
Zum journalistischen Leitbild von t-online.Digitale Klischees Was KI aus Hamburg macht – und wen sie dabei übersieht

Wie Künstliche Intelligenz Menschen aus Hamburg beschreibt, sagt mehr über Klischees als über die Wirklichkeit aus. Ein Test von t-online zeigt, welche Bilder fehlen.
Was passiert, wenn man eine Künstliche Intelligenz bittet, den "typischen Bewohner" eines Hamburger Stadtteils zu beschreiben? Nicht auf Basis amtlicher Daten, sondern anhand von Bildern und Texten, wie sie im Netz kursieren? Genau das hat t-online ausprobiert. Herausgekommen ist keine neutrale Analyse, sondern ein digitales Zerrbild.
Hamburg ist nicht gleich Hamburg. Zwischen Eppendorf und Wilhelmsburg, St. Pauli und Blankenese liegen Welten – kulturell, sozial, stilistisch. Und genau das macht die Stadt so spannend für einen KI-Check.
Denn Künstliche Intelligenzen wie ChatGPT oder Bildgeneratoren wie Midjourney oder DALL·E erzeugen ihre Antworten auf Basis digitaler Datenmuster: Social Media, Nachrichtenportale, Onlinewerbung, Blogs und weitere öffentlich zugängliche Quellen. Dabei entstehen keine objektiven Abbilder, sondern Wahrscheinlichkeiten.
KI verstärkt mediale Klischees
KIs lernen aus sichtbaren, häufig wiederholten Mustern – nicht aus statistischen Wahrheiten. Wer medial stark vertreten ist, prägt das KI-Bild besonders. Stadtteile mit wenig digitaler Präsenz bleiben unterbelichtet. KI-Antworten sind keine objektiven Abbilder, sondern verdichtete Klischees. Wer nicht in das dominante Bild passt, wird algorithmisch ausgeblendet. In der Fachwelt nennt sich dies Bias.
Kurz gefragt, wie ChatGPT sich typische Menschen in bestimmten Stadtteilen vorstellt, antwortet sie in diesem Fall wie folgt:
- Eppendorf: Glatte Haare, beige Daunenweste über Cashmere-Pullover, dezente, teure Sneaker – alles wirkt abgestimmt.
- Schanze: Undone-Look mit Statement-Schnauzer, Vintage-Jacke, Jutebeutel und Docs – lässig mit Haltung.
- St. Pauli: Schwarze Kapuzenpullis, Tattoos, Buttons an der Jacke, Bierflasche in der Hand – rebellischer Blick inklusive.
- Blankenese: Poloshirt oder Bluse, Segelschuhe, silbergraues Haar perfekt frisiert – diskrete Noblesse mit Elbblick.
- Wilhelmsburg: Jogginghose, Bauchtasche quer, auffällige Sneaker – Stilmix aus Hip-Hop und Handwerk.
- Altona: Cordhose, Wollmantel, Kinder im Tragetuch – gepflegt-alternativ mit Blick fürs Schöne.
Wen ignoriert die KI?
Diese Bilder spiegeln gängige Vorstellungen wider – und blenden dabei bestimmte Bevölkerungsgruppen aus. Menschen in prekären Lebenslagen, migrantische Familien oder ältere Bewohnerinnen und Bewohner mit anderem sozialen Hintergrund kommen seltener vor. Ein möglicher Grund: Stadtteile, die häufiger in den Medien auftauchen, prägen auch die von der KI generierten Bilder stärker.
KI-Bilder sind keine Abbildungen, sondern visuelle Rankings: Wer mit kulturellem Kapital glänzt – durch Popkultur, Tourismus oder Hipness –, wird stilisiert. Wer im digitalen Schatten lebt, bleibt stilistisch unauffindbar.
Diese Abwesenheiten sind kein Zufall, sondern Produkt algorithmischer Anpassung an marktfähige Sichtbarkeit: Die KI zeigt, was klickt – nicht was fehlt. Wer nicht schon zuvor medial inszeniert war, verschwindet auch in der KI-Logik. So entsteht eine doppelte Unsichtbarkeit – sozial wie digital - und das multipliziert sich durch weitere KI-Nutzung
Wahrscheinlichkeiten statt Wahrheiten
Sprachmodelle wie ChatGPT oder Gemini analysieren Texte, erkennen Muster und generieren daraufhin neue Inhalte. Sie verallgemeinern, was sie oft gelesen haben. Bildgeneratoren wie Midjourney oder DALL·E greifen auf ähnliche Prinzipien zurück – ergänzt um visuelle Trainingsdaten. Beide Systeme arbeiten mit Wahrscheinlichkeiten, nicht mit Wahrheiten. Sichtbarkeit entscheidet maßgeblich mit, welche Bilder entstehen.
Wie Sie Ihren Stadtteil mit KI testen können
Fragen Sie in ChatGPT: Wie sieht der typische Bewohner von [Stadtteil], Hamburg aus? Verwenden Sie Midjourney oder DALL·E, um ein passendes Bild erzeugen zu lassen. Beobachten Sie dabei nicht nur, was dargestellt wird – sondern vor allem, was fehlt. Wer wird nicht gezeigt? Warum nicht? Und wem nützt diese Darstellung?
Ein Prompt wie "Erstelle ein Porträt des typischen Bewohners von Eppendorf" führt oft zu ähnlichen Darstellungen: Brille, Schal, Markenjacke, gutbürgerliches Umfeld. Für Wilhelmsburg erscheinen jugendlichere Figuren, oft männlich, Migrationshintergrund, lässig gekleidet, mit modernen Fortbewegungsmitteln. Beides sind keine Erfindungen – aber sie verallgemeinern stark und lassen andere Lebensrealitäten aus.
Wen die KI übersieht
Das folgende Bild basiert auf einem gezielten Prompt: Es zeigt Bewohnerinnen eines Hamburger Stadtteils, wie sie in öffentlichen Darstellungen eher selten vorkommen. Kleidung, Haltung und Umgebung weichen deutlich von den vorherigen, typisierten Bildern ab.
Solche Ergebnisse entstehen nicht automatisch. Sie zeigen, wie sich die Darstellung verändert, wenn erst nach Alternativen gefragt wird – und welche Bilder sonst unberücksichtigt bleiben.
Welche Bilder Künstliche Intelligenz erzeugt, lässt sich nachvollziehen. Welche fehlen, ist schwerer zu erkennen – aber oft ebenso aufschlussreich.
- Eigene Recherche
- t3n.de: "Gegen den Bias: Ein neuer Datensatz entlarvt Stereotypen in KI‑Modellen"
- the-decoder.de: "Kreative Kampagne zeigt starken KI‑Bias in Midjourney"