Ein Jahr KI-Club Tourismus: KI scheitert selten an der Technologie

Ein Jahr KI-Club Tourismus & Kultur liegt hinter uns. Viele Sessions, viele Use Cases, viele Aha-Momente. Und ein Zwischenfazit: Künstliche Intelligenz scheitert selten an der Technologie. KI hadert mit der Organisation.
Genauer: mit der „Wasserfall“-Logik, die wir in Tourist-Infos, DMOs und Museen immer noch vielerorts als Standard betreiben. Das ist kein Vorwurf. Es ist leider ein Muster. Und ich warne schon einmal vor dem Weiterlesen, denn ich überspitze natürlich. Und natürlich sind einige unserer Club-Mitglieder schon weiter vorangeschritten, aber flächendeckend haben wir es hier noch mit einer sehr großen Herausforderung zu tun.
Was ich mit „Wasserfall-Organisation“ meine
Die Wasserfall-Denke, also das lineare Abarbeiten und Abhaken von Projekten und Konzepten, ist nicht „klassisch“ oder „alt“. Wasserfall ist ein durchaus verständlicher Sicherheitsreflex im Kontext öffentlicher Mittel:
- Wir wollen zu Beginn: Analyse, Zielbild, Projekt, Business oder Use Case, Roadmap, Meilensteine, Freigaben.
- Wir messen Fortschritt also über Planerfüllung, nicht über Lernfortschritt.
- Wir behandeln Abweichung oft eher als Störung, nicht als Erkenntnis.
- Wir bauen Governance früh so stark, dass sie das Vorhaben vor der ersten echten Erkenntnis einfängt.
Das funktioniert gut, wenn das Projekt planbar ist, und das gibt es natürlich im Tourismus- und Kulturumfeld. KI ist dummerweise aber selten planbar. KI ist, wie wir mittlerweile alle erfahren mussten, ein lernendes System, und zwingt uns, das auch organisatorisch zu sein. Das korrespondiert mit unserem Konzept der „Lernenden Organisation“, das wir schon seit Längerem für DMOs und TIs propagieren.
Drei Szenen aus dem Jahr, die vielleicht typisch sind.
1) Tourist-Info: „Wir dürfen nichts Falsches sagen.“
Völlig legitim. Vertrauen und Wahrhaftigkeit sind die neuen Währungen. Auch das ist ein Kernansatz unserer Beratung. Der Effekt: Man versucht, vorher alles „wasserdicht“ zu machen. Potenzielles Ergebnis: Man startet gar nicht oder man baut einen „Assistenten“, der so vorsichtig ist, dass er kaum oder nur wenig hilft.
KI wiederum braucht hier keine mutige Ansage. KI braucht klare Leitplanken. Was darf das System? Welche Quellen sind erlaubt? Wann eskaliert es an Menschen? Perfektionszwang hilft hier nicht.
2) DMO-Content: „Wir brauchen mehr Content, in mehr Sprachen, mit gleicher Qualität.“
Das Problem ist fast nie das Schreiben. Das Problem ist eher die Struktur und der Freigabeprozess dahinter:
- Wer ist „Owner“ für Inhalte, Öffnungszeiten, Preise, Sperrungen, Events etc.?
- Wo liegt die goldene Quelle? Das muss nicht immer der Datenhub sein.
- Wie schnell darf etwas live gehen?
- Wer pflegt nach dem Go-live?
Wenn diese Fragen offen bleiben oder in alten Abläufen verhaften, verstärkt KI das Problem: mehr Output, potenziell mehr Inkonsistenz, mehr Korrekturschleifen, noch mehr Kontrolle etc. Der Zeitgewinn kannibalisiert sich. Das zeigen auch viele Studien von eher gescheiterten KI-Integrationsprozessen.
3) Museum: „Wir können Deutung nicht automatisieren.“
Stimmt natürlich, wir können die inhaltliche Wertung eines Vermittlungsinhalts nicht der KI überlassen. Und trotzdem kann KI extrem helfen, wenn wir sie richtig einsetzen. Nicht als „Automatisierung von Kuratierung“, sondern als:
- Vorschlagssystem
- Variantenmaschine (z.B. Kinder, internationale Gäste, leichte Sprache etc.)
- Übersetzungs- und Strukturhilfe
- Interner Wissens-Copilot für Frontdesk und Vermittlung
Aber: Das klappt nur, wenn wir Qualität als Prozess definieren, nicht als Zustand, den man einmal „abnimmt“ und freigibt.
Die eigentliche Kollision ist daher: KI verschiebt die Entscheidung dorthin, wo sie wirkt bzw. wirken sollte. Das ist der Kern: Freiraum schaffen und (als Führungskraft) loslassen. Und als Mitarbeitende die neuen Freiräume nutzen.
Ich weiß, es klingt so einfach und ist manchmal doch so schwer, für beide Seiten. KI macht Wissen schnell und günstig verfügbar. Neue Optionen werden dadurch sichtbar, Entwürfe/Lösungen entstehen schneller als früher und Muster werden erkennbar. Damit verschiebt sich aber eben auch Führung, und zwar „nach unten“:
- Weg von „Information bündeln und freigeben (lassen)“
- Hin zu „Urteilskraft dort verankern, wo sie im Alltag Wirkung erzeugt“
Und genau da hakt die Wasserfall-Orga. Denn sie erfordert meist Kontrolle, bevor sie überhaupt versteht, was sie kontrolliert. Wer kennt das nicht, wenn der- oder diejenige sich erst mal „einlesen“ muss, nur weil kontrolliert werden muss. Das zerstört schlicht den Vorteil, den die KI einer Organisation bringt.
Die Alternative: die „Lernende Organisation“ für KI-Integration.
Ich nenne das bewusst nicht „agil“. Das Wort triggert zu viele Reflexe. Ich meine etwas Konkretes: Lernende Organisation = ein Betriebssystem, das Erkenntnis produziert und in Entscheidungen übersetzt.
Was bedeutet das?
Wenn ich das in Prinzipien runterbreche, sieht es so aus:
- Wirkung und Ergebnis statt Meilensteine: Nicht: „Wir bauen einen Chatbot.“ Sondern: „Wir reduzieren Rückfragen um X“ oder „wir erhöhen Aktualität um Y“.
- Schutzraum statt Früh-Governance und Kontrolle: KI-Vorhaben brauchen einen klar abgegrenzten Kontext, in dem Lernen (und "Fehler machen") erlaubt ist: klein starten, Risiko begrenzen, schnell entscheiden.
- Entscheidungsrechte vor Tool-Fragen: Wenn niemand über Ergebnisse entscheiden darf, hilft auch kein Tool. Dann verpufft der Vorteil in der Organisationsschleife und im alten Prozess. Wir müssen die Prozesse anpassen und vereinfachen.
- Daten-/Content-Verantwortung ist keine Nebenaufgabe: KI zwingt uns, „Wahrheit“ zu organisieren, also muss geklärt sein: Welche Quelle gilt? Wer pflegt? Wie oft? Was passiert, wenn Daten fehlen? Datenmanagement ist ein neuer Kernprozess.
- Iteration ist das Produkt: „Go-live“ ist nicht das Ziel. „Go-live“ ist der Start einer Lernkurve. Erkenntnisgewinn und etwas zu lernen wird wichtiger, um von hergebrachten Wegen abzuweichen, die einfach nur noch "getan" werden.
- Transparenz ersetzt Scheinsicherheit: Nicht alles vorher absichern. Sondern: beobachten, messen, nachziehen, lernen.
Ein einfaches Steuerungsformat, das in TI/DMO/Museum funktioniert
Wenn Ihr das ausprobieren wollt, nutzt statt oder in Erweiterung zu Projektmeilensteinen drei „Lernstufen“:
- Was haben wir gelernt (nicht: Was haben wir getan)?
- Was ändern wir deshalb am Workflow/Content/Datenmodell?
- Was ist der nächste kleinste Schritt mit messbarer Wirkung?
Ja, das ist erst einmal banal. Und genau deshalb hoffentlich wirksam.
Was das für Tourismuskonzepte, Strategien und Leitbilder bedeutet (ja: auch die müssen sich ändern)
Das hat auch für viele Tourismuskonzepte oder Leitbilder Folgen. Die entstehen heute noch wie eine Software aus dem Jahr 2005: Analyse → Leitbild → Maßnahmenplan → Umsetzung → Abschlussbericht. In einer Welt, die sich laufend verschiebt und verwinkelt, ist das vollkommen aus der Zeit gefallen und zu starr. Wir brauchen keine „Konzepte“, die 5 Jahre gelten sollen und wasserfallartig abgearbeitet werden. Diese Konzepte kann uns ab sofort die KI erstellen.
Doch hier müsst Ihr noch etwas warten: Wie eine lernende Tourismusstrategie in Zukunft aussieht, erzähle ich Euch im nächsten Artikel zur Lernenden Destination.
Und ja, das sind alles nur einige der vielen Erkenntnisse aus einem Jahr KI-Clubs. Das, was wir gelernt haben und natürlich an Euch im Club und auch anderswo weitergeben wollen und können.
Am 23.02.26 haben wir unseren nächsten kostenlosen Praxis-Prolog zum KI-Club Tourismus, für alle, die mal reinschnuppern und Mitglied werden wollen. Hier einfach anmelden. Dort zeigen wir übrigens ganz einfache KI-Lösungen, die in jedem Umfeld helfen.
Und für alle Clubmitglieder: Diese Fragen und Erkenntnisse werden wir vor Ort bei Euch oder im Change-Webinar (das 4. Webinar) und auf unserer Lernplattform destinetLEARN natürlich ausführlich thematisieren.
Bis bald!
Grafik: destinetCHANGE / erstellt mit NotebookLM
