Nachrichten:2025-10-12: Mit KI ins Nirvana
Nichts gegen Urlaubsplanung am PC z. B. mit Wikivoyage. Aber beim Einsatz von KI muss man übervorsichtig sein.

Hannover (Deutschland), 12. Oktober 2025. – Es wäre zu schön gewesen: Da generiert Künstliche Intelligenz (KI) tolle (Fake-)Videos, um nach teilweise aufwändiger Reise durch möglicherweise touristisch schlecht erschlossenen Gegenden vor Ort feststellen zu müssen: Diese Sehenswürdigkeit gibt es nicht, und es hat sie auch nie gegeben.
Hier ist ein immer weiter wachsendes Problem im Entstehen: KI erfindet einfach nicht existierende Orte, Sehenswürdigkeiten, Restaurants usw., erteilt falsche oder fehlerhafte Informationen, was zu ernsthaften, teils lebensgefährlichen Schwierigkeiten führen kann.
Das Problem an der KI ist, das sie nichts weiß, geschweige denn intelligent ist. Sie sucht im günstigsten Fall aus einer mehr oder weniger großen Datenmenge statistisch mögliche Informationen. Das Ganze kann bis zu Deepfake-Fälschungen reichen. Der KI gelingt es offenbar nicht, zwischen einer folgenlosen Plauderei und der Suche nach echten, nachvollziehbaren Reisehinweisen zu unterscheiden und „traut“ sich nicht, Unwissen einzugestehen.
Das Ausmaß der KI-Nutzung ist bereits heute immens. Weltweit sollen bereits 24 % aller Reisenden auf KI-Reiseplanung setzen; in Deutschland sind es erst etwa 15 %. Jede der KI-Informationen müsste dann natürlich gegengeprüft werden.
Jesus Diaz stellte in seinem Arikel fest: Wenn man glaubt, dass Reise-Influencer (eher) schlecht sind, (mit KI) geht es (noch viel) schlimmer.
Quellen
[Bearbeiten]- Dieter Petereit via t3n, Gefährliche KI-Halluzinationen: Wenn Touristen an Orte reisen, die es gar nicht gibt vom 12. Oktober 2025
- Jesus Diaz via FastCompany.com, AI videos are tricking tourists into visiting places that don’t exist. That’s just the beginning vom 17. Juli 2025