Neulich waren wir in Peking und mal eben lecker essen.
Unsere Freunde zeigten uns ein Geheimtip-Restaurant: Chinatown. „Sensationell“ wäre untertrieben. Es war recht viel los und das Essen … wow. Schaut euch mal mein kurzes Video an.
Spoiler Alert: Na ja, ganz so ist es nicht gewesen …
Wir waren zwar in Peking in diesem Restaurant, und gefilmt habe ich dort auch. Aber dieses „Video“ ist aus einem einzigen statischen Bild generiert worden, das ich dort aufgenommen habe.
Natürlich sieht man das auch, wenn man genauer hinschaut: Teller, die auf magische Weise sich manifestieren oder in Luft auflösen, meine Bildmarke (aka Logo), die sich von der Wortmarke trennt (die auch eine recht kreative Schreibweise meines Namens einführt), Personal, das in sich nicht ganz stabil ist, Essstäbchen, die zu Lappen werden … aber dennoch, für eine AI, die dafür gerade mal 2 Minuten braucht, wirklich beeindruckend. Texturen, perspektivische Verschiebung, Bewegungen: irre für den ersten Durchlauf.
Ich habe die AI aber auch ans Limit geführt, es sind wahrscheinlich schlicht zu viele Personen, auf die sie achten muss. Und über Inpainting könnte ich die meisten Unstimmigkeiten sicher verbessern.
Also Leute, schaut euch mal WAN dot video an, es lohnt einen näheren Blick. Richtig, das kommt aus China; daher, woher auch mein Bild kommt. Und meine Tastatur. Und mein Rechner. Und mein Licht. Und meine Solarmodule. Und. China ist Amiland hier schon ganz schön dicht auf den Fersen.
Jetzt, zum Ende hin, bin ich mir schon gar nicht mehr so sicher, ob ich vor kurzem überhaupt wirklich in China war. Vielleicht ist’s nur ein KI-generierter Wunschtraum?
Am besten frag’ ich jetzt erst mal ChatGPT, um ganz sicher zu gehen. Ich halte euch auf dem Laufenden.