AIs auf dem besten Weg künstliche Realitäten selbst zu entwerfen

Sascha Koesch


Wer sich ein wenig mit den Umwandlungen schematischer Zeichnungen in pseudo-reale Bilder befasst hat, weiß, dass es da in wirklich großen Schritten voran geht. Die häufigsten Beispiele dafür ist das neurale Netz von pix2pix mit dem man z.B. eine etwas ungelenke Zeichnung einer Katze im nu in relativ echt wirkende Bilder von Katzen umwandeln kann, die nur leider unter schrecklich digitalen Deformitäten leiden.

Das von Qifeng Chen und Vladlen Koltun entwickelte System, funktioniert ähnlich, kommt aber zu visuellen Ergebnissen die uns eher an Googles neue Earth Version erinnert, denn an Pixelmutationen. Basierend auf einer semantischen Zeichnung (d.h. verschiedene Farben sind festgelegt für verschiedene Objekte) kann dieses System auf der Basis des ihr eingefütterten Bestands an z.B. Straßenszenen schon jetzt Bilder erzeugen, die in Einzelframes so aussehen wie die Bilder einer etwas verwaschenen Überwachungskamera. In Videos als hätte jemand einen Kunstfilter über die Szenerien gelegt.

Auf ihre Weise realistisch aber wirken beide und wenn man sich die Vergleiche mit pix2pix im Video ansieht, dann ist man verblüfft, wie schnell es in diesem Bereich hier mittlerweile vorwärts geht. Interessant sind auch die Videos, die eine Umsetzung von GTA5-Layouts in dieses System zeigen, da man sich gut vorstellen kann, dass solche Systeme in nicht all zu ferner Zukunft komplette Spielewelten erzeugen können, ohne das jemals jemand auch nur eine Stunde Designarbeit mit Oberflächen verbringen muss.

Arxiv, Github