Runway bringt ein neues neuronales Netzwerkmodell zum Erstellen von Videos aus einer Textbeschreibung auf den Markt
Verschiedenes / / April 02, 2023
Dies ist ein Analogon von Midjourney, aber für kurze Videos.
Künstliche Intelligenz, die Text in ein Bild umwandelt, ist jetzt Realität Mainstream, aber ähnliche neuronale Netze für Videos gewinnen nur an Bedeutung. An der Spitze dieser Richtung steht das Startup Runway, das freigegeben bereits das zweite KI-Modell, das aus mehreren Wörtern kurze Videos generiert.
Runway bietet einen webbasierten Videoeditor an, der auf Tools für maschinelles Lernen wie die Hintergrundentfernung spezialisiert ist. Dieses Unternehmen half bei der Entwicklung des Stable Diffusion Text-to-Image-Modells und im Februar angekündigt sein erstes KI-Videobearbeitungsmodell Gen-1.
Gen-1 konzentrierte sich auf die Konvertierung von vorhandenem Filmmaterial, sodass Benutzer einen bestimmten Overlay-Stil von Bild zu Rolle anwenden konnten. Das Gen-2-Modell konzentriert sich mehr darauf, Videos von Grund auf neu zu erstellen.
Die auf Runway geteilten Demos sind kurz, instabil und sicherlich nicht fotorealistisch, aber selbst solche Rahmen zeigen ein gutes Verständnis der KI für dreidimensionale Räume, Proportionen und Bewegungslogik Objekte.
Während Gen-2 nicht frei verfügbar ist, versicherte ein Runway-Sprecher, dass das Unternehmen „in den kommenden Wochen einen breiten Zugang bieten wird“.
Die Aussichten für die Einführung einer solchen KI machen Experten bereits Angst. Denn neuronale Netze für die Arbeit mit Video versprechen nicht nur neue kreative Möglichkeiten, sondern auch neue Bedrohungen der Desinformation.
Lesen Sie auch🧐
- Fotorealismus und fünf Finger: Das neuronale Netzwerk Midjourney wurde auf Version 5 aktualisiert
- Das neurale Netzwerk Midjourney kombiniert jetzt Bilder. Hier sind 15 lustige "Kreuze"
- Das neuronale Midjourney-Netzwerk zeichnete „die schönsten Menschen der Welt“