OpenAI stellt „Sora“ vor, ein KI-Modell, das Text in realistische Videos umwandelt
OpenAI hat Sora angekündigt – ein bahnbrechendes KI-Modell, das in der Lage ist, aus einfachen Textaufforderungen lebensechte und fantasievolle Videos zu generieren. Sora kann Videos mit einer Länge von bis zu einer Minute erstellen, wobei es sich an die Beschreibung des Benutzers hält und die visuelle Qualität über die gesamte Länge des Videos beibehält. Der Beitrag von Openai zu X ist direkt unten eingebettet.
Wir stellen Ihnen Sora vor, unser Text-zu-Video-Modell.
Sora kann bis zu 60 Sekunden lange Videos mit äußerst detaillierten Szenen, komplexen Kamerabewegungen und mehreren Charakteren mit lebendigen Emotionen erstellen. https://t.co/7j2JN27M3W
Aufforderung: „Wunderschön, verschneit… pic.twitter.com/ruTEWn87vf.“
– OpenAI (@OpenAI) 15. Februar 2024
Nach Angaben des Unternehmens zeichnet sich das neue KI-Modell durch die Darstellung komplexer Szenen mit mehreren Charakteren, nuancierten Emotionen und komplizierten Details der Umgebung aus. Neben der genauen Interpretation von Benutzereingaben kann Sora anhand von Beschreibungen auch die zugrunde liegende Physik und räumliche Dynamik verstehen.
Dadurch kann das Modell die physischen Beziehungen zwischen Objekten und Charakteren besser erfassen, um die Kohärenz innerhalb der generierten Videos sicherzustellen.
Trotz seiner bemerkenswerten Fähigkeiten erkennt OpenAI an, dass Sora einige Einschränkungen aufweist. Basierend auf den generierten Videos und den Notizen des Unternehmens kann es sein, dass das KI-Modell manchmal Schwierigkeiten mit komplizierten physikalischen Simulationen hat und Ursache-Wirkungs-Szenarien möglicherweise nicht versteht. Es könnte auch sein, dass räumliche Details falsch interpretiert werden oder dass es bei präzisen, zeitbasierten Beschreibungen zu Problemen kommt.
Darüber hinaus priorisiert OpenAI Sicherheitsmaßnahmen, bevor Sora allen zur Verfügung gestellt wird. Das Unternehmen arbeitet mit Experten für Fehlinformationen und Voreingenommenheit zusammen, um Sora rigoros auf Schwachstellen zu testen. OpenAI plant die Implementierung von Tools zur Erkennung irreführender Inhalte und die Einrichtung von Schutzmaßnahmen, um zu verhindern, dass mithilfe von Sora gewalttätige, hasserfüllte oder sexuelle Inhalte und Ähnlichkeiten mit Prominenten generiert werden.
Ab sofort steht Sora „Red Teamern“ zur Verfügung, die damit beauftragt sind, die Schäden oder Risiken des Modells zu bewerten. OpenAI gibt an, dass es auch bildenden Künstlern, Designern und Filmemachern Zugang zu Sora gewährt, um Feedback zu erhalten.
Hier sind Demonstrationen, die OpenAI auf X geteilt hat.
Aufforderung: „Eine wunderschön gestaltete Papierwelt eines Korallenriffs voller bunter Fische und Meeresbewohner.“ pic.twitter.com/gzEE8SwP81
– OpenAI (@OpenAI) 15. Februar 2024
Hier ist ein besseres: https://t.co/WJQCMEH9QG pic.twitter.com/oymtmHVmZN
– Sam Altman (@sama) 15. Februar 2024
Das Tempo, mit dem sich die Text-zu-Video-KI-Technologie weiterentwickelt, lässt uns sabbern. Was ist mit dir?
Schreibe einen Kommentar