Obwohl es noch nicht verfügbar ist, sagt der Hersteller von ChatGPT, dass das generative KI-Tool in der Lage sein wird, aus schriftlichen Eingabeaufforderungen hochwertige Videos zu erstellen.

Der Hersteller von ChatGPT hat am Donnerstag seinen nächsten Schritt in die generative Welt vorgestellt Künstliche Intelligenz (KI) mit einem Tool, das als Reaktion auf schriftliche Befehle sofort kurze Videos erstellt.

Der neue Text-zu-Video-Generator von OpenAI mit Sitz in San Francisco namens Sora ist nicht der erste seiner Art. Google, Meta und das Start-up Runway ML gehören zu den anderen Unternehmen, die ähnliche Technologien demonstriert haben.

Aber die hohe Qualität der von OpenAI angezeigten Videos – einige nach CEO Sam Altman forderte Social-Media-Nutzer auf, Ideen für schriftliche Aufforderungen einzusenden – was die Beobachter verblüffte und gleichzeitig Befürchtungen hinsichtlich der ethischen und gesellschaftlichen Auswirkungen weckte.

„Eine lehrreiche Kochsitzung für hausgemachte Gnocchi, moderiert von einer Social-Media-Influencerin einer Großmutter, in einer rustikalen toskanischen Landküche mit filmischer Beleuchtung“, wurde auf X, ehemals Twitter, von einem freiberuflichen Fotografen aus New Hampshire in den USA vorgeschlagen.

Altman antwortete kurze Zeit später mit einem realistischen Video, das das darstellte, was in der Aufforderung beschrieben wurde.

OpenAI berät Künstler vor der Veröffentlichung

Das Tool ist noch nicht öffentlich verfügbar und OpenAI hat nur begrenzte Informationen darüber veröffentlicht, wie es erstellt wurde.

Das Unternehmen, das von einigen Autoren und der New York Times wegen der Verwendung urheberrechtlich geschützter Werke zur Schulung von ChatGPT verklagt wurde, hat auch nicht offengelegt, welche Bild- und Videoquellen zur Schulung von Sora verwendet wurden.

Das Unternehmen zahlt eine nicht genannte Gebühr an The Associated Press für die Lizenzierung seines Textnachrichtenarchivs.

OpenAI sagte in einem Blogbeitrag, dass es mit Künstlern, politischen Entscheidungsträgern und anderen zusammenarbeitet, bevor es das neue Tool der Öffentlichkeit zugänglich macht.

„Wir arbeiten mit Red Teamern zusammen – Domain-Experten in Bereichen wie Fehlinformationen, hasserfüllte Inhalte und Voreingenommenheit – die das Modell kontrovers testen werden“, sagte das Unternehmen.

„Wir entwickeln außerdem Tools zur Erkennung irreführender Inhalte, beispielsweise einen Erkennungsklassifikator, der erkennen kann, wann ein Video von Sora erstellt wurde.“

Share.
Exit mobile version