Bene... eccoci di nuovo.

Persone che abbracciano se stesse da giovani, leader mondiali che fanno cose che nessun ufficio stampa ha approvato e celebrità di decenni completamente diversi che in qualche modo recitano nella stessa scena.

Sì, siamo ufficialmente tornati all'era dei video in cui si chiedeva "L'intelligenza artificiale ha fatto davvero questo?".

Perché?

Perché Runway ha appena lanciato Gen-4.

E questa non si limita a ricordare le cose: ti consente di scattare una foto qualsiasi (sì, anche una dal tuo telefono), di inserirla in un prompt e di avviare subito il video.

Beh, "non vediamo l'ora" di vedere quali foto la gente scatterà e inserirà nei video che non hanno senso...!!! Forse la piramide nel mezzo di New York :)

L'intelligenza artificiale impara a seguire il copione (in un certo senso)

La Gen-4 non si limita a generare belle scene, ma ora riesce anche a mantenere coerenti personaggi, oggetti e l'atmosfera generale in più riprese.

Ciò significa che l'intelligenza artificiale può finalmente trattenere un pensiero per più di 3 secondi. E aiutare i creatori a creare la loro visione nei minimi dettagli.

Come nel loro video ufficiale che mostra le capacità del nuovo modulo, in cui si vede il riflesso di uno dei loro creatori nell'occhio di una mucca.

È narrazione? Non proprio. È impressionante? Assolutamente sì.

Se hai una visione??? Puoi iniziare con l'aiuto di Runway per creare la tua visione.

Questo distinguerà sicuramente i veri creatori con una visione dalle persone normali come noi, che hanno richieste meno dettagliate e si divertono, lasciando che sia l'intelligenza artificiale a guidare il tutto senza istruzioni dirette da parte nostra, e che rimarranno stupiti da come il risultato sarà migliore di quanto pensassimo :)

Il messaggio tecnologico attuale di Runway su Gen-4

Analizziamo nel dettaglio cosa sta realmente dicendo Runway, una caratteristica alla volta e, sì, con parole umane:

Personaggi coerenti: Gen-4 mantiene lo stesso personaggio in scene, luci e angolazioni diverse, anche se svolgono azioni completamente diverse.

In parole povere: il tuo personaggio non cambierà casualmente capelli, età o specie a metà video.

Oggetti coerenti: puoi posizionare un oggetto (ad esempio una sedia o un robot) in ambienti diversi e questo rimarrà sempre lo stesso.

In parole umane: l'ananas resta un ananas. Anche se è su una spiaggia, nello spazio o seduto accanto a te in un bar.

Copertura: puoi caricare una foto e descrivere la scena e Gen-4 creerà un video da quel mix.

In parole povere: usa una foto + la tua immaginazione = il tuo piccolo film strano.

Video pronto per la produzione: l'output è più fluido, più dettagliato e aderisce meglio al prompt. È effettivamente utile per progetti che vanno oltre i meme.

In parole umane: meno "che diavolo è quello?" e più "aspetta, questo è piuttosto impressionante".

Simulazione fisica: l'intelligenza artificiale comprende il comportamento fisico di base, ovvero come gli oggetti si muovono, rimbalzano, cadono e interagiscono con la luce.

In parole umane: sì, significa che le ombre cadono dove dovrebbero. E i capelli non galleggiano come se fossero sott'acqua... a meno che non lo vogliate voi.

Ciò che non potremo evitare

Ondate di cortometraggi generati dall’intelligenza artificiale Interviste false che sembrano stranamente emozionanti Deepfake con una precisione sconvolgente E naturalmente… altri dibattiti sul tema “È questa la morte della creatività umana?”

Spoiler: non lo è. Ma se non restiamo coinvolti, l'intelligenza artificiale potrebbe iniziare a produrre un sacco di scene emozionanti con patate con occhi umani.

In conclusione

Gen-4 è live Disponibile solo per utenti a pagamento o aziendali A partire da $ 12/mese

Se lavori con contenuti, media, marketing o caos, questo aggiornamento bussa alla tua porta. Potresti anche aprirla con i popcorn.

 

"Tutto è già stato fatto. Ogni storia è stata raccontata, ogni scena è stata girata. È nostro compito farla ancora meglio."

Il grande Stanley Kubrick

 

La luce congelata prende:

Lo abbiamo già detto: l'IA ha i pixel. Tu hai uno scopo.

Gen-4 riesce a ricordare un personaggio. Ma non riesce ancora a dirci perché Abraham Lincoln sta narrando una scena di rottura durante un temporale.

Può far sì che i dettagli restino aggiornati più a lungo, il che per noi significa più innovazioni infrastrutturali che riflessioni effettive.

Ricordate, al momento si tratta solo di supercomputer ed evoluzione delle GPU. Non è cambiato nulla, solo una maggiore capacità di far funzionare l'algoritmo più a lungo e su set di dati più grandi.

Parole semplici:

Se non avete la visione e l'immaginazione, state lontani da Runway.

Salvate il pianeta :) AKA ciò che abbiamo scritto sulla Super AI. Lasciate che le persone che ce l'hanno se ne godano e fateci dire WOW!!!

Nota personale:

Kubrick lo ha detto meglio di tutti noi. Anche quando sono gli umani a creare il film, fare qualcosa di nuovo spetta alle persone che realizzano il video.

Da noi:

Andremmo comunque a vedere un film di Kubrick ogni giorno prima di andare a vedere un film interamente realizzato con l'intelligenza artificiale. Ma Kubrick con l'intelligenza artificiale?

È qualcosa a cui correremmo incontro, sempre che ci sia ancora un essere umano dentro.

Quindi non preoccuparti: il tuo posto di lavoro è al sicuro.

Il vostro team di Frozen Light

Non puoi leggere altro a riguardo, è Runway, ovvio...
Ma puoi guardarlo. 😎

Ecco il video ufficiale che spiega Runway Gen-4.

Share Article

Get stories direct to your inbox

We’ll never share your details. View our Privacy Policy for more info.