Stability AI rilascia Stable Animation SDK, potente strumento text-to-animation per sviluppatori

Stability AI rilascia Stable Animation SDK, potente strumento text-to-animation per sviluppatori

Stability AI lancia Stable Animation SDK, uno strumento per artisti e sviluppatori che eleva l'animazione tramite intelligenza artificiale.
Stability AI rilascia Stable Animation SDK, potente strumento text-to-animation per sviluppatori
Stability AI lancia Stable Animation SDK, uno strumento per artisti e sviluppatori che eleva l'animazione tramite intelligenza artificiale.

A esattamente dieci giorni dalla presentazione di StableVicuna Stability AI torna alla carica con Stable Animation SDK, un nuovo strumento basato sull’intelligenza artificiale che si incastra tra le altre proposte della stessa azienda al fine di supportare artisti, sviluppatori e aziende nell’intento di perfezionare Stable Diffusion. In questo caso, Stable Animation si propone come strumento per generare animazioni straordinarie, tramite prompt testuali, o con immagini o video già esistenti.

Stability AI svela Stable Animation

La società leader mondiale nel segmento delle soluzioni IA open source vuole elevare ulteriormente l’esperienza d’uso delle IA per gli amanti dell’arte che vogliono sperimentare, sfruttare gli strumenti di ultima generazione – compreso il potente Stable Diffusion XL – al fine di dare vita a immagini, video e animazioni speciali. Per raggiungere questo obiettivo l’azienda ha dunque sviluppato Stable Animation SDK, utilizzabile in tre modi distinti.

Per creare animazioni potete infatti seguire questi tre metodi:

  1. Da testo ad animazione: gli utenti inseriscono un prompt di testo (esattamente come accade con Stable Diffusion) e modificano vari parametri per produrre un’animazione.
  2. Input di testo + input di immagine iniziale: gli utenti forniscono un’immagine iniziale che funge da punto di partenza della loro animazione. Un prompt di testo viene utilizzato insieme all’immagine per produrre l’animazione di output finale.
  3. Input video + input di testo: gli utenti forniscono un video iniziale su cui basare la loro animazione. Modificando vari parametri, arrivano a un’animazione di output finale che è inoltre guidata da un prompt di testo.

Sarà poi possibile controllare il colore, realizzare render 3D e procedere con l’upscaling, senza alcun limite di lunghezza per i filmati realizzati. Naturalmente, bisogna essere in possesso di computer particolarmente potenti, esattamente come nel caso di Stable Diffusion. Si tratta sì di una soluzione gratuita, ma non così semplice da usare, tantomeno economica dal punto di vista delle risorse e dell’hardware necessario.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
12 mag 2023
Link copiato negli appunti