tecnica

tecniche di illustrazione digitale e ricerca di stile

Faceblit - Un Nuovo Style Transfer



Faceblit un sistema per la stilizzazione in tempo reale di video facciali basato su esempi che conserva i dettagli testuali dello stile in modo semanticamente significativo, cioè, i tratti usati per rappresentare caratteristiche specifiche nello stile sono presenti nelle posizioni appropriate nell'immagine di destinazione.

Rispetto alle tecniche precedenti, questo nuovo sistema conserva l'identità del soggetto target e funziona in tempo reale senza la necessità di grandi set di dati o di una lunga fase di formazione. Per ottenere questo, viene modificata la pipeline di stilizzazione facciale di Fišer in modo che possa generare rapidamente un set di canali guida che gestiscono la conservazione dell'identità del soggetto target mentre sono ancora compatibili con una variante più veloce dell'algoritmo di sintesi basato su patch di Sýkora. Grazie a questi miglioramenti si dimostra una prima pipeline di stilizzazione del viso che può trasferire istantaneamente lo stile artistico da un singolo ritratto al video di destinazione a tassi interattivi anche su dispositivi mobili.

Nei prossimi cinque anni si potrà trasformare qualsiasi film della storia del cinema nello stile di qualsiasi altra pellicola di animazione o fumetto.

Faceblit


Epic Metahuman Creator

Epic Metahuman Creator

Epic Metahuman Creator è il nuovo editor free di persone in 3D reso disponibile da Epic. Ed è tutto un altro livello rispetto a quanto si è abituati a vedere con makehuman.

E' molto semplice sperimentare con la sua interfaccia restando ad un livello di qualità estremamente reastico con il rendering immediato quasi fotorealistico in streaming dai server di Epic.
E' quindi sorprendente sia la qualità che la potenza di questo strumento, che soltanto ora inizia ad essere accessibile direttamente nel browser degli utenti. Si rimane sbigottiti quando il personaggio mostra i denti in tempo reale nella finestra di edit dedicata spalancando in un istante la bocca. Il rendering realtime è decisamente al di là della "uncanny valley", ma il cambiamento di espressione così repentino ci riporta per un momento in mezzo alla valle lasciandoci con un lieve sconcerto.

L'editor del viso spazza via qualsiasi altra soluzione per la realizzazione di personaggi vista all'inizio dei giochi RPG, a parte forse quello di Black Desert, che comunque non ha lo stesso scopo. Si può usare ovviamente in Unreal Engine ma anche in Blender, Maya e Unity.

Questo impressionante strumento fa fare un salto quantico alla qualità, moltiplica le possibilità e riduce drasticamente il tempo e il costo per avere a disposizione personaggi molto realistici nelle proprie applicazioni 3D.

Metahuman Creator Documentation

★ deepfake, metahuman & sharpen ai technology = Margot Robbie


METAHUMAN Creator is AWESOME!!! ... and Limited

MetaHuman Creator Now In Early Access!!! Plus 50 Free Human Models Available Today

Shikimi e Clip Studio

Shikimi Art

Shikimi è una popolare illustratrice di Tokyo che lavora in digitale i cui punti di forza sono il fashion design e la composizione delle tavole.

Ha rilasciato un mega tutorial in 10 parti su tutto il suo processo di realizzazione professionale con Clip Studio.

twitter
lista delle realizzazione
Come si usa Clip Studio Paint (formerly Manga Studio)

[via]

Keigo Inoue

Keigo Inoue è un video artista attivo "in multiplayer" con illustratori / designer / creatori di video.

I suoi personaggi sono caratterizzati da linee dinamiche ed effetti visivi elettronici "La gif del futuro che non si può chiamare illustrazione o film" trova così un significato molto particolare.

Ha collaborato a Kizuna AI / Eve / Denonbu / Voice Actor Unit "Sphere / Arisa Komiya / Ayana Taketatsu x Meat Festival Collaboration Design, ecc.

linkmix
booth.pm
instagram
gallery ufficiale
fanbox
twitter

[via]

Houdini diventa gratuito per Unity e Unreal

houdini engine for unreal and unity


Houdini, dopo avere avuto un finanziamento da Epic, diventa gratuito sia per Unreal che per Unity.

Houdini è un software di animazione 3D sviluppato dalla SideFX di Toronto, che l'ha adattato dalla suite PRISMS di strumenti software di generazione procedurale. L'attenzione esclusiva di Houdini alla generazione procedurale lo distingue da altri software di computer grafica 3D. Houdini è più comunemente usato per la creazione di effetti visivi nei film e nei giochi. È usato dalle maggiori compagnie di VFX come Walt Disney Animation Studios, Pixar, DreamWorks Animation, Double Negative, ILM, MPC, Framestore, Sony Pictures Imageworks, Method Studios e The Mill. È stato usato anche in molte produzioni di animazione, tra cui i film della Disney Fantasia 2000, Frozen e Zootopia; il film Rio dei Blue Sky Studios e Ant Bully della DNA Productions.

I Tutorial

How do I install Houdini on Linux?

80 Level Ratings: Best YouTube Channels With Houdini Tutorials

UVing Millions of Polygons in 5 Minutes


Free Houdini Engine Commercial License for Unity Installation Guide + Fix for all possible issues

DALL-E - Ritratto di una Geisha Cibernetica

DALL-E Portrait of a Cybernetic Geisha
Il "Ritratto di una Geisha Cibernetica" qui a fianco è generato dal codice di machine learning di questo Google Colab Jupyter Notebook: Aleph 2 Image, creato da Ryan Murdock.

E' uno dei primi esempi di utilizzo di DALL-E (notebook di esempio) con CLIP (Contrastive Language-Image Pre-Training). CLIP è un modello che è stato originariamente inteso per la ricerca della migliore corrispondenza a una descrizione (es: "un cane che suona il violino") tra un certo numero di immagini. Abbinando una rete che può produrre immagini (un "generatore" di qualche tipo) con CLIP, è possibile modificare l'input del generatore per cercare di far corrispondere l'immagine generata alla descrizione.

La prima iterazione di questo metodo usava una rete SIREN come generatore, ed è stata chiamata "DeepDaze" in parte perché le immagini hanno una qualità da "deep dream", un sogno febbrile e nebuloso. La successiva iterazione ha usato BigGAN ed è stata chiamata BigSleep proprio come allusione a DeepDream e al film noir surrealista "The Big Sleep". Il secondo riferimento è sempre dovuto alla sua strana qualità onirica.

Infine, Aleph2Image usa il decoder discreto VQ-VAE di DALL-E. Si chiama così in riferimento a The Aleph, un racconto di Borges su un oggetto che può mostrare tutto il mondo in una volta. Inoltre, include una citazione sulla sorpresa dal racconto.

DALL·E: Generate Images from Text Captions

twitter
Thoughts on DeepDaze, BigSleep, and Aleph2Image

★ Playing with DALL·E 2

★ #dalle2 hashtag

★ DALL-E 2 shows the power of generative deep learning

★ Dall-E 2 vs Disco Diffusion

★ Artists should be more than a little concerned about what this can do now and what it will be able to do in the future.

★ The Dall-E Prompt Book by dallery.gallery

★ Opinion: OpenAI’s DALL-E 2 is the big tech equivalent of ‘soylent green’

[via]

First look - 1,000 Robots by OpenAI Design Director - DALL-E 2 (3.5B) by OpenAI - Launched Apr/2022

OpenAI DALL·E: Creating Images from Text (Blog Post Explained)