TradingView è un social media network, una piattaforma di analisi tecnica e un'applicazione mobile per trader e investitori. L'azienda è stata fondata nel 2011 e oggi ha uffici a New York, Londra e in Russia. Nel 2018, TradingView ha completato un round di Serie B da 37 milioni di dollari guidato da Insight Partners, e nel 2019 ha acquisito TradeIT. Ad oggi, l'azienda si colloca tra i primi 130 siti web a livello globale secondo Alexa, e ha oltre 10 milioni di utenti attivi mensili.
Il "Ritratto di una Geisha Cibernetica" qui a fianco è generato dal codice di machine learning di questo Google Colab Jupyter Notebook: Aleph 2 Image, creato da Ryan Murdock.
E' uno dei primi esempi di utilizzo di DALL-E (notebook di esempio) con CLIP (Contrastive Language-Image Pre-Training). CLIP è un modello che è stato originariamente inteso per la ricerca della migliore corrispondenza a una descrizione (es: "un cane che suona il violino") tra un certo numero di immagini. Abbinando una rete che può produrre immagini (un "generatore" di qualche tipo) con CLIP, è possibile modificare l'input del generatore per cercare di far corrispondere l'immagine generata alla descrizione.
La prima iterazione di questo metodo usava una rete SIREN come generatore, ed è stata chiamata "DeepDaze" in parte perché le immagini hanno una qualità da "deep dream", un sogno febbrile e nebuloso. La successiva iterazione ha usato BigGAN ed è stata chiamata BigSleep proprio come allusione a DeepDream e al film noir surrealista "The Big Sleep". Il secondo riferimento è sempre dovuto alla sua strana qualità onirica.
Infine, Aleph2Image usa il decoder discreto VQ-VAE di DALL-E. Si chiama così in riferimento a The Aleph, un racconto di Borges su un oggetto che può mostrare tutto il mondo in una volta. Inoltre, include una citazione sulla sorpresa dal racconto.
C'è la possibilità che, spendendo anni nel progettare il proprio tool per disegnare in 2D e trasformare automaticamente lo schizzo in 3D, qualcuno rilasci un paper che affronta e risolve brillantemente il problema e renda perfino disponibile il tool online:
Michael Fogleman è un ingegnere del software presso Formlabs, con particolare attenzione agli algoritmi per le applicazioni di stampa 3D. Ama programmare e solitamente è impegnato in molti progetti.
I suoi linguaggi preferiti sono Python e Go, ma ha una vasta esperienza con molti linguaggi e tecnologie. Gran parte del suo interesse informatico è rivolto alla computer grafica e alla geometria computazionale.
Primitive è uno dei suoi progetti di maggiore successo, scritto in Go, riproduce usando primitive geometriche una immagine.
Per preservare lo stile in pixel art mentre si cambia la risoluzione, un filtro deve riuscire ad identificare e rispettare la trasparenza, la palette di colori, le linee diagonali, gli angoli acuti, i modelli di dither e le caratteristiche dei singoli pixel. Un'impresa davvero ardua.
Sebastien Benard (Deepnight Games) ha realizzato un tool per il level design che permette di creare le strutture dati essenziali per essere poi importate in qualsiasi framework: LDtk
Il PETSCII (PET Standard Code of Information Interchange) è l'ASCII delle macchine Commodore. Rispetto a quello che si può fare in pixel art, o con i caratteri ASCII tipici del PC, è ricco di spigoli acuti e linee curve, e questo lo caratterizza in modo particolare, rendendo immediatamente riconoscibili le immagini, che sembrano tutte realizzate con un vecchio "biscottone".
Ci sono tool di conversione che permettono perfino di realizzare video. Sotto possiamo ammirare come un Commodore 64 con Hard Disk molto più capienta sarebbe stato in grado di fare, in un ipotetico formato di distribuzione video.
Musenet permette molto semplicemente di caricare un file midi e trasformarlo nella sua versione acustica facendo uso di strumenti campionati con cura (soudfont). Il tutto compilando un semplice form.
Ma c'è molto di più: nella modalità semplice (mostrata di default), si possono ascoltare poche battute pre-generate. Si può scegliere un compositore o uno stile, un inizio opzionale di un pezzo famoso e iniziare a generare il resto del brano. Questo permette di esplorare la varietà di stili musicali che il modello può creare.
Nella modalità avanzata è possibile interagire direttamente con il modello. Le integrazioni richiederanno più tempo, ma si creerà un pezzo completamente nuovo.
Su edityouraudio.com il machine learning è in grado di separare la parte vocale da quella strumentale, partendo da un semplice link a youtube. Entrambi i file si possono scaricare.
Questo approccio è molto più efficace delle elaborazioni che si applicavano con goldwave o audacity sulle frequenze vocali per isolarle, e danno risultati di qualità superiore, che ad un primo ascolto rasentano la perfezione. Nella parte vocale vengono addirittura preservati i filtri, che sono riconoscibili nel brano solo dalle orecchie più allenate.