Chissà cosa penseranno adesso tutti i professionisti del mondo del cinema: dietro la macchina da presa da oggi non c’è più solo l’uomo ma anche l’intelligenza artificiale. A renderlo possibile un nuovo modello soprannominato DVD-GAN, dall’inglese Dual Video Discriminator, nome che richiama gli assai più noti DVD-Video, che per anni hanno veicolato dati “pesanti”, soprattutto film.

Alla base del funzionamento di DVD-GAN ci sono le reti generative avversarie, dette per l’appunto GAN, le quali contrappongono una rete neurale discriminante a una che funge da generatrice. Il risultato è che questo modello permette di creare immagini che risultato autentiche all’occhio umano. Introdotte da Ian Goodfellow nel 2014, costituiscono oggi uno dei campi più attivi del machine learning.

In particolare, in uno studio pubblicato da tre ricercatori inglesi della startup di intelligenza artificiale Deepmind, applicando le reti avversarie a fotogrammi random, l’algoritmo è stato capace di generare un probabile fotogramma successivo, basandosi su un dataset che riferisse un contesto di partenza. Vi lasciamo alla pubblicazione degli autori e ai sorprendenti risultati.

Una scossa di terremoto ha colpito nuovamente il Centro Italia, questa volta nei pressi di Roma. Numerose sono le segnalazioni giunte attraverso i social network, in particolare attraverso Twitter.

Da prime fonti si apprende che l’epicentro si trova a 18 km dalla Capitale, precisamente nel territorio della città di Colonna, con coordinate geografiche (lat, lon) 41.8612.77 ad una profondità di 9 km. La scossa ha avuto intensità di magnitudo ML 3.7.

Per il momento non si segnalano danni a persone o cose.

 

 

 

[In aggiornamento]

La realtà è una cosa complessa. Lo sapevano bene tutti quei pittori che, nel passato, rimanevano ore a cercare di catturare paesaggi e panorami tentando di riprodurre su tela il più fedelmente possibile quello che vedevano. Oggi, grazie all’Intelligenza Artificiale, avere doti artistiche non è più un requisito strettamente necessario.

I ricercatori di NVIDIA, infatti, hanno reso pubblico un tool online che trasforma tutto quello che disegniamo in una foto sorprendentemente realistica. Il servizio si chiama GauGAN, dal nome del celebre pittore post-impressionista Paul Gauguin.

Il suffisso GAN invece, deriva dall’algoritmo che permette di convertire i disegni in foto. Il termine GAN sta per Reti Antagoniste Generative, e consiste sostanzialmente in due reti neurali che si sfidano tra di loro: una costruisce l’immagine, e un’altra, avendo a disposizione un dataset di foto reali, la corregge fino a quando l’immagine creata non risulta autentica.

Ecco spiegato perchè qualsiasi cosa disegneremo su GauGAN verrà trasformata in una bellissima foto. A patto però, di creare immagini di senso compiuto: ad esempio sesi disegnano degli alberi in mezzo al mare, o una strada nel cielo, questi potrebbero non risultare perfettamente chiari.

In particolare GauGAN permette di disegnare utilizzando un cursore simile a quello di Paint. Ad ogni colore corrisponde una determinata entità da creare: azzurro è il mare, verde sono alberi e prati, marrone scuro le rocce, e così via. E’ possibile far corrispondere un nostro disegno ad un determinato stile artistico, scegliendo tra quelli precaricati o caricandone noi uno.