GPT-3: An Even Bigger Language Model, creato da Robert Miles e pubblicato su Computerphile, continua la spiegazione di questa tecnologia avanzata che promette una nuova rivoluzione informatica.
Il GPT-3 non è altro che un GPT-2 molto più grande, 176 volte più grande. Si tratta di un modello predittivo di token. Data una sequenza di caratteri, avendo "studiato a memoria" Petabyte di dati, è in grado di fornire una predizione di come continuerà questa sequenza. La vera intelligenza sta quindi nei dati che sono stati studiati. E' una tecnologia semplice ma molto efficace. Quello che emerge con il GPT-3 è che nonostante non sia stata sviluppata per compiere azioni specifiche, ma anzi è assolutamente generale, è sorprendentemente capace di riuscire a provare a svolgere varie mansioni non previste, come l'aritmetica e la poesia.
arxiv.org
A robot wrote this entire article. Are you scared yet, human?
GPT 3: Behind The Hype
GPT-Neo: The Open-Source Cure For GPT-3 FOMO
GPT-3 Use Cases in Job Marketplaces
GPT-3 is No Longer the Only Game in Town
★ The New Version of GPT-3 Is Much, Much Better
★ Il tuo prossimo romanzo preferito sarà scritto da un robot?
★ AI Assisted Writing - Un Nuovo Metodo per Scrivere
Add new comment