La terza parte, in arrivo fra un paio di settimane, sarà specifica su GPT e chatGPT sarà quella che definitivamente risponderà a tutti i vostri dubbi e perplessità. Sarà anche *molto* più leggera.
@@ArrowFinally Ti consiglio di controllare su un corso universitario di reti neurali i libri consigliati dai docenti. È un buon modo per avere opzioni molte volte valide visot che sono i libro che solitamente usano gli studenti per prepare gli esami
Wow. Mi hai chiarito tanti dubbi che avevo su queste nuove tecnologie. Grazie! Inoltre hai un modo di spiegare molto chiaro tanto che anche uno zuccone come me è riuscito a capire quasi tutto. Hai un nuovo rompi scatole che ti segue ora 😅
Grazie per aver preparato queste live, attendo la terza e presumo ultima parte. Oltre che GPT e ChatGPT sarebbe interessante anche parlare dell'implementazione fatta da Microsoft tramite Bing AI (e quindi risolvere almeno in parte la mancata affidabilità tramite la citazione di fonti) e LaMDA di Google.
quindi se ho capito bene: quando faccio una domanda a chatGPT, questo ultimo trasforma le parole in un vettore cioè gli embeddings. QUindi associa ad ogni parole un significato, una vicinanza di tante parole. Poi trovata la risposta alla mia domanda usa un task di predizione per formulare la risposta cioé capisce quale parole mettere di seguito all'altra tramite l'addestramento, cioè dopoo aver immagazzinato moltissimi testi letti. Corretto? Anche quindi per la musica funziona così? Tipo SUno? grazie
58:49 forse lo dici dopo ma può essere che il nuovo gtp (o1) sia encoder (capisce a fondo ciò che vuoi e quali sono le tue task) e poi decoder per continuare e risolvere?
Gran bella live Enkkone! Capisco non sia il caso di andare troppo a fondo su certi aspetti in live, ma potresti mettere qualche link per approfondimento?
Ho chiesto a GPT-4 cosa ne pensa del "ban" temporaneo (si spera) ricevuto in Italia e mi ha fornito una risposta pertinente...ma come fa a sapere del ban visto che il suo training è terminato parecchi mesi fa?
Ciao! Trova i tuoi video super interessanti. Non è che faresti altre puntate anche entrando nei dettagli?( Perché in parte mi riguardano da vicino) grazie mille
A me molte cose di questi modelli di processare le informazioni sembrano più delle scoperte che delle invenzioni. Piano piano, hanno scoperto dei pattern e delle cose che permettono di rendere efficiente l'elaborazione, soprattutto per quanto riguarda il linguaggio.
Al giorno d'oggi sapere queste cose equivale a poter srotolare un cazzo lungo metri davanti alla ragazza più bella del mondo, senza che questa ti denunci
Io ritengo che la polisemia non sia un grosso problema... così come gli umani riescono a discernere il significato particolare associato ad una certa rappresentazione, così le reti neurali possono fare lo stesso, servendosi del contesto
La terza parte, in arrivo fra un paio di settimane, sarà specifica su GPT e chatGPT sarà quella che definitivamente risponderà a tutti i vostri dubbi e perplessità. Sarà anche *molto* più leggera.
Ciao Enkk, Corso Boolean a parte, esistono dei validi libri o video ulteriori su youtube che riguardano questo argomento e impari con pò di pratica?
@@ArrowFinally Ti consiglio di controllare su un corso universitario di reti neurali i libri consigliati dai docenti. È un buon modo per avere opzioni molte volte valide visot che sono i libro che solitamente usano gli studenti per prepare gli esami
@@viktordipace8615 ok grazie per il consiglio!!
Ciao , dopo 1 anno scopro questi video molto fighi grazie!
Forse la prima persona competente che vedo parlare di queste cose (almeno in Italia) da quando è spopolata chatGPT, te se ama prof❤
Wait for sunday amico mio...
Enkk queste live sono oro!
Wow. Mi hai chiarito tanti dubbi che avevo su queste nuove tecnologie. Grazie! Inoltre hai un modo di spiegare molto chiaro tanto che anche uno zuccone come me è riuscito a capire quasi tutto. Hai un nuovo rompi scatole che ti segue ora 😅
Questi video sono oro, grazie Enkk ❤❤❤
Grazie a te broski
Grazie per aver preparato queste live, attendo la terza e presumo ultima parte.
Oltre che GPT e ChatGPT sarebbe interessante anche parlare dell'implementazione fatta da Microsoft tramite Bing AI (e quindi risolvere almeno in parte la mancata affidabilità tramite la citazione di fonti) e LaMDA di Google.
Ottima idea, cerco di includerlo!
ho letteralmente appena finito la parte 1. questo si che è tempismo
Bravisimo, grazie!
quindi se ho capito bene:
quando faccio una domanda a chatGPT, questo ultimo trasforma le parole in un vettore cioè gli embeddings. QUindi associa ad ogni parole un significato, una vicinanza di tante parole. Poi trovata la risposta alla mia domanda usa un task di predizione per formulare la risposta cioé capisce quale parole mettere di seguito all'altra tramite l'addestramento, cioè dopoo aver immagazzinato moltissimi testi letti.
Corretto?
Anche quindi per la musica funziona così? Tipo SUno?
grazie
58:49 forse lo dici dopo ma può essere che il nuovo gtp (o1) sia encoder (capisce a fondo ciò che vuoi e quali sono le tue task) e poi decoder per continuare e risolvere?
Bel lavoro
Gran bella live Enkkone! Capisco non sia il caso di andare troppo a fondo su certi aspetti in live, ma potresti mettere qualche link per approfondimento?
Ho chiesto a GPT-4 cosa ne pensa del "ban" temporaneo (si spera) ricevuto in Italia e mi ha fornito una risposta pertinente...ma come fa a sapere del ban visto che il suo training è terminato parecchi mesi fa?
Ieri c’era in palestra una persona che stava guardando questo video mentre faceva gambe, un fratello
Ciao! Trova i tuoi video super interessanti. Non è che faresti altre puntate anche entrando nei dettagli?( Perché in parte mi riguardano da vicino) grazie mille
Enkone falla unal ive in cui cazzeggi al terminale con le NN, anche se poco sarebbe molto interessante vedere le tecnologie che usi come ricercatore
❤
Io il video l'avrei chiamato: "dal percettrone a ChatGPT". Così sicuro non lo guardava nessuno 😄
Non ho bisogno di fare clickbait da due soldi.
Certo, ero ironico. Complimenti, video bellissimo.
9:19 si fa l'embedding in più lingue contemporaneamente e si risolve il problema.
A me molte cose di questi modelli di processare le informazioni sembrano più delle scoperte che delle invenzioni. Piano piano, hanno scoperto dei pattern e delle cose che permettono di rendere efficiente l'elaborazione, soprattutto per quanto riguarda il linguaggio.
ma la terza parte è stata pubblicata ?
definisci ragionamento
Quindi Cleverbot è una RNN?
Al giorno d'oggi sapere queste cose equivale a poter srotolare un cazzo lungo metri davanti alla ragazza più bella del mondo, senza che questa ti denunci
Io ritengo che la polisemia non sia un grosso problema... così come gli umani riescono a discernere il significato particolare associato ad una certa rappresentazione, così le reti neurali possono fare lo stesso, servendosi del contesto
è quello il punto: era un grosso problema prima delle LSTM; mentre i modelli con self-attention hanno pressoché risolto del tutto quella problematica.
commento pt.2
chi lo sa se queste reti neurali non abbiamo una qualche comprensione vera del mondo?
enk mio padre
La calamita per la pheega