Come funziona: le Reti Neurali (Pt. 2)

Поділитися
Вставка
  • Опубліковано 1 січ 2025

КОМЕНТАРІ • 40

  • @enkk
    @enkk  Рік тому +44

    La terza parte, in arrivo fra un paio di settimane, sarà specifica su GPT e chatGPT sarà quella che definitivamente risponderà a tutti i vostri dubbi e perplessità. Sarà anche *molto* più leggera.

    • @ArrowFinally
      @ArrowFinally Рік тому

      Ciao Enkk, Corso Boolean a parte, esistono dei validi libri o video ulteriori su youtube che riguardano questo argomento e impari con pò di pratica?

    • @viktordipace8615
      @viktordipace8615 Рік тому +1

      @@ArrowFinally Ti consiglio di controllare su un corso universitario di reti neurali i libri consigliati dai docenti. È un buon modo per avere opzioni molte volte valide visot che sono i libro che solitamente usano gli studenti per prepare gli esami

    • @ArrowFinally
      @ArrowFinally Рік тому

      @@viktordipace8615 ok grazie per il consiglio!!

    • @andreaaaaaa
      @andreaaaaaa 2 місяці тому

      Ciao , dopo 1 anno scopro questi video molto fighi grazie!

  • @FrancescoRomeo-02
    @FrancescoRomeo-02 Рік тому +20

    Forse la prima persona competente che vedo parlare di queste cose (almeno in Italia) da quando è spopolata chatGPT, te se ama prof❤

    • @enkk
      @enkk  Рік тому +4

      Wait for sunday amico mio...

  • @cochoinca5042
    @cochoinca5042 Рік тому +6

    Enkk queste live sono oro!

  • @renemartignago7301
    @renemartignago7301 Рік тому +1

    Wow. Mi hai chiarito tanti dubbi che avevo su queste nuove tecnologie. Grazie! Inoltre hai un modo di spiegare molto chiaro tanto che anche uno zuccone come me è riuscito a capire quasi tutto. Hai un nuovo rompi scatole che ti segue ora 😅

  • @filippo3416
    @filippo3416 6 місяців тому +1

    Questi video sono oro, grazie Enkk ❤❤❤

    • @enkk
      @enkk  6 місяців тому

      Grazie a te broski

  • @lynx97
    @lynx97 Рік тому +2

    Grazie per aver preparato queste live, attendo la terza e presumo ultima parte.
    Oltre che GPT e ChatGPT sarebbe interessante anche parlare dell'implementazione fatta da Microsoft tramite Bing AI (e quindi risolvere almeno in parte la mancata affidabilità tramite la citazione di fonti) e LaMDA di Google.

    • @enkk
      @enkk  Рік тому +1

      Ottima idea, cerco di includerlo!

  • @uncopino
    @uncopino Рік тому

    ho letteralmente appena finito la parte 1. questo si che è tempismo

  • @vcatalyst
    @vcatalyst Рік тому

    Bravisimo, grazie!

  • @RenatoCaruso
    @RenatoCaruso 3 місяці тому

    quindi se ho capito bene:
    quando faccio una domanda a chatGPT, questo ultimo trasforma le parole in un vettore cioè gli embeddings. QUindi associa ad ogni parole un significato, una vicinanza di tante parole. Poi trovata la risposta alla mia domanda usa un task di predizione per formulare la risposta cioé capisce quale parole mettere di seguito all'altra tramite l'addestramento, cioè dopoo aver immagazzinato moltissimi testi letti.
    Corretto?
    Anche quindi per la musica funziona così? Tipo SUno?
    grazie

  • @simonemarchetti5702
    @simonemarchetti5702 2 місяці тому

    58:49 forse lo dici dopo ma può essere che il nuovo gtp (o1) sia encoder (capisce a fondo ciò che vuoi e quali sono le tue task) e poi decoder per continuare e risolvere?

  • @ScratchyCode
    @ScratchyCode Рік тому

    Bel lavoro

  • @FilippoRagazzo
    @FilippoRagazzo Рік тому +2

    Gran bella live Enkkone! Capisco non sia il caso di andare troppo a fondo su certi aspetti in live, ma potresti mettere qualche link per approfondimento?

  • @Frittella_12promax
    @Frittella_12promax Рік тому +1

    Ho chiesto a GPT-4 cosa ne pensa del "ban" temporaneo (si spera) ricevuto in Italia e mi ha fornito una risposta pertinente...ma come fa a sapere del ban visto che il suo training è terminato parecchi mesi fa?

  • @filippoz23
    @filippoz23 Рік тому

    Ieri c’era in palestra una persona che stava guardando questo video mentre faceva gambe, un fratello

  • @ziojimon
    @ziojimon Рік тому

    Ciao! Trova i tuoi video super interessanti. Non è che faresti altre puntate anche entrando nei dettagli?( Perché in parte mi riguardano da vicino) grazie mille

  • @andreaaliberti9349
    @andreaaliberti9349 Рік тому +2

    Enkone falla unal ive in cui cazzeggi al terminale con le NN, anche se poco sarebbe molto interessante vedere le tecnologie che usi come ricercatore

  • @albertozerbinati9983
    @albertozerbinati9983 Рік тому

  • @LucaCrisciOfficial
    @LucaCrisciOfficial Рік тому +1

    Io il video l'avrei chiamato: "dal percettrone a ChatGPT". Così sicuro non lo guardava nessuno 😄

    • @enkk
      @enkk  Рік тому +2

      Non ho bisogno di fare clickbait da due soldi.

    • @LucaCrisciOfficial
      @LucaCrisciOfficial Рік тому

      Certo, ero ironico. Complimenti, video bellissimo.

  • @kapazezza7287
    @kapazezza7287 Рік тому

    9:19 si fa l'embedding in più lingue contemporaneamente e si risolve il problema.

  • @geometra7
    @geometra7 Рік тому

    A me molte cose di questi modelli di processare le informazioni sembrano più delle scoperte che delle invenzioni. Piano piano, hanno scoperto dei pattern e delle cose che permettono di rendere efficiente l'elaborazione, soprattutto per quanto riguarda il linguaggio.

  • @giusepperossi2340
    @giusepperossi2340 Рік тому

    ma la terza parte è stata pubblicata ?

  • @gdaaps
    @gdaaps Рік тому

    definisci ragionamento

  • @itsamiimarco9338
    @itsamiimarco9338 Рік тому

    Quindi Cleverbot è una RNN?

  • @pietrosmusi1409
    @pietrosmusi1409 Рік тому +2

    Al giorno d'oggi sapere queste cose equivale a poter srotolare un cazzo lungo metri davanti alla ragazza più bella del mondo, senza che questa ti denunci

  • @gdaaps
    @gdaaps Рік тому

    Io ritengo che la polisemia non sia un grosso problema... così come gli umani riescono a discernere il significato particolare associato ad una certa rappresentazione, così le reti neurali possono fare lo stesso, servendosi del contesto

    • @just_danyy2743
      @just_danyy2743 Рік тому +1

      è quello il punto: era un grosso problema prima delle LSTM; mentre i modelli con self-attention hanno pressoché risolto del tutto quella problematica.

  • @Jo_Soy_Reina
    @Jo_Soy_Reina Рік тому

    commento pt.2

  • @ektor1212
    @ektor1212 Рік тому

    chi lo sa se queste reti neurali non abbiamo una qualche comprensione vera del mondo?

  • @guvugjrhv
    @guvugjrhv Рік тому

    enk mio padre

  • @andread9899
    @andread9899 Рік тому +2

    La calamita per la pheega