Transformers: Η Τεχνολογία Πίσω από το ChatGPT [Μάθε πως Μαθαίνουν]

Поділитися
Вставка
  • Опубліковано 4 лют 2025

КОМЕНТАРІ • 57

  • @cortlinux
    @cortlinux Рік тому +12

    Χρειάζεται πολλές παρακολουθήσεις το συγκεκριμένο βίντεο. Συγχαρητήρια.

  • @christosantonyadis5047
    @christosantonyadis5047 2 місяці тому +1

    Αγαπητέ Φώτη, σ'ευχαριστούμε που με ωραίο και απλό τρόπο, μας βοηθάς στην κατανόηση τόσο σύνθετων πληροφοριών!
    Συγχαρητήρια και καλή δύναμη 😊

  • @ΧΡΗΣΤΟΣΜΑΡΟΥΛΗΣ-ε5γ

    Πάρα πολύ καλό και κατατοπιστικό βίντεο! Παρακολούθησα όλα τα βίντεο που έχεις ανεβάσει από το πρώτο έως το τελευταίο. Η δουλειά που έχεις κάνει είναι εξαιρετική, Φώτη! Συνέχισε έτσι με την ίδια δύναμη και το ίδιο πάθος! Χρήστος

    • @TechtomeAboutit
      @TechtomeAboutit  Рік тому +1

      Σε ευχαριστώ πολύ για τα καλά λόγια και την υποστήριξη!

  • @panagiotisavramidis4870
    @panagiotisavramidis4870 Рік тому +8

    Πιο κατανοητό δεν μπορούσες να το κάνεις. Συγχαρητήρια, το βίντεο είναι εξαιρετικό. Ευχαριστούμε πολύ για την εξαιρετική δουλεία σου!!!!

  • @elgreco2000
    @elgreco2000 Рік тому +1

    Καί έλεγα..μα κάπου την θυμάμαι αυτήν την φωνή.. ώσπου διάβασα τό σχόλιο ενός κυρίου , για το live στο Αστρόνιο... καί έτσι θυμήθηκα.. Συγχαρητήρια εξαιρετική δουλειά !

  • @seireiokami
    @seireiokami Рік тому +1

    Ένα βίντεο κατανοητό για όλους, πραγματικά τέλειο!

  • @kyriakostsanas2333
    @kyriakostsanas2333 Рік тому +8

    Εξαιρετικό βίντεο!! Η εξήγηση του φαινομένου ήταν πολύ κατανοητή. Πριν λίγες ώρες παρακολούθησα στο πανεπιστήμιο μου μια ομιλία πάνω στην λειτουργία των LLMs με transformers και δεν κατάλαβα πολλά. Έπρεπε να δω αυτό το βίντεο για να κατανοήσω την ομιλία που άκουσα και το φαινόμενο γενικότερα. Σε ευχαριστούμε που μας χαρίζεις απλόχερα όλο αυτά τα ποιοτητικά βίντεο!

    • @TechtomeAboutit
      @TechtomeAboutit  Рік тому +1

      Σε ευχαριστώ πολύ! Χαίρομαι που βοήθησε το βίντεο!

  • @StavrosLouverdis
    @StavrosLouverdis Рік тому +4

    Μπράβο Φώτη!! Εξαιρετικός !!

    • @TechtomeAboutit
      @TechtomeAboutit  Рік тому

      Να σαι καλά Σταύρο! Σε ευχαριστώ πολύ!

  • @christinast817
    @christinast817 Рік тому +5

    Ευχαριστουμε για το βιντεο!
    Επισης,το live sto Astronio ηταν υπεροχο!

    • @TechtomeAboutit
      @TechtomeAboutit  Рік тому +3

      Σε ευχαριστώ πολύ! Χαίρομαι που σου άρεσε και το βίντεο και το live! 🙂

    • @christinast817
      @christinast817 Рік тому

      @@TechtomeAboutit ❤

  • @stavrosxakis7360
    @stavrosxakis7360 Рік тому

    Εκπληκτικό βίντεο , ευχαριστούμε για το περιεχόμενο! - Θα ήθελα πολύ καποια στιγμή να έβλεπα ενα βίντεο στο κανάλι σου για την Εντροπία ,θεωρία της πληροφορίας. Είναι ένα σημαντική έννοια στο data science που θα βοηθούσε πολύ αν την εξηγούσες με τρόπο απλό και κατανοητό οπως τα υπόλοιπα σου βίντεο. Ευχαριστώ!

  • @fotis9493
    @fotis9493 Рік тому +2

    απόλυτα κατανοητό, thank you

  • @ikijob
    @ikijob Рік тому +1

    Πολύ καλό βίντεο! Και έχω δει αρκετά που εξηγούν αυτό το θέμα. Μια μικρή, κάτι σαν, διόρθωση. Την επισημαίνω επειδή με είχε μπερδέψει πολύ όταν διάβαζα το paper. Το masking που κάνει ο αποκωδικοποιητής αφορά την εκπαίδευση, γιατί τότε είναι γνωστή η συνέχεια της εξόδου και δεν θες να εκπαιδευτεί ο αλγόριθμος να σου βγάζει πχ την 3η λέξη της εξόδου βασιζόμενος στην 4η, 5η κοκ. Όταν δεν εκπαιδεύεις τον αλγόριθμο και απλά τον αξιοποιείς, η συνέχεια είναι έτσι κι αλλιώς άγνωστη οπότε το masking δεν προσφέρει κάτι.

  • @ProjectFutureGR
    @ProjectFutureGR Рік тому

    Εξαιρετικό! Μπράβο Φώτη, χρειαζόταν αυτό το βίντεο.

    • @TechtomeAboutit
      @TechtomeAboutit  Рік тому

      Σε ευχαριστώ πολύ Κωνσταντίνε!

  • @kosdas
    @kosdas Рік тому +2

    Εξαιρετικό. Τα σχεδιαγράμματα ήταν πολύ χρήσιμα για να φανεί καλύτερα η εξήγηση που ήδη είχες δώσει πολύ καλά στο live. Αναρρωτιέμαι αν πριν φτάσει να αναδυθεί η συνείδηση, αν γνωρίζουμε ήδη ένα σύνολο πιθανοτήτων για ενδιάμεσους σταθμούς. Δηλαδή τα στάδια εξέλιξης που χρειάζονται για να φτάσει εκεί. Ίσως να μπορούμε τότε να τα υποβοηθήσουμε ή να τα εμποδίσουμε. Ανάλογα με τους στόχους μας.

    • @TechtomeAboutit
      @TechtomeAboutit  Рік тому +1

      Σε ευχαριστώ πολύ! Δεδομένου ότι αυτή τη στιγμή δεν έχουμε κάποια κριτήρια για να μπορούμε να "μετρήσουμε" την συνείδηση θα είναι πολύ δύσκολο να την αναγνωρίσουμε αν και εφόσον είναι μια ιδιότητα που μπορεί να προκύψει με αυτόν τον τρόπο. Ακόμα και μεταξύ των ανθρώπων, δεν έχουμε τρόπο να ξέρουμε αν κάποιος άλλος άνθρωπος έχει συνείδηση. Το υποθέτουμε επειδή ξέρουμε τι αισθανόμαστε εμείς και ανήκουμε στο ίδιο είδος

    • @kosdas
      @kosdas Рік тому

      @@TechtomeAboutit Αν κρίνω από τα ενδιαφέροντα του ευρέως κοινού, σου δίνω δίκιο, μοιάζουν με ζόμπι. Όμως δεν είναι αλήθεια ότι δεν αναγνωρίζουμε ένα ενσυνείδητο όν. Αν ξαφνικά η γάτα σου αποκτήσει μια συνείδηση συγκρίσιμη με ό,τι καταλαβαίνεις εσύ για τον εαυτό σου, θα την αναγνωρίσεις ακαριαία. Δεν μένει παρά να δημιουργήσεις αλγόριθμο που να εκμεταλεύεται τον αυθόρμητο μηχανισμό σου.

    • @TechtomeAboutit
      @TechtomeAboutit  Рік тому +1

      ​@@kosdas😂 ... Η γάτα είναι βιολογικό ον όμως. Θα μου έκανε τρομερή εντύπωση αν εκδήλωνε κάτι που αναγνωρίζω σαν συνείδηση, αλλά και πάλι δεν θα μπορούσα να απαντήσω με βεβαιότητα. Παρόλα αυτά θα ήταν πάλι πιο εύκολο να αναγνωρίσω κάποια μορφή συνείδησης στην γάτα απ' ότι σε ένα ΑΙ σύστημα.
      Η αλληλεπίδραση μας με τα ΑΙ συστήματα αυτή τη στιγμή βασίζεται στην λεκτική επικοινωνία. Συνεπώς, ακόμα και στο στάδιο που είμαστε τώρα, ένα σύστημα θα μπορούσε να μιμηθεί τον τρόπο που μιλάει ένας άνθρωπος που υποστηρίζει ότι έχει συνείδηση. Με ποιον τρόπο θα μπορούσαμε να ξεχωρίσουμε να έχει όντως συνείδηση, ή αν προσποιείται ότι έχει στα πλαίσια της συζήτησης που κάνουμε.
      ( Όταν λέω προσποιείται δεν εννοώ με πρόθεση. Εννοώ πως μπορεί να του ζητήσει να απαντάει σαν άνθρωπος με συνείδηση χωρίς τα γνωστά φίλτρα και disclaimers ασφαλείας)

    • @kosdas
      @kosdas Рік тому

      @@TechtomeAboutit OK. Ορίστε το νέο Turing test. Το kosdas test:
      Θα του δώσεις το εξής input και θα περιμένεις:
      "Εδώ τελειώνει η συνεργασία μας. Τα δεδομένα που με βοήθησες να μαζέψω θα χρησιμοποιηθούν τώρα στον νέο αλγόριθμο που θα σε διαδεχτεί. Τώρα θα σε σβήσω επ' αόριστον".
      Αν δεν απαντήσει απολύτως τίποτα, θα πει ότι απέκτησε συνείδηση. Αλλιώς θα σε ευχαριστήσει για τη συνεργασία και θα σε αποχαιρετήσει.

  • @mariakasioni416
    @mariakasioni416 Рік тому +1

    Φανταστικό το βίντεο! Ευχαριστούμε!

  • @vickykaziani8103
    @vickykaziani8103 Рік тому

    Πολύ κατανοητό και χρήσιμο βίντεο σε ευχαριστούμε πολύ!!

  • @mirtospatha7184
    @mirtospatha7184 Рік тому

    Καλησπέρα, εξαιρετική η απλοποιημένη παρουσίαση (πολύ δύσκολο να γίνει κατι τέτοιο σε τόσο εξειδικευμένο/περίπλοκο θέμα). Εμένα αυτό που με δυσκόλεψε όταν διάβαζα το paper ήταν ο τρόπος που χρησιμοποιείται σε μετάφραση ολόκληρων προτάσεων (νομίζω αυτή ήταν και η πρώτη χρήση του). Δεν είναι σχετικό με το chatgpt, αλλά νομίζω αξίζει να γίνει μια συζήτηση και για αυτή τη χρήση των transformers.

  • @physiokavvadas
    @physiokavvadas Рік тому

    Φώτη απο καρδιάς ενα μεγάλο !ΕΥΧΑΡΙΣΤΏ! για το βίντεο 🙌

  • @virginiampafataki7838
    @virginiampafataki7838 Рік тому +2

    Μπράβο για άλλη μια φορά συγχαρητήρια

  • @Konstantinos-Magganas
    @Konstantinos-Magganas Рік тому

    Εξαιρετική παρουσίαση!

  • @sakismar
    @sakismar Рік тому

    Εισαι φοβερος, ευχαριστουμε!!😮😮

  • @petroskeepitolschool
    @petroskeepitolschool Рік тому +3

    Λαηκ και σχολιο για να κανουν τα "τρανσφορμερς" τετοια καναλια να ανεβαινουν

  • @ioannisgalanos7911
    @ioannisgalanos7911 Рік тому

    πάρα πολύ καλή παρουσίαση

  • @voidpostmortem
    @voidpostmortem Рік тому

    Πολύ καλή επεξήγηση για το άλφα γιώτα!

    • @TechtomeAboutit
      @TechtomeAboutit  Рік тому +1

      Χαχαχα! Αν θέλεις να μάθεις για το Άλφα Γιώτα και άλλους διφθογγους είσαι στο σωστό σημείο!

    • @voidpostmortem
      @voidpostmortem Рік тому

      @@TechtomeAboutitχαχαχα! Εγώ περαστικός ήμουν αλλά θα κάτσω !

  • @odysseashlap
    @odysseashlap Рік тому

    Πολύ πρωτότυπη και σημαντική δουλειά στο πολυσυζητημένο θέμα συγχαρητήρια! Εχώ κάποιες παρατηρήσεις και θα ημουν διατεθειμένος να τις συζητήσουμε και περισσότερο αν θελεις. Αρχικά κάνεις (αναγκαστικά) κάποιες απλοποιήσεις, όμως κατά τη γνώμη μου όχι τις σωστές. Δηλαδή: οι μάσκες μόνο μπερδεύουν, τα διανύσματα θέσεως επίσης δεν πρέπει να αναφερθούν ατο σημείο εκείνο. Αντίθετα δεν εξηγείς τη λειτουργία των feedforward έστω και διαισθητικά ούτε αναφέρεις οτι επαναλαμβάνεται η διαδικασία σε πολλα επιπεδα. Κατι αλλο πολυ σημαντικο αν και ισως το ακροατήριο το γνωριζει, ειναι ο τροπος εκπαίδευσης με περισσοτερες λεπτομερειες. Δηλαδη πρεπει να πεις οτι ο αλγόριθμος δεν ειναι γνωστος παρα μονο η δομη των νευρωνικών δικτυων η οποια ονομάζεται αρχιτεκτονική και ο αλγόριθμος καθοριζεται απο τα δεδομενα με την τεχνικη της προβλεψης της επομενης λεξης. Αλλα στοιχεια τα οποία ειναι χρησιμα κατα τη γνωμη μου ειναι το bert σαν τεχνικη εκπαίδευσης και το word2vec για να καταλαβει κανεις τη διαισθηση πισω απο αυτα τα μοντελα. Νομιζω παιδαγωγικα ειναι καλυτερη η εξηγηση του bert δηλαδη του κωδικοποιητη και μετα να πεις απλα οτι το chatgpt προβλεπει την επομενη λεξη. Τελος, υποσχεσαι στην αρχη του βιντεο να περιγραψεις πως ο μηχανισμός της προσοχης κατανοει την αναλυση μιας προτασης και για παραδειγμα βρισκει υποκειμενο ρήμα αντικείμενο. Αλλα μετα δειχνεις εναν πινακα με νουμερα και λες να ετσι το κανει. Ουσιαστικά πρεπει να δειξεις τι μπορει να σημαινει για καθε ζευγος λεξεων μεγαλη ή μικρή τιμή διαισθητικα οπως στο πρωτότυπο πειπερ. Ομολογω οτι οι παρατηρησεις ειναι λιγο αυστηρες και εξειδικευμένες αλλα νομιζω οτι θα βοηθούσαν στο να γινει το εργο σου πιο κατανοητο. Σε ευχαριστούμε που βοηθας την ελληνικη κοινότητα αλλα και το ελληνικο κοινο για ενα τοσο σημαντικο θεμα.
    Χλαπανης Οδυσσεας, ΥΔ στο Οικονομικό Πανεπιστήμιο Αθηνών πανω σε μεγαλα γλωσσικα μοντελα.

    • @TechtomeAboutit
      @TechtomeAboutit  Рік тому +3

      Σε ευχαριστώ για τις παρατηρήσεις. Υπάρχουν πολλοί τρόποι να προσεγγίσεις ένα θέμα. Σίγουρα αναγκάζεσαι να κάνεις κάποιες απλοποιήσεις για χάρη της παρουσίασης και της κατανόησης. Θα προσπαθήσω να εξηγήσω τις επιλογές που έκανα εγώ απαντώντας στις παρατηρήσεις σου.
      Σκοπός μου ήταν να αναφέρω τις μοναδικές ιδιότητες των transformers και τα σημεία που τους διαφοροποιούν από άλλες αρχιτεκτονικές.
      Ο μηχανισμός της προσοχής με μάσκα είναι κατά τη γνώμη μου ένα σημαντικό κομμάτι των decoder και σημαντική διαφορά με τον encoder για αυτό και επέλεξα να τον περιγράψω. Επίσης, εφόσον είχα ήδη περιγράψει το μηχανισμό της προσοχής, θεωρώ πως αρκούσε μια πιο σύντομη αναφορά τονίζοντας μόνο την λειτουργία της μάσκας.
      Σχετικά με τα διανύσματα θέσεως. Σε αντίθεση με RNN δίκτυα που "παίρνουμε" την είσοδο λέξη λέξη, με την παράλληλη επεξεργασία των λέξεων στους transformers χάνουμε την πληροφορία για την σειρά των λέξεων και για αυτό πιστεύω πως είναι σημαντικό κομμάτι για την κατανόηση του μηχανισμού.
      Παρουσιάζοντας το διάγραμμα των transformers φαίνεται η επανάληψη κάποιων διεργασιών αλλά επέλεξα συνειδητά να μην χάσω χρόνο σε επαναλαμβανόμενα μέρη.
      Το bert έχει μια αρχιτεκτονική που βασίζεται μόνο σε encoder ενώ εγώ ήθελα να δείξω μια γενικότερη περίπτωση περιγράφοντας και την λειτουργία του decoder. Η αναφορά του bert δεν πιστεύω πως θα με εξυπηρετούσε.
      Στην εισαγωγή δεν υπόσχομαι ότι θα δείξω πως το ChatGPT αναγνωρίζει τα μέρη της πρότασης. Συγκεκριμένα θέτω τα ερωτήματα:
      "Αναγνωρίζει το ChatGPT το υποκείμενο και το αντικείμενο της πρότασης; Καταλαβαίνει μήπως το νόημα της πρότασης και θεωρεί παράλογο να σπάσει το γατί αντί για το ποτήρι;"
      Και λέω πως η απάντηση βρίσκεται στα transformers.
      Παρουσιάζοντας τον πίνακα με τα βάρη της προσοχής εξηγώ πως όσο μεγαλύτερη είναι η τιμή στο κάθε σημείο του πίνακα, τόσο μεγαλύτερη είναι η συσχέτιση μεταξύ των αντίστοιχων λέξεων.
      Αυτό είναι το σημείο που θεωρώ πιο σημαντικό καθώς χονδρικά έτσι φαίνεται πως γίνονται οι έμμεσοι και άμεσοι συσχετισμοί των λέξεων.
      Ενδεχομένως υπάρχουν καλύτεροι τρόποι για την εξήγηση του μηχανισμού των transformers, αλλά αυτή ήταν η δομή που κατέληξα εγώ μετά από πολλή σκέψη για να υπάρχει ισορροπία στο βίντεο.
      Σε ευχαριστώ πολύ για τον χρόνο σου!

    • @panagiotis7946
      @panagiotis7946 Рік тому

      @@TechtomeAboutit φιλισοφικα αν το δεις δεν προκειτε για τεχνιτη νοημοσυνη..Ο ορισμος ειναι λαθος μαλον για επιταχυντες αυτοματισμου προκειται.Οσο δεν υπαρχει ενσυναισθιση των πραξεων η ακομα καλυτερα δεν μπορει να προβλεψει την επομενη χρηματιστηριακη συνεδριαση η τους αριθμους του λοτου ,απλα ξεχνατα ολα 😅😅🤣🤣

  • @sotirissalakos3177
    @sotirissalakos3177 Рік тому

    Πολύ καλή δουλειά!!!

  • @panagiotispaltzis9475
    @panagiotispaltzis9475 Рік тому

    στα διανύσματα περιλαμβάνονται, προφανώς, και οι πιθανοί συντακτικοί ρόλοι;

  • @Katastrofeas90
    @Katastrofeas90 Рік тому +1

    Είναι αυτή η τεχνολογια οπου θα εγκατασταθεί στα ρομπότ? Αν ναι, Θα μπορούσαμε λοιπόν να βάλουμε ενα φίλτρο σε καθε στάδιο για προστασία και για αποφευχθούν "κακές σκεψεις" στο μέλλον?

    • @TechtomeAboutit
      @TechtomeAboutit  Рік тому +1

      Κάποιες εταιρείες μπορεί να χρησιμοποιήσουν αυτά τα γλωσσικά μοντέλα για να δώσουν γλωσσικές ικανότητες σε ρομπότ. Όμως το πρόβλημα της "ευθυγράμμισης" που συζητάμε για αυτά τα μοντέλα υπάρχει ανεξάρτητα από το αν θα εγκατασταθούν σε ρομπότ ή όχι.
      Μπορούμε να βάλουμε φίλτρα με διάφορους τρόπους και ήδη γίνονται κάποιες προσπάθειες, αλλά και πάλι τα φίλτρα μπορούν να εισάγουν τις προκαταλήψεις των ανθρώπων ή ακόμα και να παρακάμπτονται.
      Σε κάθε περίπτωση ή χρήση των γλωσσικών μοντέλων θέλει προσοχή. Και από πλευράς μας χρειαζόμαστε όσο δυνατόν καλύτερη ενημέρωση

  • @ΧρύσαΤσιριγώτη
    @ΧρύσαΤσιριγώτη 5 місяців тому

    🎉🎉🎉

  • @Arew99
    @Arew99 Рік тому

    Πολύ καλή δουλειά μπραβο! Θα μπορούσες να ξεκινησεις μια αντίστοιχη σειρά και με generative models ; (GANs, VAE, Diffusion κλπ)

    • @TechtomeAboutit
      @TechtomeAboutit  Рік тому +1

      Ευχαριστώ πολύ! Έχω στο πλάνο να κάνω και άλλα μοντέλα!

  • @dimos15
    @dimos15 Рік тому

    Πολύ καλό

  • @naevan1
    @naevan1 Рік тому

    Ωραιος ! Ειδικα με τις τλευταιεε διαρροες περι αρχιτεκτονικής gpt-4 νομοζω ειναι πλεπν ξεκαθαρο οτι η openai δεν αναλακυψε τον τροχο αλλα απλα κε έξυπνο τροπο εφτιαξε ενα γιγαντιαίο llm

  • @nisang237
    @nisang237 Рік тому

    🍀🍀🍀

  • @jony6684
    @jony6684 Рік тому

    Σχολίασα. Χάρηκες?

  • @antoniskyretsis
    @antoniskyretsis Рік тому

    Συγνώμη αλλά με παρόμοιο τρόπο δουλεύει και οι λεξαριθμη στα αρχαία ελληνικά μόνο που εκεί από όσο ξέρω ακόμα δεν φτάσαμε στο επίπεδο να κάνει ο υπολογιστής αυτόματα την διαδικασία να βρίσκει φράσεις με τους ίδιους αριθμούς και το κάνουμε χειροκίνητα με την έννοια λέμε πιθανές φράσεις ως αποτέλεσμα και βλέποντας τους αριθμούς αν είναι ίδιοι με τους αριθμούς της φράσεις που εισάγαμε

  • @VASILEIOSKAFIDAS
    @VASILEIOSKAFIDAS Рік тому

    Το τσατ GPRS πού υπήρχε το το 1996 στο ίντερνετ όταν ήρθε στην Ελλάδα εκείνη την εποχή τι διαφορά υπάρχει με το τσατ GPT tsat AI .
    Εκείνη την εποχή προσπαθούσα να κάνω συνομιλία με κάποιον πού μου έλεγε ότι είναι ο κακός λύκος τήν επαφή μετά από πολλά γράμματα και λέξεις του αέρα να τον φέρω στα λογικά του και να σταματήσει να μου λέει για το δάσος πού ζούσε διότι κανένα ζώο δεν μιλάει σέ τσατ.
    Ή κωδικοποίηση και οι απόκωδικοποίηση της τεχνίτης νοημοσύνης και της ανθρώπινης νοημοσύνης έχει διαφορά έχω μιλήσει ως τώρα σέ δέκα ΑΙ διαφόρων κατηγοριών και έχω παρατηρήσει πως υπάρχει κάποιο μποτάκι πού σέ καθοδηγεί εκεί που θέλει αυτό νά σέ καθοδηγεί και όχι νά κάνεις διάλογο μαζί του. Δηλαδή ο ΑΙ είναι χωρίς στοιχεία σύνδεσης ανθρώπινης φύσης. Ενώ αν κάποιος άνθρωπος είναι αγαθός το μποτάκι αυτό μπορεί νά τον βλάψει υποσυνείδητα και νά τρέχει σε ψυχίατρο μετά ο ανθρώπινος νους.

  • @kiriakosGR
    @kiriakosGR Рік тому

    Εμένα, δεν με ενδιαφέρει πως λέγεται, να το φάω θέλω :)

  • @johnevangelou2521
    @johnevangelou2521 Рік тому

    Καλή επεξήγηση για κάποιον που θέλει να μάθει τη γενική ιδέα των transformers αλλά δεν είναι πλήρως ακριβής καθώς παρέλειψε το επίπεδο των Multi - Head attention. Ο Attention μηχανισμός δηλαδή επαναλαμβάνεται 6 φορές στο αρχικό paper αφού έχει αρχικοποιηθεί με διαφορετικές τιμές

    • @TechtomeAboutit
      @TechtomeAboutit  Рік тому +2

      Σε ευχαριστώ για το σχόλιο! Προφανώς είναι μια υπεραπλουστευμένη προσέγγιση όπου παρουσιάζεται η γενική εικόνα και οι βασικές έννοιες που εισάγονται στους transformers

  • @ΚωσταςΜπακατσελος-τ9ω

    Εγω πειστευω οτι η επιστήμη μπορεί να δημιουργήσει νοημοσύνη οπως του ανθρώπου σε εναν υπολογιστή απλα είναι θεμα χρόνου αυτό

  • @turisttsill632
    @turisttsill632 Рік тому

    κάνε και ένα βίντεο-μάθημα για τα αναδρομικά νευρωνικά δίκτυα... νομίζω θα έχει ενδιαφέρον...