Le problème fondamental du nouveau mode Vocal de ChatGPT

Поділитися
Вставка
  • Опубліковано 15 лис 2024

КОМЕНТАРІ • 462

  • @Underscore_
    @Underscore_  9 днів тому +64

    ⚠ Nous recherchons des profils bien spécifiques à inviter dans l’émission !
    - quelqu’un qui a déjà mis en places un Honeypot - dans le cadre du taf’ ou non, et qui a péché des poissons intéressants, le mieux c’est si vous avez des trucs visuels, des screenshots à montrer
    - une boîte qui a développé un outil en no-code et qui s’en est mordu les doigts ensuite, qui rétrospectivement, aurait préféré coder d’entrée de jeu
    - quelqu’un pour parler de la pénurie de développeurs en COBOL ou FORTRAN aujourd’hui, si possible un développeur COBOL que les banques s’arrachent
    - quelqu’un pour parler des problèmes de la fondation Mozilla et du nouveau navigateur Ladybird, qui connait bien l’écosystème des navigateurs et moteurs web
    Si vous vous êtes reconnu (ou si vous connaissez quelqu’un qui correspond), n’hésitez pas à nous contacter à : underscore@micorp.studio

    • @arthurking2848
      @arthurking2848 9 днів тому

      intel ultra est instable en se moment

    • @samuelgarcia1802
      @samuelgarcia1802 9 днів тому +1

      Coucou, je pense qu'il a raison concernant la voix, mais il exagère un peu pour O1. Il est important de souligner qu'O1 possède un niveau de PhD dans plusieurs disciplines, telles que les mathématiques, la physique, la chimie et la biologie. Son niveau en programmation est également impressionnant (peut-être légèrement inférieur à Claude Sonnet 3.5), mais reste tout à fait remarquable.
      Il faut aussi garder à l'esprit que nous avons actuellement accès aux versions preview et mini d'O1, qui ne représentent pas la version finale prévue pour ce Noël, et qui promet d'être encore plus performante. D'ailleurs, si les chaînes de pensée étaient si faciles à implémenter, toutes les IA génératives les utiliseraient déjà.
      Je te conseille de te tourner vers quelqu'un de bien informé sur O1. J'ai connu des docteurs en sciences qui ont été stupéfaits par les capacités de la version preview, que ce soit en mathématiques, physique/chimie ou biologie.

    • @psikobare
      @psikobare 9 днів тому +5

      par contre c'est un peu bizarre de chercher des profils avec des conclusions déjà toutes faites. Après tout peut-être que certaines boites ont mis en place du nocode et en sont satisfaites par ex.

    • @sculpteurs
      @sculpteurs 9 днів тому +1

      Belle initiative mais les NDA vont être compliquées à gérer pour une vidéo. (Milieu bancaire et un carnage en cours...mais chuuut on fait de la pub. Ça passe)

    • @xaviera5886
      @xaviera5886 9 днів тому +2

      Perso je fais du No-Code et je suis content, je fais du SaaS (Je suis CTO), pour des fonds de VC.
      Au lieu de m'en mordre les doigts, je me frotte les mains 😁

  • @tba77
    @tba77 8 днів тому +40

    encore un titre qui n'a rien à voir avec le contenu de la vidéo dommage que depuis un bon moment maintenant tous les titres d'underscore sont comme ça c'est fou alors que le contenu est de qualité

    • @RobertJaqui
      @RobertJaqui 6 днів тому

      Encore un relou qui vient pourrir le chat avec ses états d'âme alors que la vidéo est très bien

  • @TchoumZik
    @TchoumZik 9 днів тому +142

    Jean-Louis Quéguiner transpire la passion et la maitrise du sujet : un délice de l'écouter :)

  • @lynamktr
    @lynamktr 9 днів тому +49

    Il me fascine tellement ce type ! Étant étudiante en Réseaux et Télécommunications il y a beaucoup de concepts que j'étudie et dont je ne comprends pas toujours le but et l'utilisation en pratique, lui les aborde et les relie de façon qui rend la chose tellement logique et évidente. S'il créer un podcast je le suis à 10000%

  • @joffrey6831
    @joffrey6831 9 днів тому +201

    Un invité captivant, avec une super élocution 👌

    • @philippe-lebel
      @philippe-lebel 9 днів тому +2

      J'aurais préféré qu'ils invitent l'IA pour directement lui poser les questions ;)

    • @playmotion.trailer
      @playmotion.trailer 9 днів тому +4

      oui, j'adore sa voix et son élocution aussi, c'est à la fois carré et reposant. C'est la voix que je veux pour mon assistant google ! 😁

    • @evfamilytrips9207
      @evfamilytrips9207 8 днів тому

      Pas un seul ‘du coup’

    • @WhiteRabbit33333
      @WhiteRabbit33333 8 днів тому

      La vie est amusante quand on est avec des amis et des amoureux. La raison pour laquelle nous ne sommes pas heureux est que tout le monde travaille, alors nous nous déconnectons d'eux.

    • @youtou252
      @youtou252 12 годин тому

      oui c'est super, sauf qu'il invente.

  • @Emb_Sys
    @Emb_Sys 9 днів тому +88

    J'aime ce guest, il semble vraiment passionné par ce domaine !

  • @AnthoNoar
    @AnthoNoar 9 днів тому +132

    La ref à FDB je m'y attendais pas ^^

  • @batlikcover2538
    @batlikcover2538 9 днів тому +16

    Cette vidéo est la démonstration qu' inviter des personnes hyper compétentes et sélectionnées avec soin est une excellente idée !

    • @GaylordWagner
      @GaylordWagner День тому

      Vraiment au top les explications. j'adore ❤

  • @albrigo
    @albrigo 8 днів тому +4

    Sujet intéressant et actuel, même un profane comme moi arrive à (presque) suivre grâce au support visuel qui accompagne l'explication de l'invité: un gros boulot dont je vous félicite et remercie!

  • @psikobare
    @psikobare 9 днів тому +22

    IL faut inviter le farine sur underscore maintenant, après tout c'est le meilleur mapper de YT

    • @legroscurieux5751
      @legroscurieux5751 4 дні тому +1

      en vrai y aurai tout un sujet à faire sur la reprogrammation, l'évolution de l'injection électronique, les calculateurs, les gestions programmables, le matos, les outils,...

  • @cinecareforall
    @cinecareforall 8 днів тому +1

    Une incroyable leçon de pédagogie !! Bravo pour le choix de l'invité et Merci à lui d'avoir accepté :)

  • @MoncefNaji
    @MoncefNaji 9 днів тому +15

    Super calé comme invité ! Merci !

  • @Mecanoje
    @Mecanoje 9 днів тому +54

    La ref à Farine De Blé ! La vovo !

    • @valentinorosado5591
      @valentinorosado5591 9 днів тому +2

      Le 2JZ 💥

    • @elmambojambo
      @elmambojambo 9 днів тому

      @@valentinorosado5591 peut-on cuire une merguez sur une carte nvidia qui tourne pour miner ? Peut-on se servir des ventilos d'un serveur qui mine du bitcoin pour alimenter les deux turbos du 2JZ ?

    • @slals
      @slals 9 днів тому +1

      ça m'a fait rire, la ref qui sort de nul part

  • @nicolascarpentier9542
    @nicolascarpentier9542 8 днів тому +1

    C super qu'il y ait des intervenant qui donnent des avis très pertinent sur l'IA, qui simplifie la technologie pour que ce soit accessible à tout le monde . Bravo à vous

  • @boriabogoris9656
    @boriabogoris9656 8 днів тому +2

    Wow, Jean-Louis Quéguiner vulgarise de main de maître des concepts complexes pour tous les viewers. Merci à lui

  • @bernardbrun8477
    @bernardbrun8477 9 днів тому +1

    Merci pour cet échange hyper passionnant et pour la qualité de votre intervenant. Le passage sur la latence et sur ses effets dans un échange oral est génial et très accessible pour un néophyte tel que moi. Bravo pour cette émission

  • @laurentallenguerard
    @laurentallenguerard 9 днів тому +13

    9:30 C'est la représentation la plus claire de la transformée de Fourier que j'ai vu.

  • @thedjin2429
    @thedjin2429 9 днів тому +18

    Très intéressant, l'invité est claire et précis dans cette échange

  • @MoiAimeBien
    @MoiAimeBien 9 днів тому +10

    Il à cité Tonton Farine c'est un bon ce gars je l'aime de plus en plus 😆

  • @sebastienP880
    @sebastienP880 9 днів тому +7

    Un invité incroyable. Merci pour cette vidéo ! 👏

  • @theophilechardon3397
    @theophilechardon3397 9 днів тому +30

    Le fair qu'il y ait trop peu de latence a aussi un autre défaut: impossible de converser en demandant qu'il te laisse réflechir car tu cherches tes mots des fois: la réponse est toujours immédiate, alors qu'une personne humaine comprend que certains silences ne demande pas de réponse immédiate. Cela rend l'utilisation du bot pas très pédagogue si on veut lutiliser comme professeur de langue; quand on apprrnd une langue ou autre il n'est pas rare qu'on cherche nos mots et c'est assez agaçant de se voir répondre alors qu'on n'a pas finit de parler en réalité.

    • @G0UDIE
      @G0UDIE 9 днів тому +4

      C'est vrai, cela reste un des derniers bémols du mode vocal, et qui fait qu'on se rappelle qu'on parle bien à une IA. Il faut donc réfléchir avant de commencer à parler, ce qui n'est pas intuitif (bien que ce soit une bonne habitude à prendre... même entre humains 😅)

    • @hugosausseau123
      @hugosausseau123 9 днів тому +2

      on se dit que ce qui pourra fix ce problème, c’est lorsqu’il ajouteront en même temps la fonctionnalité ‘vidéo’ qu’ils avaient teasé y’a qq mois. La caméra pourra analyser en live si l’on réfléchit, pensé, hésite, s’apprête à parler etc

    • @mauricejoseph488
      @mauricejoseph488 8 днів тому

      Oui. C'est là le hic. 😊😊

    • @G0UDIE
      @G0UDIE 8 днів тому +1

      @@hugosausseau123 Possible ! Quand ChatGPT sera capable de décrypter le langage corporel en temps-réel (après-demain) ça sera une étape (flippante) de plus.

    • @rayanarnel8244
      @rayanarnel8244 8 днів тому

      @@G0UDIE Il y a deja des model sur les emotion humain. Triste, heureux, hésitant etc...

  • @Eliaz51160
    @Eliaz51160 9 днів тому +36

    Les gaaaarrrrs... vous sortez ça il y a 17 minutes et j'ai pris un abonnement il y a une heure...

    • @thoma33
      @thoma33 9 днів тому +3

      tu peux tout avoir en local self hosted gratuitement avec tt les option et +

    • @apprentiloutre4871
      @apprentiloutre4871 9 днів тому +8

      En vrai selon votre usage, cela peut être intéressant , l'avis du mec est trop tranché et pas assez sourcé

    • @MC8596
      @MC8596 9 днів тому

      @@thoma33sans deccc ?

    • @thoma33
      @thoma33 9 днів тому

      @@MC8596 oui moi j'ai tout en self hosted tu peux lui donné une image il te diras ce que c'est ou lui faire generé une image moi je perso je men sert plus pour l'autocompletion sur visual studio code

    • @skh3095
      @skh3095 9 днів тому

      ​@@MC8596 Il raconte des inepties. C’est certes possible, mais cela nécessite un serveur ou un ordinateur extrêmement puissant pour exécuter l’IA en local. Il est amusant de constater que ce sont toujours les mêmes personnes qui se prétendent expertes sans mentionner les éléments les plus importants.

  • @tristan4469
    @tristan4469 8 днів тому +2

    "données d'entraînement" c'est le meilleur synonyme de "vol", ça me fait me taper une barre à chaque fois une je l'entends 🤣

  • @DAHPL
    @DAHPL 9 днів тому +7

    Absolument passionnant cet épisode ! Bravo.

  • @legroscurieux5751
    @legroscurieux5751 4 дні тому

    damn le Farine chez Micode, je m'y attendais tellement pas à celle là. Alors qu'en vrai y aurai tout un sujet à faire sur la reprogrammation, l'évolution de l'injection électronique, les calculateurs (les technos et langages), les gestions programmables, le matos, les outils,...

  • @darksith6666
    @darksith6666 9 днів тому +14

    La fin de la vidéo pour la recherche d’un Cobol. Ça me rappelle un anecdote. Au boulot ( grosse boîte IT) on devait déménager un vieux système ( mais je ne m’en rappelle plus ) d’un DC au notre.
    On est des dizaines de milliers dans la boîte. Il y avait un seul mec capable d’assurer le redémarrage du systeme ( équivalent à un system 7 d’Ibm par exemple ).
    On a accueilli le mec comme un dieux.
    Pas le droit de fumer en salle, tkt frérot fume.
    Petit bureau et chaise confortable, on était au petits soins.
    Le mec palpait entre 6 et 10 000 pour un ingé.et c’était y a 15 ans.

    • @roiwirven
      @roiwirven 9 днів тому +2

      alors pour ceux qui liraient le commentaire, sachez que ce dernier n'est pas représentatif de la majorité des développeurs cobols.
      personnellement, j'ai fait une reconversion vers le cobol (je voulais me reconvertir vers l'informatique et on m'avait vendu le fait que les anciens développeurs partent à la retraite sans être remplacé et ça va devenir une niche), c'est complètement faux, la majorité des personnes avec qui j'étais étais aussi issus de reconversions et comme le mainframe est principalement utilisé dans les assurances/ banques, on était très limités dans les fonctionnalités à utiliser par le langage, qui par ailleurs est pauvre de base (on avait accès au boucles, aux assignations de variables, opérations d'entrée/sortie et arithmétiques de base et c'est tout, mais en même temps, c'est pas comme si on allait nous en demander beaucoup plus pour une banque), la majorité du temps été consacré à tester notre programme et faire des rapports pour montrer que l'on avait fait nos tests proprement.
      inutile de dire que le boulot était chiant et pénible (parce que en plus les outils pour manipuler le cobol sont de niche et a peu près aussi vieux que le langage + l'environnement de la banque qui empêche d'utiliser des outils extérieurs non audités) et ce, pour un salaire qui, si il n'est pas le smic, est dans la moyenne basse de ce que l'on peut espérer pour un développeur(nb: je ne connais pas le salaire de mes collègue non issus de reconversion, mais je pense qu'il doit être dans la moyenne des développeurs, en tous cas, il n'y avait pas de Lamborghini dans le parking de l'entreprise, alors que pour le coup, on avait des développeurs seniors qui avaient des anecdotes sur les tout début du mainframe et approchaient la retraite).
      conclusion, j'ai fait une "reconversion dans la reconversion" pour faire du c#, et, même si le c# n'est pas un langage parfait, il n'en reste pas moins 1000x meilleur que le cobol.

    • @jean-louisqueguiner2857
      @jean-louisqueguiner2857 9 днів тому

      on connait tous béber qui palpe 10K pour du Cobol a la socgen !

    • @darksith6666
      @darksith6666 9 днів тому

      @@roiwirven sauf que j’ai pas dit que le mec faisait du cobol. Je ne sais pas justement. Mais c’était ultra spécifique. Et il était proche retraite. Les mecs qui sont entrés dans l’informatique à l’âge d’or des énormes salaires.

    • @darksith6666
      @darksith6666 9 днів тому

      @@jean-louisqueguiner2857 relis mon comm je parle de cobol.

    • @roiwirven
      @roiwirven 8 днів тому

      ​@@darksith6666 ah ok, je me suis peut être fait influencer par la fin de vidéo en elle même ainsi que les souvenirs de présentations mensongères que l'on m'avais fait du cobol (oui, vous verrez, ca va devenir une niche, il y a une grande demande, pour au final qu'on me propose une mission à peine au dessus du smic prime comprise [mission qui n'est pas celle que j'ai accepté au final]).
      enfin voila, tout ça pour dire que quelqu'un en fin de carrière qui ait des connaissances spécifiques et qui touche un salaire entre 6 et 10k ça ne me choque pas plus que ça, mais ne vous laissez pas avoir par les annonces pour le développement cobol, les salaires sont très loin de ce que les vendeurs de ces formations essayent de vous faire miroiter, et d'un point de vue technique, balayer le couloir ou travailler dans l'administration publique vous stimulera plus intellectuellement que de développer en cobol.
      nb: pour ce qui est du salaire exacte pour ceux qui viennent d'école d'informatiques, je ne l'avais pas demandé à mes collègues, mais au vue de leurs préoccupations et sujets de discussions (y compris pour ceux qui avaient beaucoup d'ancienneté dans le cobol et étaient soit grand-parents ou sur le point de partir à la retraite), et en reprenant le modèle trimodal présenté notamment dans la vidéo de thomas l'ingénieur " Combien gagne vraiment un Ingénieur Développeur ? (Salaire Ingénieur en Tech)" , je dirais que l'on était dans la catégorie "hyperlocale" en terme de répartition des salaires.

  • @elmambojambo
    @elmambojambo 9 днів тому +13

    FDB c'est un énorme geek.
    Et les fans de FDB aussi.
    Sont des énormes geeks.
    Merci de l'avoir cité :)
    Mais putain merde, on est dans une niche/bulle

  • @autherplayer
    @autherplayer 5 днів тому

    La référence à Farine de Blé qui fait plaisir à son homme 🙏👍
    Je suis toujours impressionné et intéressé par les sujets abordés sur cette chaine....pas sûr que j'ai toutes les capacités intellectuelles requises pour tout saisir 🤔 mais je m'accroche....Merci Jean-louis Michaël et Matthieu

  • @Jeremy91hify
    @Jeremy91hify 8 днів тому +2

    Merci a vous et à ce guest juste incroyable !!!!! 😍😍😍

  • @javinian
    @javinian 6 днів тому

    Je vois une nouvelle vidéo avec Jean Louis Q qui a un abonnement chee Underscore et je clique pouce bleu direct, ce mec est juste enormissime et très sympa et accessible dans la vraie vie. ❤

  • @ZapattaZ
    @ZapattaZ 3 дні тому

    Super invité, un régal, invitez le encore. Pour ce qui est des IA je me sens un peu comme les hypersensibles aux ondes, je ne supporte pas l'idée qu'on m'impose une IA pour faire une voix ou un texte hormis dans des contextes qui l'imposeraient comme la traduction à la volée et certaines recherches de niches. On devrait rendre obligatoire la mention traduit par IA ou généré par IA comme pour les saucissons label rouge ou le terroir des vins. Ca me semble urgent et vital.

  • @haseebbaburi5360
    @haseebbaburi5360 7 днів тому

    J'aime bien son explication, qui est très claire et facile à comprendre, même si le concept reste assez complexe.

  • @K0lorado
    @K0lorado 8 днів тому

    La qualité des émissions est vraiment ouf. Merci l'équipe :)

  • @LeBalrogueMTL
    @LeBalrogueMTL 9 днів тому +3

    Qui aurait cru voir El Numero Uno sur cette belle chaine, quelle vie ♥

  • @froidevauxetienne7797
    @froidevauxetienne7797 9 днів тому +1

    Génial cet invité, très pédagogue!

  • @Happyerf64
    @Happyerf64 9 днів тому

    N’hésitez pas à faire des liens plus complet entre vos émissions. Ici je pense spécifiquement a celle sur les puces "spécialisées", optimisées pour contenir tel ou tel modèle d'IA.
    Je dis ça car je pense que nous serions nombreux.ses à apprécier des vidéos de synthèse, ou bien de mise jour de votre contenu.
    Des trucs genre "Ok, la dernière fois on a parler de ça avec untel, puis de ça avec untel, désormais, dans l'équipe, nous aimerions revenir sur les liens entre ces deux sujets"
    On perçoit chez vous une passion qui mériterais d'être partagée plus simplement, sans forcément avoir un.e invité.
    Bref c'était une idée au passage, félicitation pour cette vidéo c'est toujours chouette de vous voir !!

  • @lioturbo
    @lioturbo 9 днів тому +2

    J'adore cet invité, il est trop fort ! 😄

  • @MontassarChebbah
    @MontassarChebbah 8 днів тому

    J'adore ton contenu, en tant que quelqu'un pas du tout technique, ca aide vraiment a democratiser et expliquer facilement ces trucs difficules haah, je te follow sure micode depuis plus que 10 ans

  • @einsteinnewton4066
    @einsteinnewton4066 9 днів тому +2

    Quelle maitrise
    Jean-Louis Quéguiner 💯

  • @xenedon
    @xenedon 8 днів тому

    Sujet d'actualité, riche et profond, invité intéressant, pertinent et même drôle, résultat : une très bonne vidéo ! Et tout ça sans parler des vidéos à venir dont les sujets ont pu transparaître plus ou moins distinctement au travers des appels à témoignages finaux… Décidément, cette chaîne n'en finit plus de bonifier avec le temps !

  • @denismeloni1053
    @denismeloni1053 9 днів тому

    super bonne idée de chercher des gens pour certains sujets en fin de vidéo ! on a trop envie que des gens répondent du coup !!

  • @Willo-prod
    @Willo-prod 9 днів тому +20

    FDB sur Underscore ^^

  • @tajinbowie670
    @tajinbowie670 8 днів тому

    Ce mec m'a retourné le cerveau avec les applications.

  • @travailleurapleintempsmerci
    @travailleurapleintempsmerci 7 днів тому

    Toujours aussi riches en enseignements vos videos. Bravo :)

  • @croy8057
    @croy8057 9 днів тому

    J’y comprends pas grand chose et j’aurai tout oublié demain mais c’est super intéressant! 😊

  • @zfarahx
    @zfarahx 7 днів тому +1

    Gladia x Underscore? Je suis ravis :)

  • @jhauret
    @jhauret 7 днів тому

    Très cool la vidéo 😎
    Petite précision, à 9:49 l'invité semble décrire un mel-spectrogram mais de nos jours les "encodeurs/tokenizers audio" des modèles speech2speech sont plutôt calculés à partir de la forme d'onde, sans passer par Fourier.
    Ces tokenizers que l'on appelle "neural audio codec", sont entraînés à approximer la fonction identité. C'est en quantizant leur espace latent que l'on retrouve ces fameux tokens acoustiques que l'on donne au LLM (Et qu'on compresse l'information)

    • @jean-louisqueguiner2857
      @jean-louisqueguiner2857 7 днів тому

      T’es je décrivait principalement le melspectrogram de whisper

    • @jhauret
      @jhauret 7 днів тому

      @jean-louisqueguiner2857 My bad ;)

  • @xavierf.4853
    @xavierf.4853 9 днів тому

    Toujours aussi bon, agréable et compréhensible. Bravo du beau travail.

  • @adonispesic4260
    @adonispesic4260 4 дні тому

    comme d'hab super video, juste comme ca, ce serait interessant une video sur pourquoi il n'y a pas de linux pour smartphone ou pourquoi ca se democratise pas autant que sur pc

  • @asveltomtom
    @asveltomtom 9 днів тому +2

    Super invité ! passionné et passionnant !

  • @Azrael_404
    @Azrael_404 8 днів тому

    Voir tonton Farine et la Vovo dans un épisode de micode c’est le crossover le plus inattendu possible , j’adore 😂

  • @volkovolko
    @volkovolko 9 днів тому +2

    Mais pourquoi ne pas filer l'audio à un speech to speech pour qu'il commence à parler pendant tu file aussi l'audio à un speech to texte/LLM/text to speech qui prends le relais (le système de "attend j'appelle un expert" ou "humm" ou "laissez moi réfléchir") ?
    Ca coûterais plus cher mais le résultat mergerais le meilleur des deux mondes

  • @ThomasSselate
    @ThomasSselate 9 днів тому

    Génial d’être sponsorisé par Intel, félicitations 👍

  • @TheBarjho
    @TheBarjho 9 днів тому

    On l'aime cet invité. Merci à tous

  • @FLeO101
    @FLeO101 9 днів тому

    Hyper intéressant avec un interlocuteur très captivant

  • @ElianCHAN-hm1lu
    @ElianCHAN-hm1lu 9 днів тому

    Merci pour cette vidéo .. formidable ! Et bravo a l'invité qui nous explique tres bien la difficulté du TR (temps de réponse / temps réel), juste un petit point ne négligez pas la puissance de calcul qui va encore accélérer : clé de l'arrivée de ces techno' .. ET sinon,, à certains égard vous avez eu qq propos un peu "définitifs" ... genre a quoi ca sert, ou la difficulté d'interagir av. des systèmes et de devoir passer par du texte .. pour obtenir une adresse ou un code etc. - ne pensez pas que la question est close : le cerveau arrive bien a combiner les différents médias ... demandez à votre femme de tenir une conversation tout en faisant autre chose ... vous verrez !!
    Autre point trop vite passé .. c'est l'émotionnel, quand j'ai entendu les premiers extrait, ayant un passé sur les SVI et les TTS (rappelez vous simplement la voix de feu Sir St. hawking), je peux vous dire qu'une étape a été franchie, cette question est loin d'être simple on est vraiment dans un très haut niveau d'accomplissement de la technologie et loin d'avoir épuiser les applications qui vont émerger et les call center vont se jeter dessus !
    /ABe
    PS, enfin .. Pour la conversation en traduction de langue, en TEMPS REEL!, encore une dinguerie .. que mon vieux Caliope vient de ternir subitement !!

  • @RobertJaqui
    @RobertJaqui 6 днів тому

    Un moyen de réduire le temps de latence entre l'émetteur et le récepteur est d'utiliser des éléments de langage pour meubler la conversation, comme le font les humains. On dit souvent des mots voir des phrases pour maintenir le contact alors quon a pas encore la réponse. Par exemple "oui effectivement" ou "je vois".

  • @Pimous
    @Pimous 9 днів тому

    Gemini live, le fait très bien ! Et c'est hyper efficace pour avoir une réponse instantanée au lieu se perdre sur le net !

  • @kidoriam-1856
    @kidoriam-1856 6 днів тому

    Merci pour ce guest incroyable !

  • @sombrelexploration305
    @sombrelexploration305 9 днів тому +1

    Tellement bien expliqué ! Merci beaucoup

  • @anthonyplaya
    @anthonyplaya 9 днів тому

    On en revient à la base ! User First ! 💪🏽 ça fait réfléchir !

  • @iSys31
    @iSys31 9 днів тому

    J'adore l'assistant vocal ! Par contre la version "avancé" je trouve que ça ne sert pas à grand chose, la plus value est sur le fait de ne pas avoir besoin d'écrire un prompt (quand on a les main occupées par ex), mais au delà de ça comme le caractère de l'IA et ses intonations, ça peut intéresser et impressionner ceux qui ne sont pas très familiers avec ce genre d'outil, mais ce n'est pas pour moi.
    Merci du partage !

    • @Panam511
      @Panam511 9 днів тому

      tu l'as essayé le mode avancé ? si oui combien de temps ?

    • @iSys31
      @iSys31 8 днів тому

      ​​@@Panam5112-3 heures seulement, mais pour mon utilisation personnelle je n'y vois pas grand intérêt puisque le mode standard répond aux mêmes besoins. À voir comment ça évolue

  • @samuelgarcia1802
    @samuelgarcia1802 9 днів тому +5

    Coucou je pense que pour la voix il à raison mais que pour O1 il exagère . O1 à un niveau PhD dans plusieurs domaines telle que les math ,la physique,chimie et biologie . Il est assez fort en programmation (peut être moins que Claude sonnet 3,5) mais c'est assez incroyable. Oui même si c'est un truc si "simple" que faire une chaîne de pensés il faut savoir qu'on a le modèle preview et mini qui ne sont pas le vrai O1 qui sortira sûrement ce Noël qui est bien plus fort . De plus évidement si c'était si simple tout les IA generatives utiliseraient des chaînes pensés. Alors je pense que tu devrais voir quelqu'un qui se connait sur O1 j'ai connu doctorats choqués par les capacités de O1 preview que se soit en math , physique/chimie et biologie .

    • @G0UDIE
      @G0UDIE 9 днів тому

      As-tu utilisé o1 ? Pour lui avoir fourni un problème concret (et pourtant pas si complexe) qui impliquait un peu de code et quelques calculs, il a été capable de s'emmêler les pinceaux avec des additions simples. Même si il y a du mieux, on ne peut toujours pas faire confiance à ChatGPT dès qu'il y a des maths, avec ou sans o1, ce qui le disqualifie pour tout usage professionnel.

    • @antistupiditer
      @antistupiditer 9 днів тому +1

      @@G0UDIE mais cest que le preview parle pas de 01 basic quand tu ne maitrise pas ton sujet la version preview et celle de decembre n'aura rien a voir .

    • @G0UDIE
      @G0UDIE 8 днів тому

      @@antistupiditer Dit-il en parlant d'une version pas encore sortie 👌 t'es un génie toi

    • @antistupiditer
      @antistupiditer 8 днів тому +1

      @G0UDIE sauf que on a un accès entreprise ohhh wow il s'agirait de réfléchir quand on ne maîtrise pas son sujet , je t'explique en bref clé api entreprise api en sortie 45j avant on appel ça log histo d'entreprise césar

    • @G0UDIE
      @G0UDIE 8 днів тому

      @@antistupiditer Tu creuses... (et tu portes mal ton pseudo surtout 👌)

  • @bechfrance8555
    @bechfrance8555 9 днів тому

    Très intéressant ce que dit Jean-Louis Quéguiner.

  • @bricewernet6493
    @bricewernet6493 9 днів тому +1

    J'adore la'partie sur la perception de satisfaction client. C'est totalement vrai. Et je l'ai déjà fait 'en vrai' (genre passez moi le responsable et passer un collègue à côté, ou mettre en attente des gens pour leur faire croire que ce que je fais est complexe et que je me'renseigne sur l'historique). La question, c'est quelle est sa voix d'opérzteur totalement dépassé, et celle pour imiter le respnsable du service?

  • @tibadama683
    @tibadama683 День тому

    On est passé très très vite sur "Her" et le fait qu'au fur et a mesure du temps l'IA se perd, se met à halluciner... c'est LE truc que beaucoup attendent. Non pas la love story plastique mais l'assistant intelligent qui évolue auprès de son utilisateur

  • @virus.phishing
    @virus.phishing 4 дні тому

    Très bonne démonstration !

  • @BenjaminUgoletti
    @BenjaminUgoletti 8 днів тому

    La réf à monsieur de blé qui fait plaisir à son homme ❤

  • @pziejdsn384
    @pziejdsn384 9 днів тому

    Super interessant, tres bonne vulgarisation notamment grace aux illustrations

  • @wav_909
    @wav_909 9 днів тому +1

    L invité vulgarise si bien, banger l'interview

  • @Dadadu16
    @Dadadu16 9 днів тому

    Voir une référence à farine de blé dans micode ça fait vraiment plaisir à son homme.

  • @amauryakoun902
    @amauryakoun902 8 днів тому

    Très fort cette invité! Super vulgarisateur!!!

  • @HawkFest
    @HawkFest 8 днів тому

    Bien intéressant, merci ! Un truc qui m'a fait marrer autour de 10:40, je me sui dit que Micode générait tellement de "end of sentence" au milieu de ses phrases saccadées, même quand il n'y en a pas réellement, qu'il a dû rendre l'IA complètement schizo (mais ça s'était replacé je crois, l'IA devrait retourner lui rendre visite). 23:00 Ah oui c'est la stratégie commerciale du dumping : il fut un temps c'était interdit par la loi (tout comme avec les lois anti-trust).

  • @Clems811
    @Clems811 7 днів тому

    Super interview, je travail justement beaucoup avec Gladia dans mon taf.
    Petit bémol cependant, il parle de 500ms dans la solution d'openAI mais dans les faits on est plutôt autour d'une seconde car il oublie la partie VAD (voice activity detection) c'est à dire le moment où le système détermine que la personne a terminé de parler pour lancer toutes les opérations de traitement permettant d'obtenir la réponse. Dans les fais, le VAD par défaut d'openAi sur ça fonctionnalité dite "realitime" (voice to voice) est d'environ 500ms, ce qui fait qu'après avoir terminé de parler, l'assistant répond en moyenne avec 1 seconde de latence et non 500ms (500ms c'est le temps que prend openai pour générer sa réponse directement en voix), ce qui est déjà fou mais c'est pas quelque chose d'impossible à atteindre sans utiliser la solution d'openai.
    Ensuite, il oublie que le système en question d'openai permet le lancement de fonctions en interne et donc il est tout à fait possible d'exécuter des actions en utilisant ce système même s'il est vrai qu'on perd le contrôle sur le texte prononcé par l'interlocuteur (speech to text) et personnellement ce point là me pose problème pour un développement plus fin d'un assistant.
    Sinon, j'ai bu du ptit lait tout au long de l'interview !

    • @zHqqrdz
      @zHqqrdz 6 днів тому

      Enfin il oublie surtout qu’on peut déjà entraîner des IA (RAG) avec des données à nous. Pour l’instant ce n’est pas encore aussi dynamique qu’une BDD mais de la à dire « non ça tu peux pas le faire » oui ça t’arrange surtout que tout le monde pense ça 😅

    • @MrWuzey
      @MrWuzey 5 днів тому

      Si on commence à compter à partir de la détection de voix et qu'on compte donc tout le temps de l'input de l'utilisateur ça n'a plus de sens de donner une valeur fixe puisque si moi je parle pendant 30 sec je dirais alors que ce n'est pas une seconde mais plus de 30secs et ce sera différent pour chaque prompt avec une grosse variable.
      Je pense qu'il faut modérer le pinaillage quand la finalité devient absurde.
      En général on compte le temps de réaction donc le temps d'attente après que t'aies fini de parler ou d'écrire.

    • @Clems811
      @Clems811 5 днів тому

      @@MrWuzey Vous n'avez pas bien compris, le voice activity detection est là justement pour détecter la fin de phrase (tâche plus difficile qu'il n'y paraît).
      Le problème, c'est de savoir quand déclencher la création de la réponse, c'est-à-dire qu'un système (qu'on appelle donc VAD) va déclencher l'action de générer la réponse lorsqu'il aura déterminé que la personne a terminé sa phrase. Le VAD peut être paramétré de différentes manières, mais en général il se déclenche après 500 ms de blanc (paramétrage par défaut chez OpenAI), et c'est donc à ce moment-là que la solution d'OpenAI entre en jeu et génère la réponse en 500 ms, ce qui fait une seconde en tout pour commencer à recevoir le premier octet d'audio de la réponse (et non 500 ms).
      Et ce n'est guère du pinaillage ; comme il le dit très bien dans la vidéo, je peux vous dire qu'au-delà de 500 ms de blanc, l'attente de la réponse devient perceptible, et chaque 100 ms qu'on peut gagner à ce moment-là est important. C'est d'ailleurs pour gagner quelques millisecondes qu'OpenAI a sorti ce modèle voice to voice. Avant cela, on pouvait être au mieux à 1,5 / 2,5 secondes de latence, donc cela reste une belle avancée, mais avec un contrôle moins fin.

    • @MrWuzey
      @MrWuzey 4 дні тому

      @@Clems811 Je sais ce que fait VAD, je l'utilise avec des chatbots.
      Silero VAD combiné à whisper et effectivement on peut régler la durée de silence avant validation.
      Mais c'est de la detection de voix(absence ou présence de voix) donc il ne fait pas que détecter la fin mais le début aussi. L'intérêt dans le cadre d'un chatbot c'est de ne pas avoir à faire du push to talk mais si on choisit de faire du push to talk avec l'api par exemple, vad ne ferait pas partie du process.
      Dans tous les cas si vous ne parliez que de la fin, ce qui a l'air d'être le cas, ma réponse était à côté de la plaque et je suis d'accord avec vous.

  • @EffetCameleon
    @EffetCameleon 9 днів тому +1

    Il est très bon vulgarisateur ce monsieur. Merci à lui !

  • @N0terced
    @N0terced 9 днів тому

    la ref à Farine de blé ICI, c'est tellement improbable 🤣🤣

  • @pull9889
    @pull9889 8 днів тому

    Je pense que j'ai compris, dites-moi si je me goure, mais en gros, passer par la décomposition de Fourrier permet de de calculer une sorte de fingerprint de chaque token audio, et donc, que le token audio A de Personne 1 soit reconnu comme (environ) égal au token B de Personne 2. Car reconnaître une sorte de syllabe, faite de quelques mêmes lettres, dans du texte, c'est facile pr un algo d'apprentissage, mais je comprenais pas comment c'était possible pour du son... D'ailleurs 20ms, c'est bien plus court qu'une syllabe, incroyable (pour un humain) que, j'imagine, ça soit une des durées pour lesquelles le modèle soit des plus performant !

  • @TheSliderW
    @TheSliderW 4 дні тому

    Super invité. Très interesting a ecouter.

  • @ZooLou
    @ZooLou 8 днів тому

    Whaou le niveau le mec ! Impressionnant

  • @DCLG1
    @DCLG1 7 днів тому

    Super intéressant !! merci !!

  • @LeiluMultipass
    @LeiluMultipass 8 днів тому

    6:50 On a des connoisseurs. Les Mots de l'Imaginaire ♥

  • @ludozomb
    @ludozomb 8 днів тому +1

    J'ai adoré la vidéo c'était passionnant mais je n'ai pas bien compris ce qu'était le problème fondamental de GPT4-o ?

    • @xenedon
      @xenedon 8 днів тому +1

      C'est parce que c'est évoqué en première partie de la vidéo, mais la suite et la fin dépassent le sujet du titre et d'une manière captivante, donc une fois terminée c'est vrai qu'on a un peu oublié le début. En gros, le problème fondamental c'est le fait qu'aussi impressionnantes que soient les avancées techniques - et elles le sont indubitablement - concrètement elles ne sont pas applicables à un environnement professionnel. Autrement dit : la vitesse de réponse exceptionnelle (et dans une moindre mesure les accents comme les émotions simulées) est une prouesse technique impressionnante pour les passionnés, un jouet absolument dingue pour les particuliers, mais un gadget inutilisable pour la grande majorité des professionnels.
      Ce constat mitigé est suivi d'une explication pertinente de l'invité sur la manière d'améliorer concrètement la perception de la technologie précédente, afin de ne plus avoir vraiment besoin de la nouvelle pour son côté rapide (car de toute façon le côté cosmétique n'a aucun intérêt pour du support ou de l'accueil, usages professionnels probablement majoritaires).
      Et pour terminer, peu importe la technologie, il reste, côté pro, la quasi-impossibilité de définir des limites fermes à ce qu'elle peut répondre ou non, et côté perso, la perte de pertinence sur le long terme à cause de sa limite de "mémoire" individualisée.

    • @ludozomb
      @ludozomb 7 днів тому

      @@xenedon Ah je comprends mieux merci ! :)

  • @jeremiedecoop757
    @jeremiedecoop757 7 днів тому

    Pardon, ce que vous dites est partiellement vrai (à 2:50) Claude Sonnet 3.5 est meilleur que O1 preview sur certaines tâches, mais il se trouve que pour les matières scientifiques : maths, physique, codage, il est capable de générer des solutions justes et enrichies par rapport au code déjà existant qui modélise certains papiers de recherche, sur un large éventail de sujets (de l'astrophysique, aux problèmes de maths de niveau agrégation externe en passant par quelques problèmes de niveau olympiade avec de nombreuses requêtes). Pour le codage, o1-preview peut générer 50000 tokens de sortie pour du code entièrement valide et testé, ce qui est certes faible pour une application, mais le code fonctionne, est interprétable, ce dont n'est pas capable Sonnet. Claude, en essayant de générer une réponse, s'arrêtera précipitamment (Même en demandant plusieurs parties) à chaque fois. Pour vous rejoindre sur un point, je pense que Claude Sonnet aura un avenir certain, dans le cas ou ils obtiennent une capacité provenant des GPU, mesurable à celle d'OpenAI actuellement. Je pense aussi que Claude aurait à gagner à permettre des customs instructions (à l'image des GPTs) afin de pouvoir "driver" le modèle, ce qui marche très mal actuellement dans une fenêtre de discussion classique. En revanche, j'utilise davantage Sonnet pour la ré-écriture, Il est plus pertinent que openAI dans de nombreux cas.

  • @proia-b2n
    @proia-b2n 9 днів тому +1

    Je ne suis totalement pas d'accord avec le fait que le mode vocal avancer n'a aucune utilité concrète pour moi ça a une énorme utilité et les applications vont être tellement nombreuses à mon avis

  • @mendez6363
    @mendez6363 9 днів тому +2

    Je comprend juste pas pourquoi les modèles sont pas couplés avec des unités de mémoires (qui pourraient être locales elle) qui s'occuperais de synthétiser et simplifier les informations à garder dans une base de donnée et dans laquelle le modèle va piocher pour se "rappeler" ses informations sans avoir à garder la totalité de la conversation dans le texte de contexte, ce qui fais fatalement gonfler le nombre de token utilisés et comme l'invité l'explique amène le modèle à s'embrouiller. Notre propre cerveau fonctionne avec une mémoire à court terme et une à long termes, et là le modèle c'est comme si il n'avait pas de mémoire long terme pour l'expliquer simplement. J'ai l'impression que c'est plus une question de "c'est pas important on a pas le temps on bosse sur des features plus importants" que juste "ouah c'est trop difficile mec t'imagine même pas"

    • @G0UDIE
      @G0UDIE 9 днів тому

      Je n'ai peut-être pas compris, mais ChatGPT a bien une mémoire à long terme (depuis peu) alimentée et mise à jour en fonction de nos réponses.

  • @GpGppp-p1o
    @GpGppp-p1o 9 днів тому

    Merci pour toutes ces explications premium.

  • @Hyberna78
    @Hyberna78 8 днів тому

    Incroyable FDB performance qu'est cité en conquérant de la prépa 1000 CV ou RIEN sur une vidéo Tech.

  • @JulienDucerf
    @JulienDucerf 9 днів тому

    Ce qu'il dit sur la perception est fondamentale. On pousse des solutions à partir d'IA car ON PEUT le faire. Mais on oublie toujours le besoin et l'usage de l'utilisateur.

  • @anthonyplaya
    @anthonyplaya 9 днів тому

    Ton invité est un génie ! Mais il est aussi flippant 🤣🤣🤣

  • @TheBigbobo22
    @TheBigbobo22 9 днів тому

    Très bonne émission merci

  • @karimzarat7715
    @karimzarat7715 8 днів тому

    très instructive cette vidéo, merci.
    il y a une pénurie de codeurs en COBOL ? et dire que j'ai quitté le poste il y a 15 ans. je devrais peut être y revenir LoL

    • @jesuisledocteur
      @jesuisledocteur 8 днів тому

      😂😂😂 Bon courage ! Ils sont à la retraite les programmeurs cobol. J'ai travaillé dans ce langage dans ma jeunesse. Beaucoup de programmes bancaires sont en cobol... Il faut utiliser IA pour la maintenance du code 😊

  • @carafichon
    @carafichon День тому

    Du point de vue de l'éloquence, cet invite est le Jancovici de la tech !

  • @MickeCORNIER
    @MickeCORNIER 9 днів тому

    alors, précision sur ce qui est dit à 16min:
    Apparement, openAi a un système de retranscription texte des tokens audio. Il est d'ailleurs possible de reprendre le contenu de la conversation en texte.
    Donc même si on est dans le même modèle, il reste possible d'exploiter le contexte pour effectuer des appels de fonctions en textuel malgré le mode audio.
    Pour le moment, OpenAI verrouille les modalités image> audio et texte > audio.
    Et il y a des cas d'usages important, un modèle capable d'audio, image, texte permet une meilleur généralisation.

  • @Yoyoyoyoyo483
    @Yoyoyoyoyo483 9 днів тому +1

    Le gars semble calé dans ce qu'il dit mais le fait de mettre plusieurs opérateurs en mode "je vais te passer machin qui est plus spécialiste" alors que c'est le même modèle je trouve ça stupide. C'est la perception des gens qui doit changer. Dans tous les cas il y aura des problèmes avec ce genre de systèmes si c'est appliqué de cette manière donc il faudra faire de la pédagogie en expliquant comment ça fonctionne. C'est ce qui manque d'ailleurs dans les chatbots actuels. On ne sait pas à quel point le bot en face est débile et quand on s'en rend compte on essaie de troller pour simplement arriver au moyen le plus rapide d'ouvrir ce fichu ticket ^^'

  • @BreizhSharkFR
    @BreizhSharkFR 6 днів тому

    un vrai taf ce serait d'embaucher quelqu'un qui traduit oralement les mots anglais pour ceux qui ne font qu'écouter la vidéo et ne peuvent donc pas lire _(ex: __10:44__ "fin de phrase, fin de sequence")_
    Parce que maintenant il y a possibilité sur YT de faire une vidéo en plusieurs langues.

    • @MrWuzey
      @MrWuzey 5 днів тому

      embaucher quelqu'un pour traduire 4 mots dans une vidéo ? On se refuse rien.

    • @BreizhSharkFR
      @BreizhSharkFR 5 днів тому

      @MrWuzey tes nouveau sur la chaîne ou...?
      Ici dans la quasi totalité des vidéos l'on peut entendre des thermes anglais. parfois dans une phrase de 10 mots va y en avoir 7 ce sera anglais.
      Le problème:
      la France qui met pas asser vite à jour ses dictionnaires.

  • @michaelrouart5872
    @michaelrouart5872 9 днів тому +2

    Intéressant sur la technique mais je suis assez étonné de l'analyse sauf si j'ai loupé un truc. Oui s'il faut faire des actions comme chercher la météo ou lancer un service ça va prendre du temps, mais c'est aussi le cas d'un humain (en bien pire). Je ne vois pas ce qui empêche une IA de mettre des phrases d'attente quand c'est un peu long comme : "une seconde je me renseigne", "je rentre les infos",...
    Et ça restera bien plus rapide au final qu'un humain.
    Bref je trouve ça beaucoup plus prometteur que ce qu'il dit.

    • @G0UDIE
      @G0UDIE 9 днів тому

      Je me suis fait la même réflexion. Et surtout, à la vitesse où vont les choses en matière d'IA, ce faux problème sera sans doute vite oublié.

    • @bricewernet6493
      @bricewernet6493 9 днів тому

      En entreprise, on ne réfléchit pas à l'usage en direct de l'IA, mais à du traitement la qui peut très bien rendre le résultat le lendemain (à l'extrême). Le tts peu très bien être en dêcalé

    • @michaelrouart5872
      @michaelrouart5872 9 днів тому

      Tout dépend de l'objectif ?

  • @SamuelBurg-h1e
    @SamuelBurg-h1e 8 днів тому +1

    Ce type (Jean Louis Quéguiner) est incroyable. Il fait des remarques d'une pertinence étonnante par rapport à tout le merdier et le hype que l'on entend malheureusement sur l'IA, et en plus il arrive à faire ressentir que ce n'est pas que de la frime mais qu'il y a vraiment des travaux poussés qui ont été réalisés sur les sujets qu'il présente. Bon, si la vidéo est une génération par IA pour tester l'auditoire, alors je reconnais que ça serrait la première fois qu'une IA m'impressionne vraiment ;-).

  • @許樂山-q5d
    @許樂山-q5d 7 днів тому

    Super invité !

  • @texzmusic9981
    @texzmusic9981 9 днів тому +1

    Pour ta discussion vocale avec un assistant tu peux aussi avoir un fonctionnement en deux étape :
    - une première étape descriptive où l'IA récupère juste des infos avec le système encodeur > espace latent > décodeur mais d'avoir un output décodeur + TTS et la partie TTS sert en parallèle pour la récupération dans la BDD (avec possibilité que si l'interpréteur de TTS a pas compris la commande parce que le LLM s'est planté, on actualise le preprompt entre chaque interaction pour que le LLM repose la question en demandant des précisions)
    - puis une seconde étape du coup prescriptive où tu obtiens des réponses personnalisées à tes questions après une grosse actualisation du preprompt,
    on pourrait même avoir 2 IA qui tournent en parallèle une pour l'interprétation et une communication robuste à la BDD une autre pour la voix, on pourrait même mettre ça en scène comme 2 collègues qui travaillent ensemble,
    on pourrait même créer des modèles justement hybrides qui sont conçu pour sortir en output 2 variantes parallèles d'un prompt initial, une variante qui renvoie la voix à décoder et une autre qui revoie un texte (qui ne sera pas dit vocalement) qui contient des balises pour l'interprétation
    Eeeeet perso je suis moyen convaincu par l'idée genre "est-ce que tu as envie que des clients de chez tel entreprise demande à ton IA de chanter en disant qu'ils détestent ton produit" bahhhhh oui, enfin du point de vue d'une équipe marketing si t'es le premier à sortir cette techno et que des gens font ça c'est un non problème pour ton image de marque vu que les gens connaissent déjà le principe d'abuser des LLM et quand bien même ça bad buzz ça n'affecte en rien la qualité perçue des produits (voir l'inverse côté, point de la technologie etc.), le seul bad buzz possible c'est que les gens trouvent ça pas bien de remplacer des humains par des robots mais ça c'est une considération générale qui n'est pas en rapport avec la techno développée spécifiquement (et ça c'est sans parler du fait qu'il faut mettre dans la balance les cout/bénéfices des call center qui je le rappelle est déjà de base une industrie où il y a une disproportion totale entre et la dimension RH nécessaire et l'impact réel de faire appel à cette industrie)
    Mais sinon très bonne vidéo j'aurais pas structuré autant ma pensée sur le sujet si le boug n'avait pas une réflexion aussi complète de base

  • @volkovolko
    @volkovolko 9 днів тому

    L'espace latent est aussi utilisé par les LLMs non ?
    Du coup techniquement parlant, on pourrait faire un espace latent commun entre le texte et l'audio (comme ce qu'on fait avec le texte et les images) et donc pouvoir "injecter" les informations sous forme de texte dans l'espace latent pour que l'audio réponde quelque chose dont il a trouvé l'information dans une base de données