Lifestyle, IA & Software X.0, Souveraineté numérique & Sécurité - Anis Ayari - Podcast IA

Поділитися
Вставка
  • Опубліковано 30 чер 2024
  • #Podcast #IA
    Patreon : / membership
    "Anis Ayari travaille dans le domaine de l’Intelligence Artificielle depuis maintenant plus de 3ans, il est Lead Data Scientist dans un grand groupe. Sa spécialité tourne autour du Computer Vision et de l’algorithmique avancé.
    Pour partager sa passion pour l’IA et le code, il a lancé une chaine UA-cam pour parler d’IA en français ou on le retrouve sous le pseudo de “Defend Intelligence”. On retrouve sur sa chaine des vidéos de vulgarisation grand public mais aussi des vidéos et des tutos pour les plus experts !" actuia.com.
    00:00 Lifestyle, UA-cam, Twitch
    12:00 IA & Software X.0
    20:00 Développement de l'ia
    28:00 Souveraineté numérique
    41:30 Sécurité
    46:30 Mots de la fin
    Defend Intelligence
    / defendintelligence-tech
    Twitch: / thibaultneveu
    Discord de la communauté : / discord
    [Chronique d'une IA]
    Spotify : open.spotify.com/show/5yTTTKf...
    Amazon music : music.amazon.fr/podcasts/5097...
    Apple Podcasts: podcasts.apple.com/us/podcast...
    [About me]
    Visual Behavior : visualbehavior.ai
    Perso : www.thibaultneveu.ai/
    Github : github.com/thibo73800
    Linkedin : / thibaultneveu
    Twitter : / thiboneveu
  • Наука та технологія

КОМЕНТАРІ • 11

  • @MsBowner
    @MsBowner Рік тому

    J'adore le ton de cette discussion décontracté, ou tu fais suivre un fil sans qu'on ne s'en rende compte. Bravo à toi.

  • @bossgd100
    @bossgd100 2 роки тому +5

    Dommage le problème de son :/

  • @arthurlambert2419
    @arthurlambert2419 2 роки тому

    Sujet très intéressant.
    Merci pour ce podcast !

  • @nicolasazoulay-bouviere1283
    @nicolasazoulay-bouviere1283 2 роки тому

    Bjr comment fonctionne la librairie d Open cv avez vous une piste ? Merci

  • @gobajoseph5064
    @gobajoseph5064 2 роки тому

    Il a dit qu'il a fait l'analyse d'images satellites je suis intéressé

  • @hervemata4242
    @hervemata4242 2 роки тому

    pourriez vous, nous faire une video sur l'architecture BERT

    • @14Tyrion
      @14Tyrion 2 роки тому

      Tu l'as déjà sur sa chaîne 😉 bert se base sur une architecture transformers

    • @hervemata4242
      @hervemata4242 2 роки тому

      @@14Tyrion je n'arrive pas à comprendre BERT svp vous pouver me guider sur une video en francais?

    • @14Tyrion
      @14Tyrion 2 роки тому

      @@hervemata4242 ua-cam.com/video/LALTmQhVkfU/v-deo.html

  • @alexamand2312
    @alexamand2312 2 роки тому +1

    C'est faux, c'est pas pour le concour de teub que GTP à des trillion de paramètres, mais bien parce que le NLP est un problème qui est trop "complexe" (ou peut être on a la mauvaise archi) , et juste quand on rajoute des paramètres et des exemples, le modèle performe mieux.
    Monsieur défend intelligence y'a du monde pour faire du name droping et pour nuancer politiquement le propos... par contre pour l'exactitude technique on repassera. (mais je comprend on est pas la pour la passion)
    Même sur le propos politique, libéral capitaliste d'un coté , open source de l'autre. Souverainisme pour les entreprises et pas l'état, par contre facebook qui stocke des données, pas bien ? j'ai pas compris
    D'autre propos intéressants des deux cotés,
    Thibault au top, lisez donc des papiers faites des trucs ou il n'existe pas de librairie !
    A la fin vous parlez justement d'un papier, mais j'ai pas compris on parle d'un réseau de neurone qui apprend à faire du sql ? ou alors c'est un moteur de recommandation aussi, non ? On est bien dans la réponse à une requète avec des contenus.
    Est ce qu'on peut avoir le lien vers le papier ?

    • @ThibaultNeveu
      @ThibaultNeveu  2 роки тому +1

      "Our final paper builds on the foundations of Gopher and our taxonomy of ethical and social risk by proposing an improved language model architecture that reduces the energy cost of training and makes it easier to trace model outputs to sources within the training corpus.
      The Retrieval-Enhanced Transformer (RETRO) is pre-trained with an Internet-scale retrieval mechanism. Inspired by how the brain relies on dedicated memory mechanisms when learning, RETRO efficiently queries for passages of text to improve its predictions. By comparing generated texts to the passages RETRO relied upon for generation, we can interpret why the model makes certain predictions and where they came from. We also see how the model obtains comparable performance to a regular Transformer with an order of magnitude fewer parameters, and obtains state-of-the-art performance on several language modeling benchmarks." arxiv.org/pdf/1603.01417.pdf