Comment gérer une société de clones : VASA-1, DEEPFAKE, SYNTHID - Chronique d'une IA #5

Поділитися
Вставка
  • Опубліковано 27 кві 2024
  • #IA #DEEPFAKE
    Patreon : / membership
    Sans l'utilisation de ce type de solution, internet ne sera plus un lieu pratique. Au-delà du potentiel de l'IA pour notre société, certains effets de son déploiement doivent être pris en compte. Le clonage virtuel d'une personne est en train de devenir une réalité. Des solutions techniques et structurelles existent, mais elles doivent être mises en place pour réguler ces modèles, à la fois pour les porteurs de solutions et sur les modèles proposés en open-source.
    [SOURCES]
    NEON • NEON is Getting Closer...
    Mastering Deepfake Detection: A Cuting-Edge Approach to
    Distinguish GAN and Difusion-Model Images dl.acm.org/doi/pdf/10.1145/36...
    Identifying AI-generated images with SynthID deepmind.google/discover/blog...
    [Chronique d'une IA]
    Spotify : open.spotify.com/show/5yTTTKf...
    Amazon music : music.amazon.fr/podcasts/5097...
    Apple Podcasts: podcasts.apple.com/us/podcast...
    [About me]
    Visual Behavior : visualbehavior.ai
    Perso : www.thibaultneveu.ai/
    Github : github.com/thibo73800
    Linkedin : / thibaultneveu
    Twitter : / thiboneveu
  • Наука та технологія

КОМЕНТАРІ • 14

  • @camille.fauche867
    @camille.fauche867 2 місяці тому +3

    Tjs aussi intéressant. C'est vraiment super d'être tenu au courant de l'actualité sur l'ia.

  • @dofeeeeee
    @dofeeeeee 2 місяці тому +1

    Merci beaucoup pour la vidéo !!! Je ne savais vraiment pas les solutions proposés actuellement et je n'avais même pas réalisé que la plus part des grand géant qui fait de l'IA c'était tiré une balle dans le pied X,) Après honnêtement je pense qu'ils sont obligé de continué sur cette lancé, car c'est justement en ayant ces modèles à porté de mains qu'ils peuvent créer les permettant de détecter ce qui a était généré par IA (même si comme tu l'a dit, on arrivera à un moment où on ne pourra plus rien faire...)
    Personnellement je ne pense pas que les situations proposé puisse durée dans le temps, car rajouté une donnée sur la vidéo elle même est bien en sois, mais ça implique que toutes les plateformes tombe d'accord sur la méthode de vérification de contenue généré et comme tu l'a dit c'est imparfait dû aux modèles Open Source (que je préfère), et quand on voie que chaque entreprise souhaite avoir sa technologie de manière global, ça me paraît compliqué. Je pense qu'il faudrait plutôt créer des normes de "confiance" hors des plateformes pour après avoir à côté des logicielles et applications qui ce connecterais à ces dernières pour certifié un contenue et simplifié la vie à l'utilisateur qui en envoie pour avoir au final les plateformes qui prennes en charge plusieurs norme et possiblement finir avec un cas similaire à OAuth2. Après la plus grosse faiblesse serait du coup de ce faire volé le compte de Trust... Il faudrait vraiment évité que la norme stock toute la donnée sois sur une plateforme, car sinon en cas de problème de vole dans la base de donnée ou d'injection d'un code malveillant dans le cas d'un site web, on pourrais très facilement volé le compte et ce faire passé pour un autre. Je ne sais pas ce que tu en pense, mais j'avais eu cette idée quand j'ai entendu parlé du vol de contenue de Nota Bene et Feldup.
    Je pense vraiment que ces prochaines années seront pas terrible car le temps que les utilisateurs s'habitue à ce changement on risque d'avoir des scandales où les vidéos s'avèreront généré par IA, mais aussi une énorme restriction sur l'IA qui empêchera d'utilisé ses possibilités comme Steam qui autorise de mettre du contenue généré par IA après vérification, mais pas d'incorporé un modèle d'IA qui aurait pu être incroyable pour créer des discutions plus complètes avec des PNJ, faire une génération de monde plus complexe qu'avant et autre)

  • @jgcb0071
    @jgcb0071 2 місяці тому +1

    Merci beaucoup ! C'est toujours super intéressant !

  • @fabricenyl6504
    @fabricenyl6504 Місяць тому

    Tu m'as fait mieux comprendre un article !

  • @christopheprotat
    @christopheprotat 2 місяці тому +2

    Je trouve que le clone de Thibault est vraiment bien fait. On s’y croirait 😂. Bref, mon avis est qu’il est plus que probable que le contenu IA devienne dans un avenir proche d’une qualité supérieure à celui d’un humain. Et donc, Je parie que les viewers finiront par utiliser ce TAG « contenu IA » comme critère de préférence. Certains iront même dire « fais gaffe, c’est un contenu généré par un humain, ce n’est pas secure ». Quel monde de dingue quand même …

    • @ThibaultNeveu
      @ThibaultNeveu  2 місяці тому

      " Quel monde de dingue quand même …" tu l'as dit ! 😂

  • @iggystuffmore537
    @iggystuffmore537 Місяць тому

    Très bien, bonne analyse

  • @xavierfolch2814
    @xavierfolch2814 2 місяці тому

    Merci d'alerter sur les dangers et de mettre le doigt sur le manque d'anticipation des problèmes liés à l'IA générative.
    C'est un sujet pourtant que l'on retrouve souvent en sécurité informatique pour le développement logiciel : comment ton code peut être utilisé à mauvais escient. Peut être parce que le machine learning n'a pas encore le même recul que le développement logiciel, ou pour d'autres raisons (financières, confiances des investisseurs, ...).
    Un avis personnel sur le contenu, j'ai trouvé que le discours était un peu répétitif dans la section le filigrane, l'identification du contenu par les plateformes, l'impact juridique, ...
    Sinon très bonne vidéo merci :)

  • @vahdettint
    @vahdettint 2 місяці тому

  • @titi-tj4yi
    @titi-tj4yi Місяць тому

    Je crois surtout qu'il faut un cadre juridique clair sur le sujet. Sans cela, je ne crois pas que les geants du secteur vont proposer ce type d'information.

  • @Otomega1
    @Otomega1 2 місяці тому

    Comme d'habitude les autorités prennent le problème à l'envers.
    Qu'est ce qui empêcherait d'utiliser des signatures digitales pour identifier les contenus officiels de tels ou tels entités (individu / entreprise)?
    Pour moi c'est encore une énième mesure pour minimiser un problème sans tenter de comprendre sa racine, pour mettre sa tête dans le sable au lieu d'avouer notre incapacité à adresser les problèmes fondamentaux, à mon avis

  • @yeezythabest
    @yeezythabest 2 місяці тому +1

    Filigrane*
    Et pas "filigramme" mais bonne vidéo comme d'hab

  • @Also_sprach_Zarathustra.
    @Also_sprach_Zarathustra. 2 місяці тому

    Bonjour Thibault,
    En quoi ta proposition empêcherait un État ou un organisme suffisamment puissant de manipuler les images à des fins malveillantes ?
    En quoi ta proposition empêcherait les personnes les plus malveillantes et les plus déterminées d'utiliser un système de génération d'images conçu à l'étranger ? (Chine, Russie, Iran, etc... Tu ne vas pas nous faire croire que l'on mettra toute l'humanité d'accord sur quoi que ce soit, alors qu'on n'y arrive déjà pas avec la prolifération nucléaire).
    En réalité, ne pourrait-il pas que ta solution soit encore plus dangereuse que le problème, car en simulant l'existence d'une solution législative ou technique à ce que tu considères comme un problème, tu endormirais la vigilance des citoyens ?
    Honnêtement, ne pourrait-il pas que la seule solution à ce problème soit simplement un changement radical de civilisation : c'est-à-dire, abandonner le méta-narratif individualiste et basé sur la culpabilité, pour adopter un méta-narratif rationnel, qui cherche à comprendre les phénomènes tels qu'ils sont, et donc où les idées même 'd'individu', de 'culpabilité' etc, n'auraient plus de sens ? (car oui, si la personne existe, l'individu en revanche n'existe pas, mais c'est une longue autre histoire)

    • @ThibaultNeveu
      @ThibaultNeveu  Місяць тому

      Je pense que le problème des deepfakes ne sera pas éliminé, mais les barrières à l'entrée pour générer ce type de contenu sans être détecté seront plus élevées. Cela renforcera les mesures de sécurité et mettra en évidence la volonté de la personne malveillante de publier malgré tout son contenu. C'est similaire à la sécurité informatique, où l'on ne supprime pas entièrement le problème mais on rend plus coûteuse l'exploitation des failles et on rend plus évidente la volonté de l'intrus de s'introduire.
      Du point de vue de l'utilisateur ou du spectateur, être régulièrement exposé à des informations indiquant si le contenu est généré par intelligence artificielle peut aider à rappeler à tous les utilisateurs sur Internet que le contenu qu'ils regardent peut être généré et ne doit pas nécessairement être considéré comme vrai.