Entre le constraste trop elevé, le son complètement écorché, le cadrage trop proche et tremblant même pas besoin d'un vrai cadreur pour faire mieux MDR
Chez le point les gens ne savent pas régler le de degrés d'exposition d'une caméra, j'ai l'impression qu'il s’appelle Icare et non Yann. Blague à part: Pour quelqu'un qui travaille pratiquement constamment en anglais, je suis impressionné par sa capacité à parler de manière technique des IA dans la langue française.
D'abord, ça apprend non pas comme les humains seulement, mais comme tous les animaux par ailleurs, les IA génératives aussi ! donc, la nouveauté c'est juste que l'on comprend que l'on peut économiser sur la taille des réseaux et des données, en choisissant les données à partir desquelles on entraine avec un ordre d'entrainement (ce que l'on peut faire avec du texte ! ) Pour les images, il faut montrer des images, évidemment, c'est plus lourd, et ça marche moins bien mais ça marche, c'est juste parce que nous sommes plus sensibles aux images qu'aux textes que nous sommes plus exigeants. Sur les textes, les AGI nous enfûment, mais nous sommes contents parce que le langage sert à enfûmer, pour l'image, nous sommes exigeants parce qu'elle vient du monde physique et non d'une volonté humaine. Par ailleurs, c'est totalement débile de vouloir montrer à une IA des vidéos que l'on montre aux enfants ! Ce qui est montré aux enfants, ce n'est pas pour qu'ils comprennent le monde, mais pour plaire à ceux qui décident de ce que l'on doit montrer aux enfants. Depuis le début tu as cru dans l'apprentissage (prétends tu) Le Cun, mais ta vision de l'apprentissage semble assez rigide... imiter les bébés est une très mauvaise idée ... enfin, tant que tu fais ton beurre de ton côté, et que tu n'entraves pas l'évolution des IAs, ça ne gêne personne
Et si vous preniez de vrais cadreurs pour vos vidéos ?
Entre le constraste trop elevé, le son complètement écorché, le cadrage trop proche et tremblant
même pas besoin d'un vrai cadreur pour faire mieux MDR
Merci pour l'interview, JEPA semble être très intéressant, à voir ce que cela donnera. Dommage que l'audio soit de si mauvaise qualité.
Chez le point les gens ne savent pas régler le de degrés d'exposition d'une caméra, j'ai l'impression qu'il s’appelle Icare et non Yann.
Blague à part:
Pour quelqu'un qui travaille pratiquement constamment en anglais, je suis impressionné par sa capacité à parler de manière technique des IA dans la langue française.
D'abord, ça apprend non pas comme les humains seulement, mais comme tous les animaux
par ailleurs, les IA génératives aussi !
donc, la nouveauté c'est juste que l'on comprend que l'on peut économiser sur la taille des réseaux et des données, en choisissant les données à partir desquelles on entraine avec un ordre d'entrainement (ce que l'on peut faire avec du texte ! )
Pour les images, il faut montrer des images, évidemment, c'est plus lourd, et ça marche moins bien mais ça marche, c'est juste parce que nous sommes plus sensibles aux images qu'aux textes que nous sommes plus exigeants.
Sur les textes, les AGI nous enfûment, mais nous sommes contents parce que le langage sert à enfûmer, pour l'image, nous sommes exigeants parce qu'elle vient du monde physique et non d'une volonté humaine.
Par ailleurs, c'est totalement débile de vouloir montrer à une IA des vidéos que l'on montre aux enfants !
Ce qui est montré aux enfants, ce n'est pas pour qu'ils comprennent le monde, mais pour plaire à ceux qui décident de ce que l'on doit montrer aux enfants.
Depuis le début tu as cru dans l'apprentissage (prétends tu) Le Cun, mais ta vision de l'apprentissage semble assez rigide... imiter les bébés est une très mauvaise idée ... enfin, tant que tu fais ton beurre de ton côté, et que tu n'entraves pas l'évolution des IAs, ça ne gêne personne