Dream Machine ? Déçu ? Bon, j'ai fait d'autres tests et j'ai obtenu de bien meilleurs résultats, voir ici : www.directsolutions.fr/dream-machine/ Comment j'ai fait ? Tout simplement en ne mettant pas de prompts textuels, juste des images en entrées 🙂 Dites-moi si c'est mieux, bien à vous !
Merci Johan :) Les resultats sont bluffants et même les "erreurs" des videos donnent un coté chelou-onirique assez sympa :D Hors sujet, mais en ce moment même je genere quelques sons pour mes jeux avec pinokio et StableAudio. Et c'est grâce à vous ! :D Ca marche carrément bien mais sans CUDA, mon PC grince un peu des dents ;) Au plaisir de votre prochaine video :)
J'avais découvert sur twitter et j'ai testé quelques trucs, le meilleur résultat que j'ai eu est avec un prompt de 3 lignes sans le "enhanced", sans partir d'une image. On voit que c'est pas encore au point mais cela permet d'entrevoir ce que pourrait être le futur ( comme animer une vieille photo d'il y a 20-30 ans ou plus ! )
Hello Johan ! merci pour cette présentation 🙂 j'ai en effet entendu parler de "Dream Machine" et j'ai hâte d'aller le tester 😀 à la prochaine vidéo PS en effet champion de la marche arrière ce conducteur invisible 😅
@@johansolutionsdigitales je viens de faire mon premier test ce matin, j'ai du réessayer plusieurs fois car ça me mettait un message d'erreur, une fois que ça a fonctionné j'ai pas eu à attendre longtemps 😀 et je suis satisfait
bonjour je vous suit avec un grand plaisir et interet, je voudrais un conseil de expert : quel logiciel ia permet de rectifier les visages issu de l Ia qui ont parfois des deformations, merci de votre aide @+
Merci beaucoup de me suivre Alain ! Pas vraiment de solution simple pour ça à part tenter cela avec un Upscaler Créatif IA comme Magnific ou celui de Stability.AI (j'en ai fait une vidéo). Autre possibilité, utiliser un face swap comme Face Fusion 🙂
J'ai testé et c'est intéressant. J'ai de meilleurs résultats quand je lui donne déjà une image sur laquelle travailler. Mais en effet en l'état c'est difficilement exploitable en production
Salut, Merci pour ta video, petite question, peut on utiliser les videos , puis-je créer des videos et les mettre sur ma chaine youtube ? - malgré le logo en haut a droite ? et le message la - Failed to process prompt. Please try again. - c'est le serveur qui rame ?
Je l'avais découvert avant de voir votre vidéo. J'ai testé avec des images, j'aime beaucoup le rendu. Pour le moment je n'ai pas essayé avec un simple prompt. Par contre, une génération met au moins une heure, en comptant que les personnes qui payent ont la priorité, a priori car tu as l'air d'avoir mis autant de temps. En combien de temps ta vidéo s'est elle générée finalement ?
Hello, en règle générale, cela va vite, moins d'une minutes, celle de la vidéo fut bloquée durant plus d'une heure pour un piêtre résultat... Peut-être des travaux sur le serveur...
@@johansolutionsdigitales d'accord. Moins d'1 min en temps normal, ca c'est interessant. Ils ont encore reduit le nombre de générations gratuites mais de toute façon je n'arrive qu'a en faire une par jour donc cela ne fera pas partie de mon utilisation quotidienne en version gratuite, malgré que pour mes images je trouve que le resultat est vraiment bien.
J'ai testé dream machine cette semaine, pour l'instant c'est au niveau d'une bêta. Le rendu est a chaque fois pollué par des artefact ou des incoherences, et surtout ca se respecte pas la demande. On demande un gars qui boit une biere avec quelques legumes aperos a une terrasse,et dans la video il se leve en mode robot et traverse une table. Il y a un youtubeur qui a fait un long test a partir d'un tableau de hopper, le bar, et meme genre de constat. Les personnages passent a travers les objets, et font tout autre chose .. Mais ca a le merite d'exister et c'est le debut . Donc si ca progresse comme poor le 'text to image' on aura un produit utilisable vraiment dans 1an ou 2. Mais on est tres tres loin des videos demo de sora ou de de kling
J'ai fais quelques tests également, le rendu est plus que médiocre, c'est très clairement au stade béta (et encore). Comme vous le dites, je pense qu'il va falloir attendre un moment pour obtenir des résultats "propres".
Je n'ai sans doute pas assez testé, mais les démos sont tellement bluffantes... Cependant, depuis j'ai fait d'autres tirages nettement mieux >>> www.directsolutions.fr/dream-machine/ je donne des indications dans le commentaire épinglé qui va venir. Bonne soirée
@@johansolutionsdigitales J'ai un prompt qui tourne depuis une heure sur Luna Dream Machine... J'espère que vous avez eu le rendu de votre voiture depuis la vidéo ^^ Sinon, les décors sont bien gérés, mais il y a encore du boulot sur les personnages je trouve. Point positif, certains effets sont bluffants (décors qui passe devant les personnages au premier plan, mouvements de caméras etc.) Cordialement, Olivier
Bonsoir Johan, j'ai testé trois générations de Luma Dream Machine tout à l'heure à partir d'une photo que j'avais au préalable générée via Fooocus avec un swap de moi-même et malgré qu'il y ait eu une déformation de mon visage au moment où je tourne la tête, J'ai trouvé le résultat pas si mal pour un premier test. Je pense que cette IA est très prometteuse. Pour info, j'ai utilisé des prompts simples (mouvement de caméra etc) et pourtant ... ua-cam.com/video/R5JEhqt2lJs/v-deo.html
Dream Machine ? Déçu ? Bon, j'ai fait d'autres tests et j'ai obtenu de bien meilleurs résultats, voir ici : www.directsolutions.fr/dream-machine/
Comment j'ai fait ? Tout simplement en ne mettant pas de prompts textuels, juste des images en entrées 🙂 Dites-moi si c'est mieux, bien à vous !
On va essayer ! Merci du tuyau !
@@ericmunschi4655 Bons tests 🙂🙂
@@baptistek1917 Oui, c'est clair, avec les prompts ça coince, il reste des tests à faire ! Merci pour votre retour !
Merci Johan :)
Les resultats sont bluffants et même les "erreurs" des videos donnent un coté chelou-onirique assez sympa :D
Hors sujet, mais en ce moment même je genere quelques sons pour mes jeux avec pinokio et StableAudio. Et c'est grâce à vous ! :D Ca marche carrément bien mais sans CUDA, mon PC grince un peu des dents ;)
Au plaisir de votre prochaine video :)
@@kleioscope ca m'intéresse peut on générer des bruitages avec StableAudio ?
J'avais découvert sur twitter et j'ai testé quelques trucs, le meilleur résultat que j'ai eu est avec un prompt de 3 lignes sans le "enhanced", sans partir d'une image. On voit que c'est pas encore au point mais cela permet d'entrevoir ce que pourrait être le futur ( comme animer une vieille photo d'il y a 20-30 ans ou plus ! )
Oui, c'est loin d'être parfait, les démos sont bleuffantes mais je vois également de belles choses sur Twitter, merci du retour d'expérience !
J'ai découvert Topaz (et pinokio) avec ta chaîne et c'est vrai que c'est super !
Merci de ton retour 👍 Oui de très bons outils
Merci Monsieur, très clair et donne envie d'essayer cette nouvelle IA
Avec plaisir, merci 🙂
De sacrés évolutions dans la création de vidéo 😱
Oui, c'est sympa !
Hello Johan ! merci pour cette présentation 🙂
j'ai en effet entendu parler de "Dream Machine" et j'ai hâte d'aller le tester 😀
à la prochaine vidéo
PS en effet champion de la marche arrière ce conducteur invisible 😅
Avec plaisir 🙂 Oui, d'ailleurs, j'ai eu droit à une autre marche arrière d'anthologie depuis...
@@johansolutionsdigitales je viens de faire mon premier test ce matin, j'ai du réessayer plusieurs fois car ça me mettait un message d'erreur, une fois que ça a fonctionné j'ai pas eu à attendre longtemps 😀 et je suis satisfait
Bonjour j'ai partagée la vidéo tellement cest cool et bien expliqué
Ah Merci beaucoup 👍 Avec plaisir, bien à vous !
bonjour
je vous suit avec un grand plaisir et interet, je voudrais un conseil de expert : quel logiciel ia permet de rectifier les visages issu de l Ia qui ont parfois des deformations, merci de votre aide
@+
Je suis aussi intéressé sur ce sujet !
Merci beaucoup de me suivre Alain ! Pas vraiment de solution simple pour ça à part tenter cela avec un Upscaler Créatif IA comme Magnific ou celui de Stability.AI (j'en ai fait une vidéo). Autre possibilité, utiliser un face swap comme Face Fusion 🙂
Merci j'espère tu vas pouvoir faire encore des vidéos a ce sujet jai vraiment besoin de ça pour créer des clips pour mes musiques
Pas de soucis 😉 à bientôt !
J'ai testé et c'est intéressant. J'ai de meilleurs résultats quand je lui donne déjà une image sur laquelle travailler. Mais en effet en l'état c'est difficilement exploitable en production
Oui, il faut faire beaucoup de tirage, tester ses prompts et avoir de la chance 😅
Salut, Merci pour ta video, petite question, peut on utiliser les videos , puis-je créer des videos et les mettre sur ma chaine youtube ? - malgré le logo en haut a droite ?
et le message la - Failed to process prompt. Please try again. - c'est le serveur qui rame ?
Bonjour, avec plaisir, oui vous le pouvez. Pour le message, je ne l'ai jamais rencontré, possible que cela rame ou qu'il y ait une mise à jour
Super vidéo comme d'hab , merci. Vivement un model local façon StableDiffusion pour éviter le tres long "in Queue"
Oui, cela fera chauffer la machine !
Je l'avais découvert avant de voir votre vidéo. J'ai testé avec des images, j'aime beaucoup le rendu. Pour le moment je n'ai pas essayé avec un simple prompt. Par contre, une génération met au moins une heure, en comptant que les personnes qui payent ont la priorité, a priori car tu as l'air d'avoir mis autant de temps. En combien de temps ta vidéo s'est elle générée finalement ?
Hello, en règle générale, cela va vite, moins d'une minutes, celle de la vidéo fut bloquée durant plus d'une heure pour un piêtre résultat... Peut-être des travaux sur le serveur...
@@johansolutionsdigitales d'accord. Moins d'1 min en temps normal, ca c'est interessant. Ils ont encore reduit le nombre de générations gratuites mais de toute façon je n'arrive qu'a en faire une par jour donc cela ne fera pas partie de mon utilisation quotidienne en version gratuite, malgré que pour mes images je trouve que le resultat est vraiment bien.
@@droitc2i910 Ah Ok ! C'est long en effet... Mais heureux d'apprendre que vos résultats sont plaisants 🙂
J'ai testé dream machine cette semaine, pour l'instant c'est au niveau d'une bêta. Le rendu est a chaque fois pollué par des artefact ou des incoherences, et surtout ca se respecte pas la demande. On demande un gars qui boit une biere avec quelques legumes aperos a une terrasse,et dans la video il se leve en mode robot et traverse une table.
Il y a un youtubeur qui a fait un long test a partir d'un tableau de hopper, le bar, et meme genre de constat. Les personnages passent a travers les objets, et font tout autre chose ..
Mais ca a le merite d'exister et c'est le debut . Donc si ca progresse comme poor le 'text to image' on aura un produit utilisable vraiment dans 1an ou 2. Mais on est tres tres loin des videos demo de sora ou de de kling
J'ai fais quelques tests également, le rendu est plus que médiocre, c'est très clairement au stade béta (et encore).
Comme vous le dites, je pense qu'il va falloir attendre un moment pour obtenir des résultats "propres".
Je n'ai sans doute pas assez testé, mais les démos sont tellement bluffantes... Cependant, depuis j'ai fait d'autres tirages nettement mieux >>> www.directsolutions.fr/dream-machine/ je donne des indications dans le commentaire épinglé qui va venir. Bonne soirée
www.directsolutions.fr/dream-machine/
Quand cette IA propose des images bugées, on peut lui demander de rectifier et de corriger la voiture ou l'ours ?
Non, mais je donne dans le commentaire épinglé des indications complémentaires
Merci pour l'info :D
Avec plaisir 😁
@@johansolutionsdigitales J'ai un prompt qui tourne depuis une heure sur Luna Dream Machine... J'espère que vous avez eu le rendu de votre voiture depuis la vidéo ^^ Sinon, les décors sont bien gérés, mais il y a encore du boulot sur les personnages je trouve. Point positif, certains effets sont bluffants (décors qui passe devant les personnages au premier plan, mouvements de caméras etc.) Cordialement, Olivier
Bonsoir Johan, j'ai testé trois générations de Luma Dream Machine tout à l'heure à partir d'une photo que j'avais au préalable générée via Fooocus avec un swap de moi-même et malgré qu'il y ait eu une déformation de mon visage au moment où je tourne la tête, J'ai trouvé le résultat pas si mal pour un premier test. Je pense que cette IA est très prometteuse. Pour info, j'ai utilisé des prompts simples (mouvement de caméra etc) et pourtant ... ua-cam.com/video/R5JEhqt2lJs/v-deo.html
Hello Andy, ton commentaire était bloqué par UA-cam (le lien) , c'est libéré 😉 et joli travail, c'est top ! Bien à toi
Intéressant, encore pas mal de petites erreurs mais dans tous les cas...sur la bonne route😀
Oui, il faut que cela s'améliore ! Merci à toi 👍
@@johansolutionsdigitales avec plaisir😉
Merci Johan, à tester mais tes exemples sont pas vraiment top top 😄😉
Merci à toi 🙂 Oui, mais ce sont des résultats très bons par rapports à l'existant utilisable actuellement, il faut tester et retester 😉
On va dire que c’est mieux que livenza et Runway. Merci pour le lien
Avec plaisir ! Merci 🙂
Pouvons nous faire du NSFW avec ? (C’est pour un pote)
😬
J'ai essayé, oui. ^^
👍🙂
J’ai réussi à faire un petit film mais j’ai dû couper toutes les scènes ça part souvent en cacahouète 😅
En effet, il y a souvent un truc qui coince mais ici j'ai fait mieux, je dis pourquoi en commentaire épinglé www.directsolutions.fr/dream-machine/
C'est révolutionnaire mais pas au point.
Oui, cela s'améliore