:-) En réalité, ce fond est la charte pour les flash actus, je n'ai pas changé. :-) Mais pour celle de demain, yep, j'ai fait 2 version de miniature avec des couleurs différentes pour tester !! Les conseils constructifs, ça se suit toujours !!! 🙂 Merci ! (et on verra ce que le test donne)
@@RenaudDekode Très proche de la "Machine" et "Samaritan" dans "Person of Interest". Cette série est de moins en moins une série de SF, tant le réel la rattrape... Cordialement, Lyzbeth d'Andrésy. PS : Renaud, si vous ne l'avez pas visionnée, c'est impardonnable. :D
Petite critique constructive : il faut faire l'inverse, pour les screens des vidéos--> les trucs intéressants que l'on est censé regarder, en gros plan, et celui qui parle en petit... Merci.
Bonjour, dit moi, comment faire si j'explose mes crédits Sur AI Leonardo avnt la fin du mois en cours d'abonnement, est ce que y a un moyen d'en acheter ou pas? Merci à toi.
Deep research ouep pas mal mais Google a un gros problème il vas lui falloir monétiser rapidement le futur de la recherche web à un niveau qui rapporte autant que la pub… et la pub elle baisse de jour en jour à chaque fois que chatGPT répond à une question à la place du moteur de recherche Google
Yep, exactement. Ma pensée, c'est qu'ils n'y arriveront pas. En tous cas, jamais à ce niveau. Mais ils n'ont pas le choix, c'est trouver un autre modèle bien moins rentable, soit disparaitre.
Alors Deepseek en plus d'être économique, pour les connaisseurs (notamment ceux qui utilise les IA locales), c'est bien plus pertinent que ChatGPT ou Claude en terme de traitement de langage pur et ce depuis la V2
@Ratonomist hello, sauf que deepseek pour l’utiliser en local (ce que j’aurai aimé faire pour éviter qu’il envoi mes infos en chine), ben il faut 8 cartes nvidia h100 et 685go de ssd Si tu as d’autres solutions pour une IA puissante en locale et que je peux faire évoluer ou connecter à d’autres llm pour renforcer ces capacités à la demande ça m’intéresse
@@jean-baptistebonaparte2200 C'est la logique d'Apple (une IA locale + une connexion à un modèle plus large) (mais le hardware est conçu pour). Avoir un modèle large en local, sur une machine a peu près classique, malheureusement, ce n'est pas encore possible. Un modèle MOE à la Mistral, ça peut être le meilleur compromis...
Moi ?... J'ai dit objectivement ce que j'en pense... nan ?... (par contre, je trouve assez rigolo de demander de l'objectivité pour une certaine catégorie en particuliers)
Oui, c'est surement vrai. Et d'autres m'ont demandé de parler plus vite et de continuer à tout faire en live. Du coup, je ne sais plus quoi faire. :-( Hum... pas simple.
Vraiment question de goût je crois. Je n'ai quasiment jamais utilisé de visuels générés par Dall-E mais uniquement celles de Midjourney et Flux. Certains font tout l'inverse ! Et c'est cool aussi.
Il a surtout cet avantage de pouvoir tourner localement sur mon portable grâce à Pinokio. Je suis en train d'installer MagicQuill également en local, et le combo de ces deux outils me donne le vertige !
Merci Renaud, comme je l'attendais depuis longtemps, merci pour le sommaire de tes LIVE !
🙂
❤❤❤
tu as oublié de dire que Deepseek est open source
Raaaah, oui, je ne l'ai dit qu'après !!! C'te nouille. Et c'est très important !! Merci pour le complément ici !!
Félicitations mon cher Renaud, j'aime la nouvelle couleur de fond! Merci de votre réaction rapide sur ma remarque d'hier❤
:-)
En réalité, ce fond est la charte pour les flash actus, je n'ai pas changé. :-)
Mais pour celle de demain, yep, j'ai fait 2 version de miniature avec des couleurs différentes pour tester !!
Les conseils constructifs, ça se suit toujours !!! 🙂
Merci ! (et on verra ce que le test donne)
Merci pour ton contenu sur l actualité IA
De rien !! Merci pour le merci !! :-)
Merci pour tout.
Merci pour le soutien !!!! 🙂
J'aime beaucoup les dinguerie de dingue 😋
Pour le dernier point, je dirais que cela ressemble plus à La Machine dans "Person of interest" (ou Le bon Samaritain 🤣)
En fait, l'IA militaire ressemble plus au film minority report que teeminator
Si elle "s'échappe", on aura un joyeux combo :-)
@@RenaudDekode
Très proche de la "Machine" et "Samaritan" dans "Person of Interest".
Cette série est de moins en moins une série de SF, tant le réel la rattrape...
Cordialement,
Lyzbeth d'Andrésy.
PS : Renaud, si vous ne l'avez pas visionnée, c'est impardonnable. :D
@@Lyzbeth_d_Andresy J'suis impardonnable. (mais je vais quand même me rattraper !) ;-)
Skynet ?? Ou l ordinateur 💻 du Dr gero !! Même les 2😂😂😂
Le modèle o1 de chat GPT est déjà capable de prendre son indépendance.
Petite critique constructive : il faut faire l'inverse, pour les screens des vidéos--> les trucs intéressants que l'on est censé regarder, en gros plan, et celui qui parle en petit...
Merci.
Et bein on va cogiter à ça !!! Merci !!
@RenaudDekode Je disais cela car je suis intéressé 🤗 mais devoir systématiquement zoomer c'est inutilement fatigant ✌️
Bon Courage, en tous cas 🫡
Bonjour, dit moi, comment faire si j'explose mes crédits Sur AI Leonardo avnt la fin du mois en cours d'abonnement, est ce que y a un moyen d'en acheter ou pas? Merci à toi.
Deep research ouep pas mal mais Google a un gros problème il vas lui falloir monétiser rapidement le futur de la recherche web à un niveau qui rapporte autant que la pub… et la pub elle baisse de jour en jour à chaque fois que chatGPT répond à une question à la place du moteur de recherche Google
Yep, exactement. Ma pensée, c'est qu'ils n'y arriveront pas. En tous cas, jamais à ce niveau. Mais ils n'ont pas le choix, c'est trouver un autre modèle bien moins rentable, soit disparaitre.
@ openAI a modifié le business informatique comme l’iphone a son époque … Google risque de ne plus jamais être Google
Alors Deepseek en plus d'être économique, pour les connaisseurs (notamment ceux qui utilise les IA locales), c'est bien plus pertinent que ChatGPT ou Claude en terme de traitement de langage pur et ce depuis la V2
Merci pour le partage d'xp !!
@Ratonomist hello, sauf que deepseek pour l’utiliser en local (ce que j’aurai aimé faire pour éviter qu’il envoi mes infos en chine), ben il faut 8 cartes nvidia h100 et 685go de ssd
Si tu as d’autres solutions pour une IA puissante en locale et que je peux faire évoluer ou connecter à d’autres llm pour renforcer ces capacités à la demande ça m’intéresse
@@jean-baptistebonaparte2200 C'est la logique d'Apple (une IA locale + une connexion à un modèle plus large) (mais le hardware est conçu pour). Avoir un modèle large en local, sur une machine a peu près classique, malheureusement, ce n'est pas encore possible. Un modèle MOE à la Mistral, ça peut être le meilleur compromis...
Elle n'est pas très floutée la prison ceci dit, on voit encore clairement la structure des bâtiments.
C'est vrai ! 🙂
merci 80% du traffic n'est pas organique sur twitter rien de neuf ;)
Soyez OBJECTIF quand vous parlez ici des IA chinoises. Merci
Moi ?... J'ai dit objectivement ce que j'en pense... nan ?...
(par contre, je trouve assez rigolo de demander de l'objectivité pour une certaine catégorie en particuliers)
@ l’objectif doit être pour tout sujet, ce qui est loin d’être le cas
Grok c'est Elon Musk, Deepseek c'est chinois, les blaireaux ne pourront bientôt plus se servir de l'IA
On peut aussi mettre en garde des dérives politiques de Musk ?
Oh oui, on peut.
l'IA = 1984
12 jours
Vous devriez parler beaucoup moins vite pour que l'on vous suives et avoir une meilleur préparation, surtout lorsque vous donnez des exemples....
Oui, c'est surement vrai. Et d'autres m'ont demandé de parler plus vite et de continuer à tout faire en live. Du coup, je ne sais plus quoi faire. :-(
Hum... pas simple.
Minority report en mode IA.. Au mains de donald et elon.. pas cool..
Flux de Grok n'a pas vraiment d'autres intérêts aujourd'hui que de faire des parodies de célébrités. Dall-e reste au dessus sur énormément de choses.
Vraiment question de goût je crois. Je n'ai quasiment jamais utilisé de visuels générés par Dall-E mais uniquement celles de Midjourney et Flux. Certains font tout l'inverse ! Et c'est cool aussi.
Il a surtout cet avantage de pouvoir tourner localement sur mon portable grâce à Pinokio.
Je suis en train d'installer MagicQuill également en local, et le combo de ces deux outils me donne le vertige !