J'ai Découvert le Prompt PARFAIT pour ChatGPT (à copier-coller)

Поділитися
Вставка
  • Опубліковано 10 чер 2024
  • Voici la formule toute simple pour des prompts excellents, pour n'importe quelle IA (Intelligence Artificielle) : ChatGPT, Claude, Gemini, Perplexity, etc. Il suffit de remplir les trous en 30 secondes… et voilà : tu as un excellent prompt pour obtenir de supers résultats
    ✅ Fonctionne aussi bien pour GPT-3 que pour GPT-4.
    - Cette formule vient de la documentation de OpenAI (les créateurs de ChatGPT, Dalle-E, Sora, et d'autres IA grave stylées). Donc c'est fiable.
    Voici la formule en question :
    1. PERSONA
    2. CONTEXTE
    3. TÂCHE
    4. CONTRAINTES
    5. EXEMPLE
    6. FORMULATION
    » Voici comment sauvegarder cette formule de prompt : • Si tu utilises ChatGPT...
    Qu'est-ce que t'as pensé de cette vidéo ?
    ⤵️ Dis-le moi en commentaires ! J'écoute vos retours pour améliorer mes vidéos
    📋 SOMMAIRE DE LA VIDÉO
    00:00 - Pourquoi le prompt est important ?
    00:49 - La formule précise
    01-10 : #1 - Persona
    02:02 : #2 - Contexte
    02:44 - #3 - Tâche
    03:09 - #4 - Contraintes
    04:06 -#5 - Exemple
    04:40 - #6 - Formulation
    05:12 - Mon "hack" dans ChatGPT
    📨 ME CONTACTER
    » contact@mayeulrougevin.fr
    » / mayeulrougevin
    prompt chatgpt,prompts chatgpt,chatgpt prompt engineering,prompt engineering,prompt,prompts gpt 4,chatgpt prompts,chatgpt 4 prompts,meilleurs prompts pour chatgpt,écrire le meilleur prompt,cours chatgpt,prompt pour midjourney,prompts pour midjourney,le prompt parfait,prompt chat gpt,prompt midjourney,importance mots prompt,le prompt ultime,intelligence artificielle cours complet,tuto pour utiliser chat gpt,meilleurs prompts de chatgpt,prompts

КОМЕНТАРІ • 5

  • @benben2846
    @benben2846 29 днів тому +1

    merci, a tester sur LLM ollama en local !

    • @mayeul_rougevin
      @mayeul_rougevin  29 днів тому +1

      Bien vu ! Je compte justement faire une vidéo "tuto" sur comment utiliser des LLM en local. Toi c'est Ollama que tu utilises le plus ou un autre ?

    • @benben2846
      @benben2846 29 днів тому

      @@mayeul_rougevin oui les LLM de Ollama :sur un Linux mint

    • @benben2846
      @benben2846 29 днів тому +1

      @@mayeul_rougevin Linux mint 21.3. Sur Ollama en version ollama-Webui , interface web en local. Le LLM dolphin-mistral:latest 4.1 GB est bien. je lui ai collé ta version prompt en 5 points : Persona, Contexte, Tâches, Contraintes, Formulation. Pour me préciser quel hardware est le meilleur rapport qualité/prix pour LLM 7B , 4.1GB (voir >ou=10 GB)e n Local pour chat, images, codage : il m'a très bien répondu, décortiqué pour quoi tel proc est mieux qu'un autres de part sa conception.....j'ai vérifié, et du coup ma prochaine config prévue est changée MDR ^^

    • @mayeul_rougevin
      @mayeul_rougevin  28 днів тому

      Ahah excellent, ravi que ça t'aies donné de bons résultats !