TUTORIAL: Modelos de Razonamiento en Local con Ollama - Large Reasoning Models

Поділитися
Вставка
  • Опубліковано 15 гру 2024

КОМЕНТАРІ • 3

  • @ai.charly
    @ai.charly  5 днів тому +2

    ¿Qué más les gustaría aprender? La IA es el futuro, trabajo con ella todos los días, y quiero aprovechar al máximo los vídeos que haga.

  • @bhok5228-ff8bs
    @bhok5228-ff8bs 15 днів тому +2

    ¿Necesito gpu para correr los modelos en local?

    • @ai.charly
      @ai.charly  15 днів тому

      @@bhok5228-ff8bs preferiblemente porque irán más rápido, pero no es necesario, te recomendaría primero probar con llama3.2:1b y vas aumentando a uno de 3 billones y así