Run Llama 3 on Linux | Build with Meta Llama

Поділитися
Вставка
  • Опубліковано 18 жов 2024

КОМЕНТАРІ • 5

  • @Utkarsh27a
    @Utkarsh27a 3 місяці тому +2

    the issue resolved after installing NVIDIA CUDA Toolkit

  • @Utkarsh27a
    @Utkarsh27a 3 місяці тому +1

    I tried the steps you are using, but in my case, the model was crashing with error "E0627 13:16:38.866271 140091171120960 torch/distributed/elastic/multiprocessing/api.py:826] failed (exitcode: -9) local_rank: 0 (pid: 3282) of binary:"

  • @richardthompson3612
    @richardthompson3612 4 місяці тому +1

    A plus.

  • @MUHAMMADAKSARMUGHAL
    @MUHAMMADAKSARMUGHAL 4 місяці тому

    Good ❤

  • @maksymtm1029
    @maksymtm1029 4 місяці тому

    Good