내 목소리 10분, 동화책 읽어주는 인공지능 만들기 - TTS

Поділитися
Вставка
  • Опубліковано 23 січ 2025

КОМЕНТАРІ • 45

  • @eeb6217
    @eeb6217 2 місяці тому +1

    어떻게 이렇게 쉽게 알려주고 다 공개해주시는 건지 놀랍네요

  • @arvrcafe
    @arvrcafe 9 місяців тому +2

    좋은 영상 잘 봤습니다.

  • @namsiy
    @namsiy 9 місяців тому +1

    영상 재밌게 잘 보고 있습니다. 감사합니다.

  • @philipchoi5115
    @philipchoi5115 9 місяців тому +2

    좋은 정보 감사합니다~
    혹시 파인튜닝한 모델을 사용하는 참고 자료가 있을까요?
    여기 저기 찾아보면서 도전해보고 있는데 쉽지 않네요.
    혹시 가능하시면 작은 힌트라도 부탁 드립니다.

  • @우문현답TV
    @우문현답TV 9 місяців тому

    너무좋습니다ㅜㅜ찾아가서 배우고싶습니다ㅜㅜ

  • @galtae
    @galtae 9 місяців тому

    와 진짜 감사합니다.

  • @희정임-f3n
    @희정임-f3n Місяць тому

    구글 코랩에서 진행하면 자꾸 학습을 할때 len(DataLoader) returns 0. Make sure your dataset is not empty or len(dataset) > 0.
    이렇게 뜨는 오류 해결하신분 안계실까요? 며칠째 여기서 막혀서 헤매고 있습니다... txt 파일로도 원래 참고한 코드엔 csv 파일로도 하셔서 그걸로도 해보고,, 최소 3초 이상 조건때문인가 싶어서 필터링했는데도 여전히 그대로예요 ㅠㅠ (필터링해서 350개 음성파일이 있습니다) 학습은 원격gpu 대여해서 진행하려했는데 코드가 작동도 되지않아서 아직 대여는 안하고있어요..

    • @희정임-f3n
      @희정임-f3n Місяць тому

      @ 감사합니다!! 혹시 음성 샘플 인풋하면 그 갯수만큼 다 인풋이 되었나요..? 제가 어디서 다 걸러져서 0이되는건지,, 코드 문제인지 모르겠어요 ㅠㅠ

    • @고-n4u
      @고-n4u Місяць тому

      댓글이 자꾸 삭제되네요. GPTArgs 중에 tokenizer_file 을 실제 모델이 있는 폴더의 vocab.json으로 path 맞춰주시고, hangul romanize라는 라이브러리를 설치해주시면 됩니다.

    • @희정임-f3n
      @희정임-f3n Місяць тому

      @@고-n4u 헉 정말 감사합니다! 혹시나싶어서 다시 댓글창 들어와보길 잘했네요ㅠㅠ 못볼뻔했어요 ㅋㅋㅋ
      지금 한번 다시 해볼게요! 깃허브에 올리시면 그것도 알려주세요!! 뭔가 기대가 돼요!

    • @이상엽-v6v
      @이상엽-v6v Місяць тому

      혹시 오류 해결하셨나요? 저도 같은 오류가 떠서 원인을 찾아보는데 정보가 잘 없네요

    • @김주영-d6f9j
      @김주영-d6f9j 23 дні тому

      혹시 해결하셨을까요... 같은 오류가 발생하는데 해결을 못하겠습니다

  • @가나다-j9s
    @가나다-j9s 9 місяців тому +1

    영상 잘 봤습니다. 구글드라이에 압축된 폴더까지 생성이 되었는데 그 이후로는 어떻게 사용하나요? 무엇을 다운받고 어디가서 글자를 입력해서 들어볼수 있나요? 정말 하나도 모르는 왕 초보입니다. 자세한 사용방법 후속영상 만들어주시면 너무 감사하겠습니다.

  • @이유진-f5d7k
    @이유진-f5d7k 9 місяців тому +1

    안녕하세요. 영상 잘 봤습니다. 혹시 모델을 다 만들고나서 결과음성을 어떻게 들을 수 있나요? 결과로는 run > training > pth 파일 3개와 config.json 파일이 생성되었습니다. 학습한 모델의 음성을 듣고 싶어요 ㅜㅜㅜㅜ

    • @itthe
      @itthe 9 місяців тому

      tts --text "Text for TTS" \
      --model_name "///" \
      --out_path folder/to/save/output.wav

    • @이유진-f5d7k
      @이유진-f5d7k 9 місяців тому

      @@itthe 답글 감사합니다! 혹시 제가 만든 pth 모델로 결과음성 output.wav를 생성하고 싶은데 어떻게 하는지 아시나욥!

    • @itthe
      @itthe 9 місяців тому

      @@이유진-f5d7k tts 텍스트 모델네임 생성파일네임 형태로 됩니다....전 모델 기존모델로 테스트 해봣는데 모델 생성을 하진 못해서 ;;; 새로운 모델도 모델 네임 넣으시면 될 겁니다
      $ tts --text "Text for TTS" \
      --model_path path/to/checkpoint_x.pth \
      --config_path path/to/config.json \
      --out_path folder/to/save/output.wav 명령어 입니다.

    • @itthe
      @itthe 9 місяців тому

      @@이유진-f5d7k tts --text "Text for TTS" \
      --model_path path/to/model.pth \
      --config_path path/to/config.json \
      --out_path folder/to/save/output.wav

    • @itthe
      @itthe 9 місяців тому

      @@이유진-f5d7k tts --text "Text for TTS" \
      --model_path path/to/model.pth \
      --config_path path/to/config.json \
      --out_path folder/to/save/output.wav

  • @실험맨
    @실험맨 9 місяців тому

    재밌네요

  • @codingajae
    @codingajae 2 місяці тому

    M2 Ultra 24Core / GPU 60 Core / MEM 64g 인데요 파인튜닝이 가능한 지요?

  • @호빵맨주인-j3j
    @호빵맨주인-j3j 9 місяців тому +2

    애기한테 해줘야겠네욤

  • @강s-g1d
    @강s-g1d 9 місяців тому

    코드를 실행해보는데 라이브러리가 없어서 뭔가 작동이 안되는것같은데 어떤 라이브러리를 설치해야할 까요?

  • @ongdalm3591
    @ongdalm3591 4 місяці тому

    TTS 로 만들어신 wav파일이 실시간으로 스트리밍 될 수있도록 만들기 위해서는 뭐가 필요할까요?

  • @monkeyking2096
    @monkeyking2096 2 місяці тому

    혹시 파인튜닝 직접 해보신분들 트레이닝시간 얼마나 걸리셨나요? 스크립트에 나온대로 default epoch 1000 하니 하루종일 돌려도 반도 못돌리던데요ㅠㅠ 혹시 해보신분!?

  • @KHoon.
    @KHoon. 9 місяців тому

    앞으로 빵형의 영상의 음성은 AI로 녹음 하나요?

  • @0koreanssam0
    @0koreanssam0 8 місяців тому

    브레드, colab으로 best_model.pth와 config.json 등의 파일은 얻었어요. 그런데 이걸로 어떻게 글자를 wav파일로 바꾸나요?

  • @조성민-y5u
    @조성민-y5u 7 місяців тому

    데이터 전처리한 뒤에 학습 시키는 부분이 없네요...

  • @김보민-q7q
    @김보민-q7q 4 місяці тому

    코드 바뀐건가요?

  • @테스트-w4q1h
    @테스트-w4q1h 9 місяців тому +3

    왕 초보를 위해서 1부터 10까지 자세히 알려 줄 수 있을까요?

  • @나이샤의제품리뷰
    @나이샤의제품리뷰 3 місяці тому

    RTX4090인데 데이터셋 465개로 첨부하신 코드로 학습 돌리니까 17시간 정도 걸리네요. 이게 맞나요?

    • @monkeyking2096
      @monkeyking2096 2 місяці тому

      코랩에서 돌리신거 아니시죠? 저는 코랩, A100, 데이터셋 130개 default epoch 1000돌리느 하루 꼬박 돌렸는데 30% 남짓 학습되길래 껐습니다...ㅠ 혹시 학습시간 좀 단축시키셨나요?

    • @나이샤의제품리뷰
      @나이샤의제품리뷰 2 місяці тому

      @@monkeyking2096 저는 개인pc에서 돌렸습니다. 17시간 걸린게 품질이 별로라 그냥 지웠습니다. 이거 보다 더 좋은 것들이 최근 또 나온 것 같던데, 아직까지는 정신건강상 그냥 일레븐랩스 api쓰고있어요. 오픈소스가 좀 좋은게 많이 나와야 비용 걱정 없이 활용을 많이 할텐데 생성이미지외에는 유료ai서비스 속도를 못따라가는 것 같아 아쉽네요. sana인가 새로나온다는 이미지생성 오픈소스 기다리고 있습니다.

    • @나이샤의제품리뷰
      @나이샤의제품리뷰 2 місяці тому

      ​@@monkeyking2096 개인pc에서 돌렸습니다. 17시간 걸린거 품질이 안좋길래 그냥 지웠습니다. 최근 이거보다 더 좋은 것도 나온 것 같던데,, 정신건강상 일레븐랩스 api 사용하고 있네요. 오픈소스가 더 좋은게 많이 나와야 비용걱정없이 이것저것 할 것 같네요.

    • @나이샤의제품리뷰
      @나이샤의제품리뷰 2 місяці тому

      ​@@monkeyking2096 개인 pc에서 돌렸습니다. 17시간 걸린게 품질이 않좋아서 그냥 지웠습니다. 최근 이거보다 더 좋은 것도 나온 것 같던데,, 그냥 정신건강산 일레븐랩스 api사용하고 있습니다. 오픈소스가 좀 더 좋은게 많이 나와야 비용걱정 없이 활용할 것 같네요.

    • @나이샤의제품리뷰
      @나이샤의제품리뷰 2 місяці тому

      ​ @monkeyking2096 개인 pc에서 돌렸습니다. 17시간 걸린게 품질이 않좋아서 그냥 지웠습니다. 최근 이거보다 더 좋은 것도 나온 것 같던데,, 그냥 정신건강산 일레븐랩스 api사용하고 있습니다. 오픈소스가 좀 더 좋은게 많이 나와야 비용걱정 없이 활용할 것 같네요.