Розмір відео: 1280 X 720853 X 480640 X 360
Показувати елементи керування програвачем
Автоматичне відтворення
Автоповтор
相変わらずの技術力流石すぎる…
すべての工程をさらっとやってるけど地力があってこそだよね。流石です!
可愛い…。そして想像よりも人力で作られているんですね。
今まで裏でこっそり解説動画作ってた?動画凄い見やすいもん。
ずんだもん気まぐれロマンティック可愛すぎる❤❤❤❤もっと聴きたいです😻
この面倒な作業が全部やってあるモデルがboothとかで売られてるけど、ずんだもんや声優の著作権を侵害してるからぜっっったいに買っちゃダメだぞ!
ライブラリだけはこちら側で保持しないといかんのですよ
著作権問題のない自作モデルもあるっぽいのでそれはOKのはず
手順簡易化パッチとかがあるといいんだがな作るしかないか…
米主のお兄さん感好き
声優の著作権とは何を指しているのでしょうか?声優のような特定の個人の声という概念に肖像権のような法的権利があるとは聞いたことが無いですし、人間の声が学習元であってもAIが生成したものであれば著作権は認められていません。せめて「声優、もしくは声優の所属する事務所に精神的苦痛で訴訟される可能性」であればまだ分かるのですが。
凄すぎでしょ…。自然すぎる
予想以上ですげぇ…マジですげぇよ…
なんて丁寧で親切な動画なんだ、、ceciliaネキ素晴らしすぎる。。
8:05 「まち」の「ち」にニキネキを感じる気がするんだけどこれも変換前はニキネキかな?
そこで気づくのかw
0:46 「喘ぎ声」を私は見逃さなかったぞ。
せしりああねきあにきのあえぎごえまだ?
おまえがみてるどうがはなんだ?おまえがつくるんだよ
多才すぎて羨ましい
おかげさまで推しに歌わせることができました!!感無量です!個人で楽しみまくりたいと思います!ありがとうございます!!
逆にCecilia姉貴兄貴が出来ない事って一体…何?
性交渉
@@つばさみらい草
バキバキ
@@つばさみらい勝手に童貞にされてて草
@@つばさみらい頑張れば成功できる
この技術は分かりづらいくらいがちょうど良い…人間の形をした猿に見つかればこの学習を必ず悪用するに違いない技術自体は本当に素晴らしいのだが
きっと1年とたたずパッケージ化され、ドラッグ&ドロップでできるようになる
翻訳前の聖書かな?
手遅れ定期
「人間の形をした猿」?AI絵師に粘着誹謗中傷してるAIアンチさんの事かな😅😅
???)私に従え。猿ども、、
すごすぎる!!推します!!!
ずんだもん気まぐれロマンティック、フルであげてほしい・・・
この動画のお陰で好きなキャラに歌わせる事が出来るようになりました!とても丁寧で分かり易かったです!ありがとうございます!
たすかる!じっくりみます
これって自分の声学習させたらめちゃ歌上手い自分が生成されるってこと?!
自分の声質がその歌に向いてるかどうかでうまく聞こえるかは変わるけど、聞けるレベルにはなる。いわば音程合わせだからカラオケ上手い人みたいな感じ。
@@adenosin1rinsan自分の声での”カラオケの正解“ってのを知れるのか…?
どこかに公開したいとかではないけれど自分で時々「この曲、このアーティストや声優さんのバージョンで聞きたいな」と思う時があるのでこの技術をちゃんと理解して出来たらめっちゃ楽しそう
新しい動画嬉しい
前半チラ見せされるファイル名が草
私が何回かやってみたところでは十分も入らず、3分程度の音声データでも相当似たモノが出来ました…こりゃ末恐ろしいですな…あまりにも簡単にできてしまう
兄貴すげぇ...
サムネのマイク押し付けられてるずんだもん可愛い
ゲームのキャラのボイスデータを使ってAIに学習・歌唱させたものをTwitterに投稿する人が現れる→キャラの声優本人が「私は学習を許可してません」と引リツ→同じ作品の他キャラ声優(AI反対派)がブチギレ引リツ+投稿者に引リツを駆使しながら粘着→引リツの影響で事態を知る人が増え、動画が削除された後も鎮火せず大変なことに私の活動する界隈でもつい最近こういうことがあったから、悲しい思いをする人を出さないためにも、こうした技術を使うなら完全に個人で楽しむ範囲だけにとどめるのがベストなんだろうなって思う😢(残念ながらそうした生成物を公の場に出してしまう人は少なくない)一番の理想は声優や歌手の許可無く学習させないことだと思うけど・・・大変な時代になってしまったな。
まぁ本人が喋ってるかのように勘違いさせる感じじゃなければ...
@@スコーピオン-p1y 多くの声優さん達にとっての1番の問題は「自分の商売道具である【声】を勝手に模倣され、使われること」なんです(もちろん考えの違う声優さんはいるかもしれません)「これはAIで作りました!ご本人の実際の声ではありません!」と明記すれば良いということでもないのです・・・
いつも思うけど「学習の許可」ってなんなのかな。やってることは声真似と変わらずそれっぽい音が聞こえているだけやられたら言葉に表しにくいすごい嫌な気持ちになるのは分かる
@@やまきん-l6o 無断で学習されてしまった声優さんの実際の言葉として「とても不気味だ」というものがあったので、おっしゃるように、不快感を覚える声優さんは多いと思います。その「それっぽい音」を、本物が歌っていると錯覚してしまうクオリティに、誰でも簡単に出来てしまう事も問題の一つではないかと思います。本来なら「お金を払うので、この歌を歌ってください」となるはずなのに「この声優の既存の音声をAIに学習させれば無料でそれっぽく歌ってくれるから、声優にはお金払わなくて良いや」となってしまうんです。声優さんたちにとっては、たまったものじゃないでしょう。もし声優が正式にAI学習の許可を出すようなことがあれば「私の商売の邪魔をしても構わないよ!」と言ってるのとほぼ同義になってしまうので、本来であれば許可なんて出ないでしょうね・・・(そして人々も、許可なんて出ないと分かってるから勝手に学習させるんだと思います)長々失礼しました。
AIを使った事を隠して音MADって書いておけば炎上回避できそう。そう考えると音MADが黙認されていてAIが叩かれるのは謎。
2:54 おや?
ちょうど気になってたから助かる
この人すごい
Trainingのひとつ前のF0 METHOD=crape〜の段階で3時間くらいかかっててまだ終わらないんだけどこんなもんなのかな…(素材数365)
そこまで長くはならないはず…この部分に関係あるかはわからないけど、もし素材のフォーマットが44100Hz、Monoじゃなかったら一度フォーマットをそれにしてやり直してみてください。
わかりやすい動画をありがとうございます!よければDAWでミックスの方法についての解説やコツの動画も欲しいです!
凄ぇ!!
Trainで学習させるところまでは行ったんですけど、No dashboards are active for the current data set.と出てしまい、TensorBoardが動きません、、、どうしたら解決できますか?
全く同じです( ノД`)
あれ前回の動画見た時も気づかなかったけど姉貴兄貴だったんだこれ
すご、、、、、
5:10 GUIをインストールしてもファイルが開けないのですが、Windowsじゃないと利用できないのでしょうか?使ってる機種はMacBook Air M1です。
すげぇ!
凄くて素直に賞賛です。PCスペックがあればローカル版でもできますね、こっそりと楽しみます。
GitHubにcolabへ飛べる場所がないです
いきなり動かなくなって色々やってみたら動いたメモ▼実行環境Install dependenciesのコマンド内のpythonのバージョン変更%pip install ipython == 7.34.0エラー的にはバージョンが合わないらしい、、、▼アウトプット(ドライブのlogs)D_10000.pthまでしか作られない→train実行しても中途半端に止まる➡️ D_10000.pthを削除したら 動き始め、D_9000.pthあたりから加算されていった、、、☝️これはどっかに設定とかで制限してそう
とてもわかりやすい動画をありがとうございます。いくつか質問させてください。途中で止めた学習を別の日に再開する場合も、同じようにcolabの左側の再生ボタンを上から順に押していけば良いのですか……?また、ある程度学習したキャラクターに音源素材を追加したい場合はどうすれば良いのでしょうか…?最後に、複数キャラクターを作った場合、AIモデルの保存場所はどうなりますか……?
途中で止めた学習を再開する場合、また左側の再生ボタンを上から押す必要があります。素材を追加したい場合はキャラ名のフォルダーに入れておけば次ノートブックを起動した時、追加された素材も学習に取り組まれます。複数キャラクターを作る場合、私は完成したモデルを違うフォルダーに移動してから新しいキャラクターの学習を始めてる。
やっぱすげぇなぁ…
はえ~すっごい
はえーAIってすごいんすねぇ
解説たすかる
今so-vits-svc何でかダウンロードできない…
この動画を見て一通りモデルを作って変換するところまでできました!とてもわかりやすい解説をありがとうございます。素材について質問なのですが、ハモリやBGMの入っていない素材が好ましいとのことですが、ハモリやBGMなどが入っている素材があると最終的に変換の精度が落ちてしまうのでしょうか?
4:57 繰り返す時って、どこから再生ボタン押せばいいですか?
解説動画ありがとうございます!ある程度できるようにはなりましたが、最後の調整がなかなか難航してます…笑
人力でやると途方も無い時間と労力が掛かるのに今の技術はすげぇな
5:11 BADファイルダウンロードしようとすると信頼できること確認してって言われてできないんですがどうしたらダウンロードできますか?
うぽつ!
素晴らしい技術力の動画を本当にありがとうございます投稿からかなり時間がたってしまっているので質問はもう受け付けてらっしゃらないもしれませんが自分でやってみたところ4:42のTrainの部分で橙色のTensorBoardなるものがでてきたのですがこのままで問題はないのでしょうか? それとも残り何分みたいな表示は出ますか?是非教えていただけますと幸いです
よくわかってなくて申し訳ないんですが、tensorboardのオレンジの帯の右側にinactiveと出ているんですがこれは動いているのでしょうか?一応実行中にはなっていて、下のほうに謎のグラフのようなものがいくつか出ています。
歌のSVC、汎用性のRVC
これなんかInstall dependencies のとこでエラー吐くんだけどどうしたらいいんだろ
丁寧な解説ありがとうございます。とても助かっています。自分の環境だと似ても音痴になってしまうのですが対処法をご存じの方いらっしゃいますでしょうか……?
まじ楽しい
I think it sounds more Zundamon-y than NEUTRINO
なるほど
Use trained modelのところでエラーが起きるんですけどどうしたらいいですか?
わかりやすい解説動画助かります!質問なのですが学習元のデータファイルはモノラルでWAV形式であること以外になにか条件があるのでしょうか?ご教示いただけますと幸いですm(__)m
それで大丈夫だと思います
@@cecilia9274 ご返信ありがとうございます!
ブリムオンの囁きASMRお願いします
デジタル技術の驚異って奴ですな
uvr起動したときUnhandled exception in scriptって出ちゃう
なんかtrain押しても数秒で終わってしまい歌わせても何の声なのかだれの声なのかわからない状態になっています。これの対処法などあったら教えて頂きたいです
動画の手順通りにやってみて成功したのですが、2回ほど学習をさせてからtrainを押してもtensorboardというものが表示され5分ほどで学習?が止まってしまうようになってしまったのですが、似たような症状に陥った方いませんかね?
一回データを全て消して一からやり直したら解決しました。同じ問題で悩んでる人の役にたてれば幸いです
GUIのモデル選択をする時Browseを押すと予期せぬエラーでPythonが終了してしまうのですが、解決方法が分かる方いますか?😢使用PCはMacBook Air M1です
同じです😭
質問なのですがもしTrainを途中で中断して新しくTrainを始める場合、前のTrainの成果(記録)は受け継がれるのでしょうか?例えば6時間学習させようとしたけれども3時間でPCが落ちてしまい、学習が止まってしまったら1からやり直しになるのかということです。
RVCは引き継ぎませんがsvcは保存できるように設定できます
と思いましたがrvcにもconfigファイルがあるので出来るかもしれません今病に伏していて確認できません😭
@@Zab_n 何度か試してみたところ途中からでもGooglecolabの一番上(GPUチェック)からやったら進行状況は受け継がれました。6時間ぶっ通しじゃなくて隙間時間でちょこちょこやってもなんとかなりそうですね。
どうやってその設定をするのですか?教えてくれるとかなり助かりますm(_ _)m
@@ノイズ君-i5e svcの話ですか?
REAOERでの出力のことなんですがトラックごとに分けて一気に出力する方法がわからなくて困っているんですが設定など教えていただけないでしょうか・・・
出力(Render)画面の上のところ、SourceをMaster mixからStems (selected tracks)にすれば選択されたトラックをトラック別で出力できます。
@@cecilia9274 返信感謝いたします。どれを出力しているのかわからなくて困っていたので仕様がわかってすっきりしました、ありがとうございます!!
これって歌ってる素材と喋りの素材を混ぜて読み込ませてもいいんですかね?
素材が足りないときに逆再生したものや再生速度を弄ったモノを混ぜるとどうなっちゃうんだろう❔
試したことはないけど、変換された音声に違和感が生じると思います。
@@cecilia9274 なるほど…
試してみますね無事にモデルが完成するかはわかりませんが
なにを目指しているのか
最後まで見てから気が付いたけどネキニキやんけ
GUIファイルの開き方を教えてください
0:47 さりげなくある物w
これ歌じゃなくて喋らせることもできるんですかね??
セッションがクラッシュ?してしまいます。
2:57 yajuusenpai
リーパーで全トラック出力する方法がわからない
【至急】7:25秒のところの、inferの上にあるuse GPUが選択できないようになっているのですが、どうすればいいでしょうか?
多分あなたのpcにGPUがないからじゃないから
@@Sacabambispis あーそういうことなんですね!ありがとうございます!
Ultimate Vocal Removerを起動するとエラーが出ます。
質問なのですがボーカルを抽出すると雑音が少し入っていたりするのですが雑音が少ないけどはっきりしない音源と雑音が多いけどはっきり声が聞こえる音源どちらを学習させるときれいに変換できるようになるのでしょうか?
自分のGPUを使用する場合はどうしたらいいのか教えていただきたいです
うぽつ
Can you do an asmr of Delphox next plz?
主は歌上手いから自分で歌うという選択肢があるのか...ww
so vits svc forksのinterを押してからなんですけど5分間の音声はどのくらいで変換完了しますか?20分くらい待っても終わりそうになくて、、、なにか間違ってますかね
動画面白かったです!GPUがないので,RVCとSVCをなんとかクラウド上(paperspace)に環境を作ってやっているのですが,うまく歌わせるのがめっちゃ難しいです。音楽の知識が全くないのですが、SynthVやNEUTRINOで歌を作る場合には耳コピという技術?が必要みたいなのですがそれを作りやすくするソフトなどはありませんか?それとこの動画では複数のソフトが紹介されていますが、知識がない場合はどのソフトから始めれば良いなどはありますか?(一応UVR5とaudacityは少しだけ触りました)追記:お安めまたは無料のDAWがあれば教えてください!(動画のDAWは自分的には少し高かったです)GPUはGTX1650はありました(調べてたら必要だったので!)
耳コピが難しいのは、もし音程が分からないからでしたらwavetoneという分析ソフトをおすすめします。UVRでボーカルのみにして、その音源をwavetoneに通せば音程が出てきます。無料のDAWだとCakewalkとWaveform Freeがあります。あとREAPERは無料じゃないけど無料です。
@@cecilia9274 無料のdawかなりたくさんありますね!プラグインなども沢山あって難しそうですが、とりあえず触ってみます!
Install dependencies のところでエラーが発生して止まってるんですけどiPythonが7.34が必要ってログが出るんですけどこれってPythonで仮想環境を作らないといけないってことですか?
凄いです!
素材の切り分けをする時はDでアイテムの音量依存分割ってのをすると幸せになれると思うよ
googleplayの広告おまえだろ
よく原神の動画で歌わせる動画があるけど、ほとんど許可もらってないんだろうな。
Studio Oneはいいぞ
trainを押すとTensorBoardというのが表示されるんですがどうすればいいですか?
同じく
とても分かりやすい動画ありがとうございます!参考にさせて頂いております🙇♀️質問なのですが、2:50に5〜10秒の個別ファイルとあるのですが、短すぎる歌音源の素材は編集して5〜10秒にまとめてしまうのが良いのでしょうか?
それで良いと思います、自分もそうしてます。
@@cecilia9274 ありがとうございます!たくさん動画見ます!!
なんで素材を5~10sのファイルに分けるんですか?わかる方お願いします
これ清春でやったらどうなるんだろ
相変わらずの技術力流石すぎる…
すべての工程をさらっとやってるけど地力があってこそだよね。流石です!
可愛い…。そして想像よりも人力で作られているんですね。
今まで裏でこっそり解説動画作ってた?動画凄い見やすいもん。
ずんだもん気まぐれロマンティック可愛すぎる❤❤❤❤
もっと聴きたいです😻
この面倒な作業が全部やってあるモデルがboothとかで売られてるけど、ずんだもんや声優の著作権を侵害してるからぜっっったいに買っちゃダメだぞ!
ライブラリだけはこちら側で保持しないといかんのですよ
著作権問題のない自作モデルもあるっぽいのでそれはOKのはず
手順簡易化パッチとかがあるといいんだがな
作るしかないか…
米主のお兄さん感好き
声優の著作権とは何を指しているのでしょうか?声優のような特定の個人の声という概念に肖像権のような法的権利があるとは聞いたことが無いですし、人間の声が学習元であってもAIが生成したものであれば著作権は認められていません。せめて「声優、もしくは声優の所属する事務所に精神的苦痛で訴訟される可能性」であればまだ分かるのですが。
凄すぎでしょ…。自然すぎる
予想以上ですげぇ…マジですげぇよ…
なんて丁寧で親切な動画なんだ、、ceciliaネキ素晴らしすぎる。。
8:05 「まち」の「ち」にニキネキを感じる気がするんだけどこれも変換前はニキネキかな?
そこで気づくのかw
0:46 「喘ぎ声」を私は見逃さなかったぞ。
せしりああねきあにきのあえぎごえまだ?
おまえがみてるどうがはなんだ?
おまえがつくるんだよ
多才すぎて羨ましい
おかげさまで推しに歌わせることができました!!感無量です!個人で楽しみまくりたいと思います!ありがとうございます!!
逆にCecilia姉貴兄貴が出来ない事って一体…何?
性交渉
@@つばさみらい草
バキバキ
@@つばさみらい勝手に童貞にされてて草
@@つばさみらい頑張れば成功できる
この技術は分かりづらいくらいがちょうど良い…
人間の形をした猿に見つかればこの学習を必ず悪用するに違いない
技術自体は本当に素晴らしいのだが
きっと1年とたたずパッケージ化され、ドラッグ&ドロップでできるようになる
翻訳前の聖書かな?
手遅れ定期
「人間の形をした猿」?AI絵師に粘着誹謗中傷してるAIアンチさんの事かな😅😅
???)私に従え。猿ども、、
すごすぎる!!推します!!!
ずんだもん気まぐれロマンティック、フルであげてほしい・・・
この動画のお陰で好きなキャラに歌わせる事が出来るようになりました!とても丁寧で分かり易かったです!ありがとうございます!
たすかる!じっくりみます
これって自分の声学習させたらめちゃ歌上手い自分が生成されるってこと?!
自分の声質がその歌に向いてるかどうかでうまく聞こえるかは変わるけど、聞けるレベルにはなる。いわば音程合わせだからカラオケ上手い人みたいな感じ。
@@adenosin1rinsan自分の声での”カラオケの正解“ってのを知れるのか…?
どこかに公開したいとかではないけれど自分で時々「この曲、このアーティストや声優さんのバージョンで聞きたいな」と思う時があるのでこの技術をちゃんと理解して出来たらめっちゃ楽しそう
新しい動画嬉しい
前半チラ見せされるファイル名が草
私が何回かやってみたところでは十分も入らず、3分程度の音声データでも相当似たモノが出来ました…
こりゃ末恐ろしいですな…あまりにも簡単にできてしまう
兄貴すげぇ...
サムネのマイク押し付けられてるずんだもん可愛い
ゲームのキャラのボイスデータを使ってAIに学習・歌唱させたものをTwitterに投稿する人が現れる→キャラの声優本人が「私は学習を許可してません」と引リツ→同じ作品の他キャラ声優(AI反対派)がブチギレ引リツ+投稿者に引リツを駆使しながら粘着→引リツの影響で事態を知る人が増え、動画が削除された後も鎮火せず大変なことに
私の活動する界隈でもつい最近こういうことがあったから、悲しい思いをする人を出さないためにも、こうした技術を使うなら完全に個人で楽しむ範囲だけにとどめるのがベストなんだろうなって思う😢(残念ながらそうした生成物を公の場に出してしまう人は少なくない)
一番の理想は声優や歌手の許可無く学習させないことだと思うけど・・・大変な時代になってしまったな。
まぁ本人が喋ってるかのように勘違いさせる感じじゃなければ...
@@スコーピオン-p1y 多くの声優さん達にとっての1番の問題は「自分の商売道具である【声】を勝手に模倣され、使われること」なんです(もちろん考えの違う声優さんはいるかもしれません)
「これはAIで作りました!ご本人の実際の声ではありません!」と明記すれば良いということでもないのです・・・
いつも思うけど「学習の許可」ってなんなのかな。やってることは声真似と変わらずそれっぽい音が聞こえているだけ
やられたら言葉に表しにくいすごい嫌な気持ちになるのは分かる
@@やまきん-l6o 無断で学習されてしまった声優さんの実際の言葉として「とても不気味だ」というものがあったので、おっしゃるように、不快感を覚える声優さんは多いと思います。
その「それっぽい音」を、本物が歌っていると錯覚してしまうクオリティに、誰でも簡単に出来てしまう事も問題の一つではないかと思います。
本来なら「お金を払うので、この歌を歌ってください」となるはずなのに「この声優の既存の音声をAIに学習させれば無料でそれっぽく歌ってくれるから、声優にはお金払わなくて良いや」となってしまうんです。声優さんたちにとっては、たまったものじゃないでしょう。
もし声優が正式にAI学習の許可を出すようなことがあれば「私の商売の邪魔をしても構わないよ!」と言ってるのとほぼ同義になってしまうので、本来であれば許可なんて出ないでしょうね・・・(そして人々も、許可なんて出ないと分かってるから勝手に学習させるんだと思います)
長々失礼しました。
AIを使った事を隠して
音MADって書いておけば炎上回避できそう。
そう考えると音MADが黙認されていてAIが叩かれるのは謎。
2:54 おや?
ちょうど気になってたから助かる
この人すごい
Trainingのひとつ前のF0 METHOD=crape〜の段階で3時間くらいかかっててまだ終わらないんだけどこんなもんなのかな…(素材数365)
そこまで長くはならないはず…
この部分に関係あるかはわからないけど、もし素材のフォーマットが44100Hz、Monoじゃなかったら一度フォーマットをそれにしてやり直してみてください。
わかりやすい動画をありがとうございます!
よければDAWでミックスの方法についての解説やコツの動画も欲しいです!
凄ぇ!!
Trainで学習させるところまでは行ったんですけど、
No dashboards are active for the current data set.
と出てしまい、TensorBoardが動きません、、、どうしたら解決できますか?
全く同じです( ノД`)
あれ前回の動画見た時も気づかなかったけど姉貴兄貴だったんだこれ
すご、、、、、
5:10 GUIをインストールしてもファイルが開けないのですが、Windowsじゃないと利用できないのでしょうか?使ってる機種はMacBook Air M1です。
すげぇ!
凄くて素直に賞賛です。PCスペックがあればローカル版でもできますね、こっそりと楽しみます。
GitHubにcolabへ飛べる場所がないです
いきなり動かなくなって
色々やってみたら動いたメモ
▼実行環境
Install dependenciesのコマンド内のpythonのバージョン変更
%pip install ipython == 7.34.0
エラー的にはバージョンが合わないらしい、、、
▼アウトプット(ドライブのlogs)
D_10000.pthまでしか作られない
→train実行しても中途半端に止まる
➡️ D_10000.pthを削除したら
動き始め、D_9000.pthあたりから加算されていった、、、
☝️これはどっかに設定とかで制限してそう
とてもわかりやすい動画をありがとうございます。いくつか質問させてください。
途中で止めた学習を別の日に再開する場合も、同じようにcolabの左側の再生ボタンを上から順に押していけば良いのですか……?
また、ある程度学習したキャラクターに音源素材を追加したい場合はどうすれば良いのでしょうか…?
最後に、複数キャラクターを作った場合、AIモデルの保存場所はどうなりますか……?
途中で止めた学習を再開する場合、また左側の再生ボタンを上から押す必要があります。素材を追加したい場合はキャラ名のフォルダーに入れておけば次ノートブックを起動した時、追加された素材も学習に取り組まれます。複数キャラクターを作る場合、私は完成したモデルを違うフォルダーに移動してから新しいキャラクターの学習を始めてる。
やっぱすげぇなぁ…
はえ~すっごい
はえーAIってすごいんすねぇ
解説たすかる
今so-vits-svc何でかダウンロードできない…
この動画を見て一通りモデルを作って変換するところまでできました!
とてもわかりやすい解説をありがとうございます。
素材について質問なのですが、ハモリやBGMの入っていない素材が好ましいとのことですが、
ハモリやBGMなどが入っている素材があると最終的に変換の精度が落ちてしまうのでしょうか?
4:57
繰り返す時って、どこから再生ボタン押せばいいですか?
解説動画ありがとうございます!ある程度できるようにはなりましたが、最後の調整がなかなか難航してます…笑
人力でやると途方も無い時間と労力が掛かるのに今の技術はすげぇな
5:11 BADファイルダウンロードしようとすると信頼できること確認してって言われてできないんですがどうしたらダウンロードできますか?
うぽつ!
素晴らしい技術力の動画を本当にありがとうございます
投稿からかなり時間がたってしまっているので質問はもう受け付けてらっしゃらないもしれませんが自分でやってみたところ4:42のTrainの部分で橙色のTensorBoardなるものがでてきたのですがこのままで問題はないのでしょうか? それとも残り何分みたいな表示は出ますか?
是非教えていただけますと幸いです
よくわかってなくて申し訳ないんですが、tensorboardのオレンジの帯の右側にinactiveと出ているんですがこれは動いているのでしょうか?一応実行中にはなっていて、下のほうに謎のグラフのようなものがいくつか出ています。
歌のSVC、汎用性のRVC
これなんか
Install dependencies のとこでエラー吐くんだけどどうしたらいいんだろ
丁寧な解説ありがとうございます。とても助かっています。
自分の環境だと似ても音痴になってしまうのですが対処法をご存じの方いらっしゃいますでしょうか……?
まじ楽しい
I think it sounds more Zundamon-y than NEUTRINO
なるほど
Use trained modelのところでエラーが起きるんですけどどうしたらいいですか?
わかりやすい解説動画助かります!
質問なのですが学習元のデータファイルはモノラルでWAV形式であること以外になにか条件があるのでしょうか?ご教示いただけますと幸いですm(__)m
それで大丈夫だと思います
@@cecilia9274 ご返信ありがとうございます!
ブリムオンの囁きASMRお願いします
デジタル技術の驚異って奴ですな
uvr起動したときUnhandled exception in scriptって出ちゃう
なんかtrain押しても数秒で終わってしまい歌わせても何の声なのかだれの声なのかわからない状態になっています。
これの対処法などあったら教えて頂きたいです
動画の手順通りにやってみて成功したのですが、2回ほど学習をさせてからtrainを押してもtensorboardというものが表示され5分ほどで学習?が止まってしまうようになってしまったのですが、似たような症状に陥った方いませんかね?
一回データを全て消して一からやり直したら解決しました。
同じ問題で悩んでる人の役にたてれば幸いです
GUIのモデル選択をする時Browseを押すと予期せぬエラーでPythonが終了してしまうのですが、解決方法が分かる方いますか?😢
使用PCはMacBook Air M1です
同じです😭
質問なのですがもしTrainを途中で中断して新しくTrainを始める場合、前のTrainの成果(記録)は受け継がれるのでしょうか?例えば6時間学習させようとしたけれども3時間でPCが落ちてしまい、学習が止まってしまったら1からやり直しになるのかということです。
RVCは引き継ぎませんがsvcは保存できるように設定できます
と思いましたがrvcにもconfigファイルがあるので出来るかもしれません
今病に伏していて確認できません😭
@@Zab_n 何度か試してみたところ途中からでもGooglecolabの一番上(GPUチェック)からやったら進行状況は受け継がれました。6時間ぶっ通しじゃなくて隙間時間でちょこちょこやってもなんとかなりそうですね。
どうやってその設定をするのですか?教えてくれるとかなり助かりますm(_ _)m
@@ノイズ君-i5e svcの話ですか?
REAOERでの出力のことなんですがトラックごとに分けて一気に出力する方法がわからなくて困っているんですが設定など教えていただけないでしょうか・・・
出力(Render)画面の上のところ、SourceをMaster mixからStems (selected tracks)にすれば選択されたトラックをトラック別で出力できます。
@@cecilia9274 返信感謝いたします。どれを出力しているのかわからなくて困っていたので仕様がわかってすっきりしました、ありがとうございます!!
これって歌ってる素材と喋りの素材を混ぜて読み込ませてもいいんですかね?
素材が足りないときに逆再生したものや再生速度を弄ったモノを混ぜるとどうなっちゃうんだろう❔
試したことはないけど、変換された音声に違和感が生じると思います。
@@cecilia9274 なるほど…
試してみますね
無事にモデルが完成するかはわかりませんが
なにを目指しているのか
最後まで見てから気が付いたけどネキニキやんけ
GUIファイルの開き方を教えてください
0:47 さりげなくある物w
これ歌じゃなくて喋らせることもできるんですかね??
セッションがクラッシュ?してしまいます。
2:57 yajuusenpai
リーパーで全トラック出力する方法がわからない
【至急】7:25秒のところの、inferの上にあるuse GPUが選択できないようになっているのですが、どうすればいいでしょうか?
多分あなたのpcにGPUがないからじゃないから
@@Sacabambispis あーそういうことなんですね!ありがとうございます!
Ultimate Vocal Removerを起動するとエラーが出ます。
質問なのですがボーカルを抽出すると雑音が少し入っていたりするのですが雑音が少ないけどはっきりしない音源と雑音が多いけどはっきり声が聞こえる音源どちらを学習させるときれいに変換できるようになるのでしょうか?
自分のGPUを使用する場合はどうしたらいいのか教えていただきたいです
うぽつ
Can you do an asmr of Delphox next plz?
主は歌上手いから自分で歌うという選択肢があるのか...ww
so vits svc forksのinterを押してからなんですけど
5分間の音声はどのくらいで変換完了しますか?
20分くらい待っても終わりそうになくて、、、なにか間違ってますかね
動画面白かったです!
GPUがないので,RVCとSVCをなんとかクラウド上(paperspace)に環境を作ってやっているのですが,
うまく歌わせるのがめっちゃ難しいです。
音楽の知識が全くないのですが、SynthVや
NEUTRINOで歌を作る場合には耳コピという技術?が必要みたいなのですが
それを作りやすくするソフトなどはありませんか?
それとこの動画では複数のソフトが紹介されていますが、知識がない場合はどのソフトから始めれば良いなどはありますか?
(一応UVR5とaudacityは少しだけ触りました)
追記:
お安めまたは無料のDAWがあれば教えてください!(動画のDAWは自分的には少し高かったです)
GPUはGTX1650はありました(調べてたら必要だったので!)
耳コピが難しいのは、もし音程が分からないからでしたらwavetoneという分析ソフトをおすすめします。UVRでボーカルのみにして、その音源をwavetoneに通せば音程が出てきます。
無料のDAWだとCakewalkとWaveform Freeがあります。あとREAPERは無料じゃないけど無料です。
@@cecilia9274 無料のdawかなりたくさんありますね!プラグインなども沢山あって
難しそうですが、とりあえず触ってみます!
Install dependencies のところでエラーが発生して止まってるんですけど
iPythonが7.34が必要ってログが出るんですけどこれってPythonで仮想環境を作らないといけないってことですか?
凄いです!
素材の切り分けをする時はDでアイテムの音量依存分割ってのをすると幸せになれると思うよ
googleplayの広告おまえだろ
よく原神の動画で歌わせる動画があるけど、ほとんど許可もらってないんだろうな。
Studio Oneはいいぞ
trainを押すとTensorBoardというのが表示されるんですがどうすればいいですか?
同じく
とても分かりやすい動画ありがとうございます!参考にさせて頂いております🙇♀️
質問なのですが、2:50に5〜10秒の個別ファイルとあるのですが、短すぎる歌音源の素材は編集して5〜10秒にまとめてしまうのが良いのでしょうか?
それで良いと思います、自分もそうしてます。
@@cecilia9274 ありがとうございます!
たくさん動画見ます!!
なんで素材を5~10sのファイルに分けるんですか?わかる方お願いします
これ清春でやったらどうなるんだろ