Розмір відео: 1280 X 720853 X 480640 X 360
Показувати елементи керування програвачем
Автоматичне відтворення
Автоповтор
この動画を作ってありがとうございます。期末試験のために形態素解析プロジェクトを作ります。テクニックの説明はわかりやすかった。本当に勉強になりました!
楽しく勉強しています。このような素晴らしい動画が無料で見れる時代に生まれてよかった!
そう言ってもらえて嬉しいです!😆
ノック形式、すべて見させていただきました。全然 知識のないわたしでも、ある程度 何を説明しているのかがわかります。本当にわかりやすいです!ありがとうございます!!これからもノック形式や他の動画、よろしくお願いいたします。
コメントありがとうございます😊そのようにおっしゃっていただき非常に嬉しいです!!!
自然言語処理を学習している者です。いまにゅ先生の教え方はもちろんのことですが、とても頼もしくお人柄も良いので、ますますファンになりました!自然言語処理でまた何か特集やってくださることを期待しています!
ありがとうございます!!!!そのようにおっしゃっていただき嬉しいです!
いつもいい動画をありがとうございます。要領よいテンポの良いご解説、心地よく頭に入ってきて助かります。高校授業などこれまで以上にPYTHONを学ぶ人々が増えるような話も聞きますので、いまにゅ先生のような方のご活躍の場も更に広がっていくのではと、、応援しております。
ありがとうございます!!🙇♂️
ノック形式!!楽しみにしてましたありがとうございます!
ありがとうございます😭
単語ベクトルのとこでもうワクワクが止まりませんでした。
この動画がきっかけでチャンネル登録しました。友人にも勧めます。
ありがとうございます!!
すごい筋肉だ💪
週2,3で筋トレしてます!!!笑
とても参考になりました!
参考になったようで良かったです!!こちらこそご視聴いただきありがとうございます!!!!!!
現在大学で自然言語処理に関しての研究を行っていて、この動画を参考にさせていただいています。とてもわかりやすく助けになっております。ありがとうございます!やっている中で、わからない所があるので質問させていただました。単語ベクトルの読み込みのmodel = のコードのところでOSerrorが出てしまうんですが、解決方法などわかったりしますでしょうか??
いまにゅさんこんにちわ。とてもわかりやすく参考になります。現在15 単語ベクトルの読み込みまで実践しているのですが、model = KeyedVectors.load_word2vec_formatのところでValueError: not enough values to unpack (expected 2, got 0)となってしまいます。概要欄の使用したコードでも実行してみたのですが、同様のエラーが発生したのですが解決策を教えて欲しいです。
勉強になる~!
いつもコメントありがとうございます!!勉強になったようで良かったです!!!
とてもわかりやすく、考えるべきポイントもしっかり抑えられているので勉強になります!動画が長い&喋るのが早いので見逃してしまった部分を探すのが面倒、、、。そこで、再生スピードを0.75にしています。巻き戻すのもすこし楽になった気がします!
コメントありがとうございます!!しゃべるの早くてすいません、、、動画時間を少しでも短くしようと若干早めに話してます。。。!!
model = のコードのところでOSerrorが出る件ですが、tmpの下に空のcookies.txtを置くと解消されました。理由はわかりません。
MecabはC#で使ったことがあるのですが、単語ベクトルについては知らなかったのでやってみました。英語ではなく日本語でもできるだろうと思ってやっていたところ、メモリーが足りなくなったのか落ちました。英語だとそんなに負荷はかからないようですが、日本語だと厳しそうです。
MeCabよりginzaがトレンドという記事を見かけたのですが、実際のところどうなんでしょう?いまのところ、ginza推しの記事はだいたいMeCabより良いでゴンスって書いてる気がします。ヒャダルコとベギラマのような、時と場合に応じて使い分けるものなのか、メラミとベギラゴンのような、だいたい後者が良いけど燃費を考えると前者が輝くときもある、みたいな感じなのか。
ginzaというのを使用したことがないのですが、どちらでも問題ないとは思います!少し前までのデファクトスタンダードはMeCabだったとおもうので、記事数等を考えるとMeCabを使用したほうが諸々すすめやすいかもしれませんが!
自然言語処理を学習中です。2020年自然言語処理のngramにおいて「return list(zip(*[lst[i:] for i in range(n)]))」という回答をされている方がいらっしゃいました。いろいろ調べてみたのですが、「zip(*...)」の理解が及びません。すとんと落ちるようなご説明があればとても助かります!何卒よろしくお願いいたします。
lambdaやってください
検討します!
2023年7月28日時点にて、私のAnacondaにインストールされたgensimのバージョンが4.3.0であることから、同様に上手くいかない方のために、調べてみました。なお、20については、bhtsneインストールができないので諦めました。19. k-meansでクラスタリングvocab = list(model.wv.vocab.keys())[:max_vocab] → vocab = list(model.key_to_index)[:max_vocab]※gensimの4.3.0では既にwv.vocabというメソッドが廃止されたらしく、key_to_indexを使え、とありましたkmeans_model = KMeans(n_clusters=n_clusters, verbose=1, random_state=42, n_jobs=-1) →kmeans_model = KMeans(n_clusters=n_clusters, verbose=1, random_state=42)※n_jobsというオプションも廃止されたようなので、削除しましたこれで19はうまく表示されました。
ありがたい動画だとは思います。ありがとうございます。しかし、”しっかり”って発言をやめてくれたらもっとみるのになと思っています。理解するのにいらない情報だし、しっかりって何がいいたいかわからないので。いらいらして集中できなくなります。ほかにこう思う人いないのかな?
N-gram 関数化間違ってますよ笑-n-1 じゃなくて-(n-1)です
あれ、すいません、間違ってましたね、、、ご指摘ありがとうございます!!
全くわかりません。
WindowsにおけるMeCab使用時のErrorについて: github.com/SamuraiT/mecab-python3/issues/54
自然言語処理でアンケートの分類をしてくれと頼まれたので、 急いで勉強中。 めっちゃありがたい・・全然どうでもいいけど、 japanize_matplotlib って ジャパナイズ(日本語にする 的な意味)だと思ってる。
この動画を作ってありがとうございます。期末試験のために形態素解析プロジェクトを作ります。テクニックの説明はわかりやすかった。本当に勉強になりました!
楽しく勉強しています。このような素晴らしい動画が無料で見れる時代に生まれてよかった!
そう言ってもらえて嬉しいです!😆
ノック形式、すべて見させていただきました。
全然 知識のないわたしでも、ある程度 何を説明しているのかがわかります。
本当にわかりやすいです!
ありがとうございます!!
これからもノック形式や他の動画、よろしくお願いいたします。
コメントありがとうございます😊
そのようにおっしゃっていただき非常に嬉しいです!!!
自然言語処理を学習している者です。
いまにゅ先生の教え方はもちろんのことですが、とても頼もしくお人柄も良いので、ますますファンになりました!
自然言語処理でまた何か特集やってくださることを期待しています!
ありがとうございます!!!!
そのようにおっしゃっていただき嬉しいです!
いつもいい動画をありがとうございます。要領よいテンポの良いご解説、心地よく頭に入ってきて助かります。高校授業などこれまで以上にPYTHONを学ぶ人々が増えるような話も聞きますので、いまにゅ先生のような方のご活躍の場も更に広がっていくのではと、、応援しております。
ありがとうございます!!🙇♂️
ノック形式!!
楽しみにしてました
ありがとうございます!
ありがとうございます😭
単語ベクトルのとこでもうワクワクが止まりませんでした。
この動画がきっかけでチャンネル登録しました。友人にも勧めます。
ありがとうございます!!
すごい筋肉だ💪
週2,3で筋トレしてます!!!笑
とても参考になりました!
参考になったようで良かったです!!
こちらこそご視聴いただきありがとうございます!!!!!!
現在大学で自然言語処理に関しての研究を行っていて、この動画を参考にさせていただいています。とてもわかりやすく助けになっております。ありがとうございます!
やっている中で、わからない所があるので質問させていただました。
単語ベクトルの読み込みのmodel = のコードのところでOSerrorが出てしまうんですが、解決方法などわかったりしますでしょうか??
いまにゅさんこんにちわ。とてもわかりやすく参考になります。
現在15 単語ベクトルの読み込みまで実践しているのですが、model = KeyedVectors.load_word2vec_formatのところで
ValueError: not enough values to unpack (expected 2, got 0)
となってしまいます。概要欄の使用したコードでも実行してみたのですが、同様のエラーが発生したのですが
解決策を教えて欲しいです。
勉強になる~!
いつもコメントありがとうございます!!
勉強になったようで良かったです!!!
とてもわかりやすく、考えるべきポイントもしっかり抑えられているので勉強になります!
動画が長い&喋るのが早いので見逃してしまった部分を探すのが面倒、、、。
そこで、再生スピードを0.75にしています。
巻き戻すのもすこし楽になった気がします!
コメントありがとうございます!!
しゃべるの早くてすいません、、、
動画時間を少しでも短くしようと若干早めに話してます。。。!!
model = のコードのところでOSerrorが出る件ですが、tmpの下に空のcookies.txtを置くと解消されました。理由はわかりません。
MecabはC#で使ったことがあるのですが、単語ベクトルについては知らなかったのでやってみました。英語ではなく日本語でもできるだろうと思ってやっていたところ、メモリーが足りなくなったのか落ちました。英語だとそんなに負荷はかからないようですが、日本語だと厳しそうです。
MeCabよりginzaがトレンドという記事を見かけたのですが、実際のところどうなんでしょう?
いまのところ、ginza推しの記事はだいたいMeCabより良いでゴンスって書いてる気がします。
ヒャダルコとベギラマのような、時と場合に応じて使い分けるものなのか、メラミとベギラゴンのような、だいたい後者が良いけど燃費を考えると前者が輝くときもある、みたいな感じなのか。
ginzaというのを使用したことがないのですが、どちらでも問題ないとは思います!
少し前までのデファクトスタンダードはMeCabだったとおもうので、記事数等を考えるとMeCabを使用したほうが諸々すすめやすいかもしれませんが!
自然言語処理を学習中です。
2020年自然言語処理のngramにおいて「return list(zip(*[lst[i:] for i in range(n)]))」という回答をされている方がいらっしゃいました。
いろいろ調べてみたのですが、「zip(*...)」の理解が及びません。
すとんと落ちるようなご説明があればとても助かります!
何卒よろしくお願いいたします。
lambdaやってください
検討します!
2023年7月28日時点にて、私のAnacondaにインストールされたgensimのバージョンが4.3.0であることから、同様に上手くいかない方のために、調べてみました。
なお、20については、bhtsneインストールができないので諦めました。
19. k-meansでクラスタリング
vocab = list(model.wv.vocab.keys())[:max_vocab] → vocab = list(model.key_to_index)[:max_vocab]
※gensimの4.3.0では既にwv.vocabというメソッドが廃止されたらしく、key_to_indexを使え、とありました
kmeans_model = KMeans(n_clusters=n_clusters, verbose=1, random_state=42, n_jobs=-1) →kmeans_model = KMeans(n_clusters=n_clusters, verbose=1, random_state=42)
※n_jobsというオプションも廃止されたようなので、削除しました
これで19はうまく表示されました。
ありがたい動画だとは思います。ありがとうございます。
しかし、”しっかり”って発言をやめてくれたらもっとみるのになと思っています。
理解するのにいらない情報だし、しっかりって何がいいたいかわからないので。いらいらして集中できなくなります。
ほかにこう思う人いないのかな?
N-gram 関数化間違ってますよ笑
-n-1 じゃなくて-(n-1)です
あれ、すいません、間違ってましたね、、、
ご指摘ありがとうございます!!
全くわかりません。
WindowsにおけるMeCab使用時のErrorについて: github.com/SamuraiT/mecab-python3/issues/54
自然言語処理でアンケートの分類をしてくれと頼まれたので、 急いで勉強中。 めっちゃありがたい・・
全然どうでもいいけど、 japanize_matplotlib って ジャパナイズ(日本語にする 的な意味)だと思ってる。