Предварительно обученные word embeddings | Обработка естественного языка

Поділитися
Вставка
  • Опубліковано 31 тра 2024
  • Word2Vec, fastText и Navec на Python: используем предварительно обученные плотные векторные представления слов.
    00:00 - Word2Vec в библиотеке Gensim
    06:00 - Библиотека fastText
    09:53 - Библиотека Navec
    Colab ноутбук из видео - colab.research.google.com/dri...
    Библиотека Gensim - radimrehurek.com/gensim/index...
    Библиотека fastText - fasttext.cc/
    Предварительно обученные векторные представления для 157 языков - fasttext.cc/docs/en/crawl-vec...
    Библиотека navec - natasha.github.io/navec/
    Проект реализуется победителем Конкурса на предоставление грантов преподавателям магистратуры благотворительной программы "Стипендиальная программа Владимира Потанина" Благотворительного фонда Владимира Потанина"
    вКонтакте - avsozykin
    telegram - t.me/a_sozykin
    Мой сайт - www.asozykin.ru
    Мой канал с краткими и понятными объяснениями сложных тем в ИТ и компьютерных науках - / andreysozykincs
  • Наука та технологія

КОМЕНТАРІ • 12

  • @googleadmin4749
    @googleadmin4749 Рік тому +1

    Прикольно, это я вовремя пришел, думал эти ролики давно были на канале.
    Наверняка автор использует ИИ для анализа комментариев )

    • @AndreySozykin
      @AndreySozykin  Рік тому

      Пока не использую. Но тема интересная, надо пробовать 😉

  • @googleadmin4749
    @googleadmin4749 Рік тому +1

    Имею опыт в программировании но нет опыта в машинном обучении, с ходу смотрел плейлист, показалось немного не ясным момент построения разных моделей те что плотные, но наверное потому что не очень внимательно смотрел, планирую все повторить.

    • @AndreySozykin
      @AndreySozykin  Рік тому

      Эта действительно очень сложная тема. В одном видео все подробности не рассказать, только основные идеи.

  • @googleadmin4749
    @googleadmin4749 Рік тому +1

    Спасибо, материал толковый

  • @user-co7wd3cv4x
    @user-co7wd3cv4x Рік тому +2

    В библиотеке "Наташа" нет вектора для "Илиасова" 😀

  • @brayaka1418
    @brayaka1418 Рік тому +1

    Для чего это добро вообще нужно? В общих чертах

    • @AndreySozykin
      @AndreySozykin  Рік тому +1

      Это подготовка текста к анализу с помощью нейронных сетей. Нейронные сети не могут работать напрямую с текстом, нужно переводить текст в цифровое представление. embedding как раз хорошее цифровое представление, на котором нейронки показывают качественные результаты.
      Как это делается, мы рассмотрим дальше в курсе.

    • @user-co7wd3cv4x
      @user-co7wd3cv4x Рік тому +1

      Чтобы ChatGPT и подобные лишали людей работы, очевидно же 😀

    • @brayaka1418
      @brayaka1418 Рік тому

      @@user-co7wd3cv4x ааа, ну так еще даже понятнее)))