#047

Поділитися
Вставка
  • Опубліковано 7 лип 2023
  • Обещанный второй выпуск с Татьяной Гайнцевой - PhD-студенткой Лондонского университета королевы Марии, ex-AI researcher в Philips, Huawei, преподавателем в Deep Learning School, ШАД, МГУ, а также в некоторых образовательных проектах. В этот раз Татьяна рассказала о своей научной работе. О том, как она выбирала тему, чтобы это было интересно и немного остраненно от других исследователей, почему за последние полгода она решила подкорректировать тему исследования, о том, какие исследования проводят крупнейшие компании из области ИИ и как это пересекается с ее научной работой. Ну, а также пообщались на горячую тему что же делать копирайтерам, если уже сейчас ChatGPT, в среднем, пишет тексты лучше, чем средний копирайтер.
    Ссылки выпуска:
    Телеграм-канал Татьяны DLStories | Нейронные сети и ИИ (t.me/dl_stories)
    Подкаст, Татьяны Deep Learning Stories (music.yandex.ru/album/17951713)
    Телеграм-канал эйай ньюз (t.me/ai_newz)
    Выпуск подкаста на mawe - mlpodcast.mave.digital/ep-47
    Все выпуски подкаста на mawe - mlpodcast.mave.digital
    Подкаст на Apple Podcasts - podcasts.apple.com/ru/podcast...
    Подкаст на Google Подкастах - podcasts.google.com/feed/aHR0...
    Подкаст в Яндекс Музыке - music.yandex.ru/album/9781458
    Паблик подкаста ВКонтакте - mlpodcast
    Телеграм-канал "Стать специалистом по машинному обучению" - t.me/toBeAnMLspecialist
    Чат в телеграм, где можно обсудить выпуски, предложить гостей и темы подкаста и просто пообщаться (t.me/MachineLearningPodcast)
    Телеграм автора подкаста - @kmsint
    Бесплатный курс по созданию телеграм-ботов на Python и aiogram от автора подкаста - stepik.org/course/120924/
    Поблагодарить автора подкаста можно добрым словом и/или донатом: www.tinkoff.ru/rm/kryzhanovsk...

КОМЕНТАРІ • 3

  • @Ghost_Paladin
    @Ghost_Paladin 9 місяців тому +1

    Разносторонние выпуски. Спасибо за труд)

  • @Alex-if6mv
    @Alex-if6mv 9 місяців тому +1

    Супер, спасибо

  • @RuminRoman
    @RuminRoman 5 місяців тому

    Ты сказала:
    "от лобной доли запрещающие сигналы древнему мозгу".
    Аттеншн в трансформере тоже приглушает лишнюю информацию, выкидывает.
    Слово "запрещает" наверное не совсем правильное. Просто внимание это как раз о том, чтобы фокусироваться на важном путем приглушения неважного. В нейрофизиологии еще используют термины "возбуждение" и "торможение" (типа плюсовое внимание и минусовое внимание) -- наверное под "запрещением" тут имеется ввиду "торможение".