[핵심 머신러닝] 로지스틱회귀모델 1 (로지스틱함수, 승산)

Поділитися
Вставка
  • Опубліковано 13 жов 2024
  • 로지스틱 회귀모델의 기본 개념, 로지스틱 함수, 승산 (Odds)에 대해 설명합니다.

КОМЕНТАРІ • 31

  • @SteveKim-t9i
    @SteveKim-t9i 4 роки тому +2

    정말 양질의 강의 감사드립니다. 제 머리에 흩어져있던 모든 개념들이 퍼즐 맞춰지듯이 정리가 되네요. 좋은 강의력에 깔끔한 시각화까지 더해져 군더더기가 없었던 것 같습니다 감사합니다~!~!

    • @SteveKim-t9i
      @SteveKim-t9i 4 роки тому

      하루만에 1강부터 랜덤포레스트까지 전부 시청해버렸습니다. 이번 학기에 딥러닝 수강하고 있는데 큰 그림 잡는 데에 정말정말 좋은 강의인 것 같네요 다시 한 번 감사드립니다

    • @김성범교수산업경영공
      @김성범교수산업경영공  4 роки тому +1

      감사합니다!

  • @minimini4542
    @minimini4542 Рік тому

    승산 개념이 잘 이해가 되지않았었는데 영상이 도움되었습니다. 감사합니다!

  • @르누알
    @르누알 3 роки тому

    이렇게 완벽한 강의를 ㅠㅠ 정말 돈주고도 못듣는 강의를 해주셔서 감사드려요!

  • @나그네-v1y
    @나그네-v1y 5 місяців тому

    이런 영상은 이과생들이 꼭 알아야 할 지식이다..

  • @lillllilliiilllj
    @lillllilliiilllj 5 років тому +1

    늦깍이로 경제학 석사과정에서 공부중입니다. 매우 도움이 되어 감사합니다

  • @gt4065b
    @gt4065b 5 років тому +2

    Thank you so much for this lecture~~ Great Lecture~ Loved it~

  • @MZ-pj4eq
    @MZ-pj4eq 3 роки тому +1

    교수님, 강의 감사합니다!!

  • @미국비버
    @미국비버 5 років тому +1

    좋은 강의 감사합니다

  • @Bulgogi_Haxen
    @Bulgogi_Haxen Рік тому

    처음에 4:24에서 오차항이 0이라는 가정은 선형회귀가 binary data에는 적합하지 않는다는 설명하고 관련이 있는걸까요? 아니면 로지스틱 회귀에서의 가정일까요? 로지스틱 회귀에서는 반응 변수들이 베르누이 분포를 따르기 때문에 오차항에 대한 가정이 필요 없다고 알고있었어가지고 여쭤봐요..
    강의랑은 관련이 없지만.. 혹시 GLM들의 모집단 분포를 표현할 때는 항상 오차항을 넣어서 표현하는걸까요?
    예를 들어 아래처럼요..
    Y_i = \beta_0 + \beta_1 x_1 + .... + error
    g( E(Y_i) ) = \beta_0 + \beta_1 x_1 + .... \beta_k x_k
    정말 죄송하지만 한가지만 더 여쭤볼게요...
    로지스틱 회귀를 할 때는 그러면 로지스틱 함수에 관측된 설명변수들(X)을 통해 확률을 계산하고(회귀 계수는 뭐.. 여러가지 방법으로 초기화한다음에), 이를 통해 MLE를 통해서 회귀계수들을 조정하고, 이렇게 모델링된 확률( P(Y=1|X) ), 로지스틱 함수)을 Logit 변환을 통해 선형식으로 표현하는 이유가 단순하게, 선형회귀처럼 각 회귀계수들의 의미를 해석하기 편하도록 하기 위한건가요? (GLM 모두 포함해서.. )
    쓰다보니.. GLM 모두가 회귀계수 해석을 위해 만들어진건가보군요...
    어렵네요 ㅠ.ㅠ.ㅠ.ㅠ.ㅠ...
    항상 공부하면서 다른 영상들도 많은 도움을 받고 있습니다.
    감사합니다.

  • @kksean4040
    @kksean4040 3 роки тому

    페르미디락 분포함수에 나오는 sigmoid함수네요~!

    • @김성범교수산업경영공
      @김성범교수산업경영공  3 роки тому

      페르미-디랙 분포(Fermi-Dirac distribution) 처음 들었는데 흥미로운 내용인 것 같습니다.

  • @동물러버-k4t
    @동물러버-k4t 4 роки тому +2

    교수님 강의감사합니다 강의를 듣다가 궁금한게있습니다. 혹시 odd취하고 log취한다고하셨었는데 log가아니라 ln을취해야하는거 맞는지 여쭙고싶습니다!

  • @yoorakim8474
    @yoorakim8474 4 роки тому +1

    좋은 강의 감사합니다!

  • @김주영-i3j8r
    @김주영-i3j8r 4 місяці тому

    10:45에서 로지스틱 함수 b0와b1은 무엇을 의미하는건가요??

  • @김호용-o9v
    @김호용-o9v 4 роки тому +2

    교수님 죄송하지만 영상에 쓰인 PPT는 따로 구할 수는 없는지요?

    • @김성범교수산업경영공
      @김성범교수산업경영공  4 роки тому

      죄송하지만 아직 공개는 하고 있지 않습니다. 추후 고려해 보겠습니다. 감사합니다.

  • @전기제어맨
    @전기제어맨 3 роки тому

    절단값을 추정하는 '요덴의 인덱스(youden index) 기법' 이 무엇인지 아시는지요? ㅠㅠ

    • @김성범교수산업경영공
      @김성범교수산업경영공  3 роки тому

      저도 처음 듣는 index 인데 검색을 해 보니 몇 가지 자료가 있네요...
      m.blog.naver.com/PostView.naver?isHttpsRedirect=true&blogId=sharp_kiss&logNo=221794149640

  • @박세완-b2y
    @박세완-b2y Місяць тому

    선생님 저 고려대 붙여주세요

  • @박성문-x6p
    @박성문-x6p 2 роки тому

    Aiing robots IingO2 bioingH2 nanoH6 robots O2OK