머신러닝의 기초 - 선형 회귀 한 번에 제대로 이해하기 (30분만 투자해봐요!)

Поділитися
Вставка
  • Опубліковано 13 жов 2024
  • 일반적인 머신러닝 강의에서 초반부 핵심이 되는 [선형 회귀(Linear Regression)] 파트의 내용을 30분 만에 '제대로' 이해해 봅시다! 특히 머신러닝 강의 앞 부분을 들었지만, 아직도 단순 선형 회귀에 대해서 제대로 이해를 못 한 학생을 주요 대상으로 합니다.
    대부분의 머신러닝 강의에서 제대로 짚어주지 않는 수학적인 부분에 초점을 맞추어 다루어 보았습니다.
    다루는 내용: 선형 회귀, 비용 함수, 경사하강법, 편미분, 크래머 공식, 공분산과 분산 공식

КОМЕНТАРІ • 253

  • @hyeryunpark5170
    @hyeryunpark5170 2 роки тому +3

    요즘 머신러닝 강의 듣고 있는 50대입니다. 중간에 러닝레이트. 알파값이 이해되지 않았는데 이 영상 보고 이해가 되었습니다. 감사합니다.

  • @radas7589
    @radas7589 5 років тому +281

    이선균씨 고마워요 연예인이 선형회귀를 다 알려주고 영광영광 ^.^

    • @mathmathmath2298
      @mathmathmath2298 4 роки тому +5

      ㅋㅋㅋ 저도 목소리 듣고 이선균씨 닮았다 생각했어요 ㅋㅋㅋ
      구독하고 갑니다 ㅎㅎ

    • @나의라임개쩌는나-n7d
      @나의라임개쩌는나-n7d 3 роки тому +2

      보우옹고오올레에에파아스으타아하느아아

    • @minyoungkim6879
      @minyoungkim6879 3 роки тому

      점심 봉골레 먹어야겠다. 점심메뉴 고민 해결해줘서 고마워요 봉골레형

    • @PinkPong_official
      @PinkPong_official 3 роки тому +2

      봉골레하나 한번만해주세요 제발요ㅠ

    • @mysonshine67
      @mysonshine67 Рік тому

      👍🏼👍🏼

  • @별빛속에
    @별빛속에 8 місяців тому +2

    2024년에 듣고 있습니다 귀에 쏙쏙 들어옵니다 짱!!!!

  • @findmi5404
    @findmi5404 2 роки тому +9

    고등학생인데 선형회귀 관련해서 탐구해보려고 찾아보고 있었는데 이해하기 쉽게 잘 설명해주셔서 수월하게 발표했어요! 감사합니다!

  • @최준영-f3p
    @최준영-f3p 5 років тому +9

    설명 진짜 잘해주신다!!!!!!!!!!!!!!!!!!!!!!!!!!! cf. 22:52 2Xib가 아니라 2XiW

  • @남극펭귄-n9k
    @남극펭귄-n9k 3 роки тому +1

    최고라는 말 밖에 안나오네요. 감사합니다

  • @kaichell3822
    @kaichell3822 Рік тому

    자주뵙네요 감사합니다. 좋은하루되세요.

  • @lIlIililiillli
    @lIlIililiillli 3 роки тому +6

    며칠째 고생하다가 이 강의로 개념적인 이해가 완전히 된 것 같습니다 감사해요~~

  • @judy8722
    @judy8722 4 роки тому +7

    23:10 중간에 실수도 스스로 찾아보게하는 컴피타티쳐 동빈나 당신은 도덕책....

  • @choichirim6231
    @choichirim6231 3 роки тому +2

    와우 코세라 몇달치를 한번에 설명하시다니 대단하십니다.

  • @사과-d3t
    @사과-d3t Рік тому

    회귀분석에 대해 알아보고 있었는데
    설명이랑 목소리가 깔끔하고 좋아요!!

  • @Square2017
    @Square2017 4 роки тому +12

    선형회귀에 대해 찾아보고 있는데 가장 이해하기 쉽게 설명해 주시네요
    감사합니다 ㅎ

  • @gogooo25
    @gogooo25 4 роки тому +15

    예비 컴공 전공자인데 완벽히 이해됐어요ㅠㅠ 설명 너무 잘하심..감사합니다

  • @kyayamin
    @kyayamin 2 роки тому +1

    와우.. 목소리도 깔끔하고 좋으셔서 더 잘 집중이 되네요 감사합니다 ☺️

  • @서형준-b6u
    @서형준-b6u Рік тому

    오랜만에 강의 영상을 완주할 수 있었네요 감사합니다

  • @icmansss
    @icmansss Рік тому +3

    쌤 덕분에 드디어 이해할 수 있게 되었습니다 감사합니다 ㅠㅠ! 혹시 다른 머신러닝 개념들도 이런 형식으로 설명해주실수 있으실까요?? 확실히 수학개념부터 찬찬히 설명해주시니 너무 좋네요!! 부탁드립니다 ㅠㅠ

  • @youngtaegkim8530
    @youngtaegkim8530 7 місяців тому +1

    간단한 예제로 쉽게 설명해주셔서 고맙습니다. 그런데 w 기울기, b 기울기 라는 표현보다 w에대한 cost 함수의 기울기, b에대한 cost의 기울기 라고 하면 더 정확한 표현이 아닐까요? 보통 cost함수를 간단히 J라고 하면 함수 J의 기울기를 0 으로 만드는 w와 b를 찾는거죠. 즉. dJ/dw=0, dJ/db=0이 되는 w, b를 찾는거죠. 사족이 길어서 죄송합니다 😅

  • @효캉
    @효캉 11 місяців тому

    진짜 지금까지 들어본 선형 회귀 머신러닝 강의 중에 이렇게 기초를 쉽게 가르쳐주시는 분 처음봅니다.. 비슷한 강의 많이 만들어주세요ㅜㅜ

  • @YoungHakKim
    @YoungHakKim 2 роки тому

    유사한 동영상 몇 개를 봤지만 이 동영상 설명이 최고임

  • @함성식-o2e
    @함성식-o2e 3 місяці тому

    아나 저도 저렇게 간단명료하고 깔끔하게 설명하고 싶네요.
    질투나지만 배우고 갑니다.

  • @psg-go4yj
    @psg-go4yj 4 роки тому +2

    코너링이 예술이시네요

  • @yanggunsj
    @yanggunsj 5 років тому +8

    머신러닝의 기초 개념인 선형회귀를 정말 기본부터 쉽게 풀어주셨네요. 최고입니다. 더불어 영상 초반에 목차나 비쥬얼 적인 요소로 머신러닝의 흐름을 보여준다면 더 좋을 듯합니다. 멋진 후배님!!

  • @2320정민규
    @2320정민규 2 роки тому +1

    예전에 다른 강의 들었을 때는 선형회귀의 개념이 잘 이해가 가지 않았는데 기초부터 말해주셔서 이해가 정말 잘 되었어요.

  • @wmf1235
    @wmf1235 3 роки тому +1

    잘 보아써요!
    한 가지 요청이 있다면 자막을 달아주시거나 자막을 넣을 수 있도록 수정해주셨으면 해요. 듣지 못하는 친구를 위해서요

  • @bishopseol6992
    @bishopseol6992 Рік тому

    계량경제학 도입부에 배우는 선형회귀를 머신러닝 측면에서 보니까 새롭네요

  • @ojijy94
    @ojijy94 5 років тому +57

    코딩으로 런닝머신도 만들 수 있군요!

    • @이동준-p9u
      @이동준-p9u 5 років тому +4

      ㅋㅋㅋ 런닝머신이라뇨

    • @시간을아끼자-r4r
      @시간을아끼자-r4r 5 років тому +2

      완전 자연스럽네

    • @originalgm5947
      @originalgm5947 5 років тому +1

      넘 자연스러워서 뭐가 틀린지 몰랐다...

    • @김진우-w3i
      @김진우-w3i 4 роки тому

      ㅋㅋㅋㅋㅋㅋㅋㅋ런닝머신ㅋㅋ

    • @kyumanrho8847
      @kyumanrho8847 3 роки тому

      ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ 뻘하게 웃기네요 ㅋㅋㅋㅋㅋㅋㅋㅋ

  • @Ahyun19
    @Ahyun19 5 років тому +2

    경영학과인데 경영과학에서 쓰이는 크래머 공식이 여기서 나올 줄은.... 소름.... 형님 감사합니다! 덕분에 파생상품 잘 이해할 수 있을듯 합니다 ㅠㅠㅠ 살았습니다... 정말.... (____) 복 받으시길.... 밑에 댓글 분 말씀대로 잔차항이나 이런 거 구하는 건 따로 이해해야겠지만 기본적인 선형회귀 공식 유도법은 감사히 배웠습니다! 혹시 경영학과 있으면 1학년 때 통계학은 제대로 빡세게 하거라 나처럼 늙다리에 고생하지말구... 다들 힘내...!!!

  • @옹옹옹-e3s
    @옹옹옹-e3s Рік тому

    선생님 정말 도움이 많이되었어요 감사합니다!!

  • @genosyde78
    @genosyde78 5 місяців тому

    훌륭하다.
    와계어에대한 해석이 필요하지만
    반복해서 듣다보면 내가 하고 있는 map iou의 개념에 대해서 제대로 이해 하게되겠지.
    Map rate만 들여다 보고 있었는데 이게 뒤에서 이런 원리로 작동 하는 거였군

  • @sicari6392
    @sicari6392 2 роки тому

    이해도 잘되고 목소리도 참 좋네요

  • @민혁김
    @민혁김 3 роки тому +1

    안녕하세요. 해외에서 유학중인 학생입니다. 이번 학기에 머신러닝 관련과목 수강신청을 했는데 렉쳐 이해가 잘 이해가 안되서 찾아보게 되었습니다. 감사합니다!

  • @jirah4963
    @jirah4963 7 місяців тому

    일차함수와 연결되어 이해가 잘되네용

  • @1020HeyHo
    @1020HeyHo 3 роки тому +2

    와! 대단합니다. 강좌 보고 고수의 내공을 느꼈습니다. 좋은 강좌 감사합니다.

  • @tspark1071
    @tspark1071 3 роки тому

    Descending. Tangent W and b. 감사합니다

  • @하얀성-s9m
    @하얀성-s9m Рік тому

    감사합니다. 좋은 강의였습니다.

  • @최적화-o6t
    @최적화-o6t 3 роки тому +1

    설명이 너무 좋습니다 다른사람에 비해 제가 이해도가 낮은편인데 이해가 되다니... 의사결정나무 랑 비선형모델이랑 인공신경망 등 계획은 없으신가여?? ㅠㅠ 다른 유튜브 강의는 너무 이해가 안가고 이런방식이 저에게 너무 딱이라서요 ㅠㅠ

  • @BOILED_EGG123
    @BOILED_EGG123 5 років тому +1

    뭔가 어려운데 쉬운것 같고, 쉬운데 어렵네요....
    좋은 강의 잘 보았습니다.
    경사하강법까지는 이해를 했는데,
    그걸 행렬을 이용해서 푸는 부분부터는 수학적 지식이 짧아서 이해를 잘 못하겠네요. ㅎㅎ

  • @고승현-i9z
    @고승현-i9z 2 роки тому

    정말 대박입니다 책만 보고 이해못했던 내용들을 이렇게 쉽게 풀어주시다니 감사합니다

  • @amorousfinale
    @amorousfinale 11 місяців тому

    이분은 어려보이시는데 강의력도 미쳤고 목소리도 좋으시네... 하 여친 없어라

  • @ilapr6419
    @ilapr6419 Рік тому

    설명이 너무 깔끔하십니다 ㅎㅎ

  • @아아-x9n
    @아아-x9n 2 роки тому

    우와 컴공이라고 들었는데 수학잘하시네요! 감사합니다

  • @sslee000
    @sslee000 4 роки тому

    Excellent!!! AI 처음 공부하는데 나라도 경사하강법을 사용할 것 같습니다. 재밌네요.. 설명 너무 잘했습니다. 시간 가는줄 모르고 보았습니다.

  • @이강윤-r3f
    @이강윤-r3f Рік тому

    진짜 설명 기똥찹니다
    너무 감사합니다

  • @zzs0189
    @zzs0189 3 роки тому +1

    와우!!! 처음으로 영상 봤는데, 완전... 명품 머신러닝 강의네요!! 덕분에 Linear Regression을 제대로 이해 했습니다.

  • @kwon3616
    @kwon3616 5 років тому +7

    강의 너무 잘하십니다ㅠㅠ 감사합니다

  • @ieiiawkska7926
    @ieiiawkska7926 2 роки тому +2

    예전에 다른 강의 들었을 때는 선형회귀의 개념이 잘 이해가 가지 않았는데 기초부터 말해주셔서 이해가 정말 잘 되었어요. 앞으로 관련된 다른 주제의 영상도 많이 올려주셨으면 좋겠어요.

  • @정낙현-x9z
    @정낙현-x9z 4 роки тому

    감사합니다 이해가 정말잘되네요 큰 도움이 되었습니다

  • @찬이-c8x
    @찬이-c8x 2 роки тому

    찰떡강의 감사합니다.

  • @jjjjjjjj-mo2lf
    @jjjjjjjj-mo2lf 3 роки тому

    ㄷㄷ 이 분목소리 왤케 좋나요 집중도 잘되네요 잘 들었습니다~~

  • @jinjin4992
    @jinjin4992 4 роки тому

    우와 지금까지 들었던 강의중 가장 이해가 쉽군요. 감사합니다.

  • @꼼양-t4w
    @꼼양-t4w 3 роки тому +2

    설명 진짜 너무 잘해주시네요 감사합니다 ^^

  • @rkdgmldnjs57
    @rkdgmldnjs57 5 років тому

    아직 비전공자인데 이해 잘되요!
    감사합니다

  • @유관동-u6x
    @유관동-u6x 2 роки тому

    선형회귀 문제를 쉽게 잘 설명해 주셔서 감사합니다~

  • @HumpWhale3
    @HumpWhale3 3 роки тому

    설명 아주 깔끔합니다. 배워가요!

  • @sayhello5822
    @sayhello5822 3 роки тому

    이거 진짜 명강의네요.. 정말 감사합니다

  • @xxi1375
    @xxi1375 5 років тому +16

    와... 이제 선형회귀까지 가르쳐준다고...?

  • @김진우-w3i
    @김진우-w3i 4 роки тому

    그제 친구가 알려줬었는데 나동빈님이 훨씬 깔끔하게 알려주시네요ㅋㅋ 감사합니다

  • @김경민-i2y8z
    @김경민-i2y8z 3 роки тому

    교수님 왜 여기계십니까.. 학교 수업 3번돌려서 이해못한거 한번에 이해됬습니다;

  • @유상준-g7p
    @유상준-g7p 3 роки тому +3

    우와 비전공자도 이해할수 있게 잘 만드셨네요~ 감사합니다 .

  • @lolololololol-ugh
    @lolololololol-ugh 4 роки тому

    한 3년전에 혼자 열심히 독학하면서 php로 regression 다차함수까지 구현했었는데, 이후에는 편하게 tensorflow만 돌리다보니 실제 수학이론 내용들은 다 까먹어서 흐릿흐릿 하네요. 즐겨찾기 해놓고 가끔 찾아와서 다시 봐야겠어요.

  • @imSKYLAND
    @imSKYLAND 3 роки тому

    감사합니다. 덕분에 확실하게 이해하고 갑니다!!!

  • @해윙-v1y
    @해윙-v1y 2 роки тому

    도움이 됐어요 감사합니다~~~~~~

  • @yammsei
    @yammsei 5 років тому

    좋은 강의 잘 들었습니다.
    업무에 활용하겠습니다.

  • @daisy-zn7jx
    @daisy-zn7jx 2 роки тому

    영상보니까 쉽게 이해되네요ㅜ 감사합니다😊

  • @나윤호-b3x
    @나윤호-b3x 4 роки тому

    오 깔끔하게 정리해주셨네요. 감사합니다!

  • @채주연-n4d
    @채주연-n4d 4 роки тому

    와개재믹네요 이거 왜 재밌지…… 자소서에 쓰려고 막 찾아보는데후}………드디어 이해햇어요

  • @eunjungchoi9657
    @eunjungchoi9657 4 роки тому

    와 설명 진짜 잘 하시네요. 감사합니다. 미적분 복습하러 갑니다.

  • @몽쉘-t1b
    @몽쉘-t1b 5 років тому +10

    이제 다른강의 성에안찰것같아요~ 나동빈의 수학시리즈 원합니다🥺

  • @c9744052
    @c9744052 4 роки тому +1

    진짜 쉽게 설명 잘하시네요. 구독합니다

  • @ll4949
    @ll4949 4 роки тому +1

    좋은 강의 감사드립니다. 한가지 궁금한 부분이 있는데요. 예제를 보면 우리는 결과적으로 나오게 되는 선형 방정식을 완벽하게 사전에 알고 있고 그에 대한 값 (w,b,y)도 전부 컴퓨터에 준다는 가정하에 진행되고 있습니다. 근데 실제 세상에서 저정도로 정확한 결과 값을 알고 있는 경우가 거의 없지 않나요...?프로세스를 보면 마치... 미리 해답지를 보고도 안 본척하며 수학문제 푸는 방법 같아 보여서요 ㅠ

    • @dongbinna
      @dongbinna  4 роки тому +3

      선형 방정식을 완벽하게 사전에 알고 있지 않아도, 해당 방법을 이용하면 어떤 방정식이든 적절하게 근사(approximation)할 수 있다는 점이 포인트입니다. 비유하자면 하나를 꿰뚫어 열을 보기위한 것이라고 보시면 좋을 것 같습니다.
      이 영상을 보고 느끼셨으면 좋을 내용은, '정확한 답을 이미 알고 있는 상태에서 gradient descent로도 문제를 해결할 수 있다는 게 왜 중요한 거지?'가 아니라, 'gradient descent를 이용하면, 학습이 진행될 수록 global optima에 가까워 지는구나! 그러면 정확한 답을 모르는 상황에서도 loss function을 적절하게 구비해서 gradient descent를 이용하면 문제를 유의미하게 근사하여 해결할 수 있겠군!'입니다.
      질문자님이 '정확한 결과 값'이라고 하셨는데, global optima를 의미하시는 것 같네요. 말씀하신 대로 실제 다양한 문제에서는 정확히 솔루션을 구하기 어렵습니다. 모든 경우를 계산하여 솔루션을 찾는 문제 자체가 NP-hard인 경우도 많구요...
      즉, 실제 문제들은 intractable한 경우가 많습니다. 현실 세계의 regression 혹은 classification task에서는 모델을 설정할 때는 input space가 고차원이고, hidden Layer의 space도 고차원이기 때문에 업데이트할 가중치의 개수가 매우 많습니다. (벡터 w의 파라미터의 개수가 많다고 보시면 됩니다.)
      또한 non-linearity한 특성을 위한 다양한 activation function들이 적용됩니다. 그래서 전체적인 모델을 학습시키는 과정에서, 완벽한 global optima를 찾는 것은 tractable하지 않은 문제입니다.
      본 영상에서는 설명을 쉽게 하기 위해서 가장 쉬운 예제를 들고 온 것입니다. 현재 예제는 뉴런이 1개이며 input과 output도 1개로만 구성된 뉴럴 네트워크라고 볼 수 있겠네요. 그렇기 때문에 가중치에 대한 loss function이 완전히 convex하고요. 그래서 완벽하게 global optima를 계산할 수 있는 것입니다.
      다만 이렇게 쉬워보이고, 질문자님께서 말씀하셨듯이 '이미 답이 정해져 있는 것 같은' 상황에서의 이러한 전개가 중요한 이유는...
      이 문제를 풀기 위한 접근 방법이 '실제로 매우 어려운 문제에도 적용될 수 있다는 점'입니다. 다양한 뉴럴 네트워크의 문제는 non-convex optimization 문제로 볼 수 있습니다. 하지만 그러한 어려운 문제에 대해서도, 본 영상에서 소개해드린 gradient descent를 이용하면 global optima와 유사한 local optima를 효과적으로 근사하여 찾을 수 있습니다. (물론 실제 모델들은 다양한 optimizer들을 적용합니다...)
      나중에 관심이 생기시면 더 자세히 공부하실 수 있겠지만, 최근 모델들이 많이 사용하고 있는 ReLu function과 같이 상당히 piece-wise linear한 특징을 가지는 네트워크들은 first-order (본 영상에서처럼 한 번만 미분하여 가중치를 업데이트하는 방식) 으로 gradient descent 방법을 적용해도 상당히 빠르게 학습이 잘 됩니다. (adversarial examples과 같은 문제를 일으키는 요인이 되기도 합니다만...)

      다시 말해 지금 소개해드린 gradient descent method는 현재 state-of-the-art 뉴럴 네트워크에서 학습을 위해 기본적으로 사용되고 있는 방법들이라는 점에서 중요합니다...

  • @eugene3077
    @eugene3077 5 років тому +13

    진짜 잘 가르쳐주시네요^^
    수포자는 웁니다 ㅠㅠ
    늙다리지만 머신러닝관련 수학공부 다시 할만한 책 추천해주실 수 있을까요??

    • @오성영-n7l
      @오성영-n7l 4 роки тому

      저도 늙다리에요 힘내세요

  • @뵤-c7l
    @뵤-c7l 3 роки тому

    미적분 탐구 보고서를 써야 해서 진로랑 연관시켜보려고 머신 러닝으로 주제를 잡긴 잡았는데 너무 어려워서 포기할까 하다가 이 영상을 발견했어요! 감사합니다ㅠㅠ

  • @targauxs7698
    @targauxs7698 4 роки тому

    사용되는 수학이 간단한 것들이어서 이해하기 쉬웠네요. 제가 하는 연구에 머신러닝을 도입해보고 싶은데 갈길이 먼것같네요 ㅠㅠ ㅋㅋ

  • @손재익-t5h
    @손재익-t5h 5 років тому +1

    선형회귀를 쓰기만했는데 이렇게 업데이트가 될줄은 몰랐네요 좋은강의 감사합니다!

    • @jinhanaura
      @jinhanaura 4 роки тому

      실제 프로그램에선 저렇게 수학적으로 하는게 아니라 선형회귀 라이브러리 함수가 따로있는건가요?

    • @KimCoder_
      @KimCoder_ 2 роки тому +1

      ​@@jinhanaura 라이브러리에서 설정해야하는게 많긴 합니다만.. 입력과 출력 (원인과 결과)를 넣어주고 몇번이나 학습(회귀) 시킬것인지 지정하고 에러값이 얼마나 떨어지면 완료 될지 입력만 해주면 해당 학습 모델에 대한 "수식"이 결과로 나옵니다.
      해당 수식을 저장해뒀다가 새로운 입력을 수식에 넣어주면 출력값을 "예측" 해서 알려주는 방식을 사용하고 있습니다.
      데이터
      입력 : 1,2,3
      출력 : 4
      입력 : 4,5,6
      출력 : 7
      입력 : 7,8,9
      출력 : 10
      이런식으로 여러 입력과 출력 데이터를 10개정도 가지고 학습을 시켜주면 어떠한 "수식" 이 나오고 이 "수식"에
      입력 : 10000,10001,10002 (입력에 대한 출력이 없던 데이터)을 넣어주면 출력값으로 "10003"을 나오게 됩니다.
      저렇게 학습시킬때 영상에서처럼 선형회귀 방식을 사용할지.. 혹은 퍼지로직을 이용하는 방법이라던지 여러 알고리즘을 복합적으로 사용하여 인공신경망을 구현하게 되어있습니다. 프로그램도 하나만 사용하는게 아니고 여러가지를 합쳐서 사용하기도 하구요

    • @Kimmisuma2001
      @Kimmisuma2001 Рік тому

      @@KimCoder_ 오 감사합니다ㅠㅠ!!

  • @okseonhwang3231
    @okseonhwang3231 Рік тому

    너무 이해가 잘 되요. ㅎ😂

  • @클레이-q2h
    @클레이-q2h 3 роки тому

    다른 내용도 이렇게 다뤄주시면 안될까요? 선형분류나 의사결정 나무 등과 같은 챕터들도요!

  • @가상민-x7n
    @가상민-x7n 5 років тому

    오늘에서야 보게 되었습니다 영상 감사합니다 좋아요와 구독~^^

  • @TheBananakick
    @TheBananakick 3 роки тому

    몇달 만에 다시 왔습니다.
    내용을 알고 들을 수록 더 멋진 강의네요
    진심으로 감사합니다.

  • @jeeh-w9s
    @jeeh-w9s 4 роки тому

    노트도 올려주심 고맙겠습니다.

  • @제이크타일러
    @제이크타일러 3 роки тому

    너무 감사합니다

  • @이동욱-t9b
    @이동욱-t9b 5 років тому +22

    고등학생때 친구가 모르는문제가르쳐주는 느낌

  • @faketrue6283
    @faketrue6283 Рік тому

    감사합니다!

  • @金成柱김성주
    @金成柱김성주 4 роки тому

    영상 재밌게 잘 봤습니다. 혹시 나중에 기회가 되신다면 파이썬을 이용한 최적화 해석 관련 영상도 가능하신가요?

  • @Noah-jz3gt
    @Noah-jz3gt 3 роки тому

    매우 잘 이해했습니다 감사합니당

  • @dukdodododong
    @dukdodododong 2 роки тому

    감사합니다.

  • @아부지돌굴러가유
    @아부지돌굴러가유 Рік тому

    비전공자의 빛!

  • @ten-log
    @ten-log 3 роки тому

    덕분에 항상 잘배워갑니다 !

  • @강상규-b1e
    @강상규-b1e 4 роки тому

    정말로 감사합니다. 이렇게 쉽게 가르쳐주시다니. 제 고민해결되었습니다. 그런데 목소리가 이선균씨 같네요...ㅎㅎ

  • @janghyun0506
    @janghyun0506 4 роки тому

    중간 과정에 대해서 하나 하나 전부 이해하고 넘어가야 하는 건 아니겠지요~? 모르는 부분과 어려운 부분은 반복학습/추가 검색 및 공부 하되, 너무 한곳에 몰두해서 전체를 망가뜨리지는 않아야 겠어요 ㅜ 의욕이라는 녀석의 멘탈이 의외로 약하더라구요 ㅠㅠ 모두들 화이팅입니다!!!

    • @dongbinna
      @dongbinna  4 роки тому

      컴퓨터 공학 쪽은 처음부터 다 이해하는 것보다, 여러 번 보면서 점점 깊게 이해해야 하는 경우도 많은 것 같아요~ :) 화이팅입니다!

  • @모르면전진
    @모르면전진 5 років тому +4

    보안에 웹에 AI에 안다루시는 분야가 뭔가요 ㄷㄷ... 혹시 실례지 않으시면 어떤 진로(취업,진학, 분야 등) 생각하고 계신지 알수 있을까요? 저도 컴공인데 항상 와서 많이 배우고 그리고 자극받고 갑니다 !

    • @dongbinna
      @dongbinna  5 років тому +2

      먼 미래까지는 고민하지 않았지만... 일단 저는 석사 과정에 진학하게 되었습니다.

  • @Shine_7
    @Shine_7 4 роки тому

    아이구;; 나도 모르게 동빛나라고 읽어서 순간 깜놀했네.. 나동빈님이시구나

  • @K_SZ
    @K_SZ 11 місяців тому

    친절하시네

  • @yuni7145
    @yuni7145 4 роки тому

    설명을 너무 잘하시네요! 교수님보다 이해가 잘간다는..

  • @클레이-q2h
    @클레이-q2h 3 роки тому

    진짜 잘 가르치시네요..!

  • @hyunyg
    @hyunyg 4 роки тому

    좋은 강의 감사합니다....

  • @이동천-n4o
    @이동천-n4o 3 роки тому

    추천 1만개 박고 싶다

  • @restonjesus
    @restonjesus 5 років тому +2

    우와 천제~ 감사합니다. 많이 배워 갑니다.

  • @junyoon9321
    @junyoon9321 3 роки тому

    와 정말 최고예요 ㅠㅠ 고맙습니다!

  • @이준서-l9s
    @이준서-l9s 4 роки тому

    이제 고등학생 되는데 코스트함수 정의 보고 알수 없는 수학개념이 나와서 빠꾸 먹었습니다. 고2수학 끝내고 내년에 다시 오겠습니다.

  • @yjjang7106
    @yjjang7106 4 роки тому

    우왕 멋진 강의 너무 감사합니다 👍