Meta AI 수석 얀 르쿤이 말하는 언어모델(LLM)의 한계 | 월드모델

Поділитися
Вставка
  • Опубліковано 8 вер 2024
  • LLM의 한계는 무엇이고 왜 월드모델이 필요할까요? Meta AI의 수석과학자이자 튜링상 수상자, 인공지능의 아버지로 불리는 얀르쿤이 말합니다.
    출처 : 2024년 3월 8일 Lex Fridman 팟캐스트
    원본영상 : • Yann Lecun: Meta AI, O...
    DISCLAIMER (면책 조항)
    - 이 영상의 원본 콘텐츠는 위의 링크에서 가져왔습니다.
    - 이 영상의 모든 저작권은 원작자에게 있으며, 본 영상은 수익창출을 하지 않습니다.
    - 본 채널은 교육적인 목적과 한국어 사용자들에게 유용한 정보를 제공하기 위해 번역 및 편집된 내용을 공유하고 있습니다.
    - 이 영상의 한글 자막에는 인공지능에 대한 주석이 포함되어 있으며, 원본 콘텐츠의 적절한 이해를 돕기 위해 일부 의역이 포함되어 있습니다.
    - 원작자가 해당 콘텐츠의 사용에 대해 문제를 제기할 경우, "endplan0704@gmail.com" 으로 연락해 주시면 즉시 해당 콘텐츠를 삭제하거나 수정하겠습니다.
    #얀르쿤 #ai #인공지능

КОМЕНТАРІ • 138

  • @ENDPLAN
    @ENDPLAN  Місяць тому +12

    2편도 업로드했습니다.
    Meta에서 LLM을 뛰어넘기위해 어떤 노력을 하고있는 이야기합니다.
    ua-cam.com/video/ZxDTa_IuDuM/v-deo.html

  • @kjyshawn
    @kjyshawn Місяць тому +14

    평소에 가지고 있던 생각과 일치해서 반가웠어요. 이 세계는 우리의 몸을 기반으오 혹은 매개로 해석되고 기록되고 교육/축척된 것이므로 인간의 몸(+시간)과 같은 척도 없이는 실제 범용지능의 기반이 만들어 질 수 없다고 봅니다. 앞으로 저분의 이야기를 더 듣고 싶어요. 고맙습니다.

    • @ENDPLAN
      @ENDPLAN  Місяць тому +1

      감사합니다. 다음편도 업로드했습니다~

  • @user-oy2gj3lo3u
    @user-oy2gj3lo3u Місяць тому +13

    지금 느리다고 급발진 하는게 아니라 꾸준히 llm은 한계있다 주장하시던 분임

  • @SOLVwithIT
    @SOLVwithIT Місяць тому +38

    좋은 번역 감사드립니다. LLM 이 강력하다고 하나 ... 물리세계에서 배우지 못하는 AI 가 얻을 수 있는 정보량의 한계에 대해 완전 동의합니다. 생성모델의 아버지께서 하시는 말씀이니 신뢰도가 더 올라가네요.

    • @ENDPLAN
      @ENDPLAN  Місяць тому +2

      얀 르쿤 교수님의 말씀이니 신뢰가 가죠 ㅎㅎ 솔브잇님 채널도 화이팅입니다!

    • @user-tf1ds5rm9j
      @user-tf1ds5rm9j Місяць тому

      휴 좀 안심이 되네요

  • @muhendisim
    @muhendisim Місяць тому +7

    현재 언어 모델은 한계가 있는게 맞음. 일례로 gpt2 > 3 > 4 발전할 때와 지금 4o 비교해보면 성능이 조금 괜찮아지긴 했지만 그 때만큼의 비약적인 발전이 있지는 않음. 학계에서도 모델이나 알고리즘을 바꾸는 시도를 하고 있다고 하는데 현재는 잠시 주춤하는게 맞는 듯 하다.

  • @user-dz8me4sp8m
    @user-dz8me4sp8m Місяць тому +18

    머릿속에 "학습이 비전을 포함해서 인간이 실제로 세상을 받아들이듯이 하지 않고 텍스트로만 하면 한계가 있겠다"는 막연한 생각을, 이 영상을 통해서 구체화하고 설명을 들을 수 있어서 너무 좋습니다.
    결국 초지능이 되기 위한 학습 데이터의 모습은 텍스트와 비젼뿐만이 아니라, 오감을 넘어서 새들처럼 자기장같은것도 감지하는.. 어떤 형태가 될지 궁금하네요

    • @ENDPLAN
      @ENDPLAN  Місяць тому

      시청해주셔서 감사합니다. 이어서 LLM의 한계를 극복하기 위한 노력들에 대해 올라갈 예정입니다.
      그 영상도 재밌게 보실 것 같아요 ㅎㅎ

    • @user-dz8me4sp8m
      @user-dz8me4sp8m Місяць тому

      ​@@ENDPLAN다음영상도 빨리올려주세요ㅠㅠㅠ 현기증납니다

    • @ENDPLAN
      @ENDPLAN  Місяць тому +1

      @@user-dz8me4sp8m 현기증 나신다고해서 빨리 업로드했습니다. 즐거운 시청되세요.
      ua-cam.com/video/ZxDTa_IuDuM/v-deo.html

    • @user-dz8me4sp8m
      @user-dz8me4sp8m Місяць тому

      ​@@ENDPLAN담영상도 잘봤어요❤❤❤

    • @pivotlifeforever
      @pivotlifeforever 29 днів тому

      LLM Open AI 터질 때, 좀 배웠다는 컴공 전공자들은 bottom-up이 아니라서 결국 1990년대 AI붐처럼 망할거라고 했고, 얕게 배우거나 전공자 아닌 사람들은 AI가나왔다고 흥분하고 샴페인 터뜨렸었음. ㅇㅇ 계속 말해오던걸 다시 말하는 거. bottom-up으로 기계가 몸을 가지고 스스로 배우게 해야함. 인간이나 동물 아기처럼 단계를 거치고 어른 수준이 되면, 머신 멈추고 뇌 백업해서 복제 시켜야함. 이 이야기 1980년대부터 계속 해오던거고, 1990년대에 AI가 사무를 대신할거라면서 주식 터지고 몰락하고, 이제 1990년대 AI가 원하던 AI가 된거지만 결국은 "인공지능"은 못됨. "인공지능"이 아니라 그냥 생성형 머신으로 봐야함. "지능"을 만들려면 bottom-up 뿐임.

  • @Halbok09
    @Halbok09 27 днів тому +1

    정말 도움되는 영상이네요. 어느 뉴스에 국내 어느 박사라고 나오면서 인공지능이 물리법칙을 이해했다면서 호들갑 떠는거보고 황당했었는데 말입니다..

  • @paikic
    @paikic Місяць тому +4

    비디오 소개 감사합니다.. 얀 르쿤의 필요한 관찰과 비판이라 생각합니다. 세계와 그속에서 인간이 배워나가는 것을 세심하게 관찰했다고 봅니다. 특히 언어로 표현되지 않는 그 이전의 낮은(?) 레벨의 데이터와 정보에 대해서는 학습할 수 없다.. (GPT의 어텐션의 학습은 인간의 뇌의 학습기능의 전부라고 할 수 없다.) 그래서 현재의 GPT에 기초한 LLM으로는 인간과 같은 지능을 만들 수 없다.. 어느 정도 공감이 됩니다. 그런데 언어로 표현된 것은 그 밑의 레벨의 정보가 정리되어 나타난 것이라고 생각할 수 있고, 한가지 신기한 것은 어텐션은 이미지, 사운드, 센서 데이터, 비디오 데이터에도 잘 들어 맞는 다는 것이지요.. 이는 신기한 자연 현상인지, 창조의 원리가 그런 것인지 잘 모르겠지만... 어쨋든 결론적으로 현재까지의 LLM을 기초로한 멀티모달 모델은 상상 이상의 똑똑한 추론/기억/계획 능력을 보여주니, 얀 르쿤의 단순해 보이는 부정적인 견해에 대해 어떤 부분은 더 잘 생각해 봐야 할 거라는 생각이 드네요.

    • @pivotlifeforever
      @pivotlifeforever 29 днів тому

      LLM Open AI 터질 때, 좀 배웠다는 컴공 전공자들은 bottom-up이 아니라서 결국 1990년대 AI붐처럼 망할거라고 했고, 얕게 배우거나 전공자 아닌 사람들은 AI가나왔다고 흥분하고 샴페인 터뜨렸었음. ㅇㅇ 계속 말해오던걸 다시 말하는 거. bottom-up으로 기계가 몸을 가지고 스스로 배우게 해야함. 인간이나 동물 아기처럼 단계를 거치고 어른 수준이 되면, 머신 멈추고 뇌 백업해서 복제 시켜야함. 이 이야기 1980년대부터 계속 해오던거고, 1990년대에 AI가 사무를 대신할거라면서 주식 터지고 몰락하고, 이제 1990년대 AI가 원하던 AI가 된거지만 결국은 "인공지능"은 못됨. "인공지능"이 아니라 그냥 생성형 머신으로 봐야함. "지능"을 만들려면 bottom-up 뿐임.

  • @hyuckjushon
    @hyuckjushon Місяць тому

    ai 개발에 관련된 컨텐츠를 볼 때마다 인간을 목표로 개발되는 기술과제를 수행하면서 인간에 대한 이해가 더욱 깊어지는 것을 느낍니다. 오늘 자료도 그것들 중 하나

    • @ENDPLAN
      @ENDPLAN  Місяць тому

      실제로 인공지능의 아버지로 불리는 제프리힌튼 교수님은 심리학도 전공하셨죠..

  • @Gruzam0512
    @Gruzam0512 Місяць тому +3

    이미 현재 인류는 글로 과거의 지식을 습득하여 발전해왔으니까 저는 앞으로 AI가 더욱더 발전해나갈거라는 생각을 합니다.

  • @TheBrainhacking
    @TheBrainhacking Місяць тому +3

    오래전 부터 생각해 오던 것인데,
    결국, 인간과 같은 AI를 구축하기 위해서는 아이가 경험하며 성장하는 그 모든 것의 데이터를 주입해야 인간같은 AI를 만들어 낼수 있다고 생각했는데, 이 영상도 비슷한 이야기.
    하지만, 과연 우리가 꼭 인간과 같은 "지능"을 만들려고 노력해야 하는가? 에 대해서는 굳이 왜? 라는 생각이 든다.
    인간과 같지 않아도 충분히 "지능"일 수 있는데, 굳이 이렇게 온 지구의 자원을 모두 끌어 모아 AGI를 만들기 위해 노력해야 하는 필요성이 도대체 무엇일까?
    아무리 생각해봐도 지적 호기심이라는 이기심 말고 떠오르는 생각이 없다.

    • @user-yl3dh5bs8c
      @user-yl3dh5bs8c Місяць тому +1

      굳이 왜라뇨 agi가 나오면 인간과 동일한 지능이 아니라 더 뛰어난 지능이 될겁니다. 그럼 인간이 가진 생물학적 한계에 벗어나 훨씬 효율적이고 빠르게 세상을 발전시킬수 잇죠. 그냥 호기심에 심심해서 하는 일이 아닙니다;

    • @user-zf3mo7yf2v
      @user-zf3mo7yf2v 21 день тому

      이건 사업을 하며 알바/직원을 사용해보면 깨닫게 됩니다.
      사람은 높은 지능과 더불어 자유의지가 있기 때문에, 통제하고 통솔하는데 상당한 에너지가 들어갑니다.
      또, 갈수록 높아지는 임금으로 인해 인건비 부감이 심해지고 있지요.
      반면에 인공지능이 완성형이 된다면, 높은 지능으로 사람과 동일하게 일을 할 수 있는데, 비용도 덜 들고, 퇴사할 걱정도 없고, 지각/결근도 하지 않고, 법률적으로 문제를 일으킬 걱정도 없는 직원을 얻게 됩니다.
      비용적으로도, 심리적으로도 훨씬 개꿀인거죠.
      저만해도 월 600~700정도 버는 개인사업자인데, 최근에는 알바에 맡기던 것을 최대한 ai로 자동화하려고 하고 있습니다.

  • @user-pg4bx9zf1s
    @user-pg4bx9zf1s Місяць тому +10

    이게 맞지 언어로 된 정보는 인간의 일부일뿐 계산기는 계산만 함

  • @user-qn6yz1qx5g
    @user-qn6yz1qx5g Місяць тому +1

    좋은자료 감사합니다.❤

  • @lucyy1077
    @lucyy1077 Місяць тому +1

    속시원한 설명이네요 좋은 영상 감사합니다 ❤

  • @user-ty6hg7dw2y
    @user-ty6hg7dw2y 9 днів тому

    오역이 있는 것 같아 말씀드려요. 10:20 쯤에 "이렇게 함으로써 시스템이 두 번째 단어를 예측하지 않도록 합니다" 에서, '이렇게 함으로써 ~ 예측하도록 합니다' 가 맞는거 같아요. "so that the system now to predict the second word" 라고 말한 부분에서 now가 not 같이 들려서 그런것 같네요. 유튜브 자동자막에서도 not 이라고 나오네요 😅

    • @ENDPLAN
      @ENDPLAN  9 днів тому

      감사합니다.. 말씀이 맞는 것 같습니다

  • @user-yl3dh5bs8c
    @user-yl3dh5bs8c Місяць тому +1

    렉스 프리드먼 팟캐스트의 다른 영상들도 부탁드립니다. 샘 알트먼이나 유발 하라리 등 다른 유명한 석학들 팟캐스트 영상도 보고 싶네요

    • @ENDPLAN
      @ENDPLAN  Місяць тому

      안녕하세요. 알트먼 영상은 업로드 되어있습니다.
      ua-cam.com/video/AvRd0w_1UK0/v-deo.html

  • @user-lu2bh8pn7z
    @user-lu2bh8pn7z Місяць тому +2

    멀티 모달로 LLM이 딥하게 발전되면.... 언어 이면의 기저표현에 대한 해석이 가능해질 것 같은데...

  • @grimsk
    @grimsk Місяць тому +4

    백프로 동의함.

  • @TAB022O
    @TAB022O Місяць тому +1

    그렇지 한계가 있을수 있지 그러나 그 한계는 또 돌파 될수도 있지.... 아직 가보지 않은 길이기에....
    중요한건 인공지능으로 실제적으로 도움이 되느냐 그리고 그에 따른 매출이 나오느냐 거기에 달려 있음......
    지금 가장 실용적인건 테슬라 자율주행인데 이것도 완벽해져야 그 가치를 인정받을수 있고 구글 마소등도 잘하고 있지만 매출로 이번에 잘 보여준게 메타라는것임... 광고를 인간이 배치할떄보다 훨씬더 잘 배치해서 이번에 실적에서도 상당히 호평을 받음.... 뭐 소비자에게 광고를 잘 매칭시켜주는게 소비를 증진시키는것인지라 그게 인공지능으로 소비자에게 할수있는 진정한 도움인가 라는것 측면에선 좋게 보여지진 않지만 광고수입을 기반으로한 기업인 메타 입장에선 최고의 선택이 아닐까 하고 시장도 그렇게 판단하는듯.....

  • @flyingpan2639
    @flyingpan2639 12 днів тому +1

    그러니까 ai도 오감이 필요한거임
    그래서 ai퀀텀점프는 언어모델이 아닌
    로봇공학이 성숙한 이후가 될것임

  • @movement-profiler
    @movement-profiler Місяць тому

    좋은 정보 올려주셔서 감사합니다~

  • @sober100pct
    @sober100pct Місяць тому +8

    ai 라는 단어부터 바꿔야함 '인공지능'이라고 하니까 사람들이 진짜 '지능'이라고 착각함 그냥 빠른 연산을 할뿐인데

    • @hotsoup7340
      @hotsoup7340 Місяць тому +2

      딥러닝 포함해서 단어를 너무 잘 지었음 ㅋㅋ 이것도 능력인듯. AI가 주식 시장을 주도하는데 이 단어들도 큰 역할을 했다고 생각함

    • @kmo7372
      @kmo7372 Місяць тому +1

      DL도 그렇고 AI도 그렇고 과한 표현인 것 같음.
      Modern Computational Statistics 이게 사실 맞는 표현이지.
      AI 단어 만든 사람들도 이렇게 딥러닝에 대가리 꺠져서 연산력 좋은 GPU랑 질 좋은 데이터 타령만할거라고 생각했으면,
      AI라고 안지었지 ㅋㅋㅋㅋ

    • @orodomi
      @orodomi 16 днів тому

      @@kmo7372이야 modern computational statistics 이름 겁나 찰떡같네요

    • @user-nz5wd9ue3x
      @user-nz5wd9ue3x 11 годин тому

      제프리 힌튼에 의하면 인공지능은 인간의 지능과 다른 형태의 지능이고
      빠른 학습, 학습의 전파 등 유기체 지능과는 비교할 수 없는 장점이 있기 때문에 경계해야 한다고 하지요

  • @user-nu9py4kv9c
    @user-nu9py4kv9c Місяць тому

    얀 르쿤 교수님의 말씀에 충분한 동의를 해요.
    영어는 언어이지요. 단순히 생각해서 외국어는 언어이니까 언어를 배우는데 있어서 테블릿pc라는 매체에 영어학습 프로그램을 깔아넣고 영어를 쓰는 상황을 보여주며 그 상황속에서 쓰는 영어의 예시를 보여주고 사용하는 문장과 단어를 반복해서 따라하게 한 후 얼마나 정확히 기억하는지 테스트를
    거쳐서 기억하지 못하는 영어 문장이나 단어를 반복 학습 후 다시 테스트를 거쳐서 틀린 부분만 익히게 하지요.
    정말 엉터리 중에 최악의 엉터리 학습 방법이예요. 없어져야 할 최악의 아주 나쁜 교육법이지요.
    행정으로 본다면 현실과는 맞지 않는 아주 전형적인 탁상행정이라고 할 수 있을것 같아요. 탁상행정은 항상 최악의 참사를 낳지요.
    언어는 배우는 것이 아니예요.
    인지적 소통과 감정의 표현 그리고 문제의 예측과 부분적 회피 해결 그리고 나 스스로의 이해와 치유를 하기위한 작은 일부분의 영역일 뿐인데 그 일부의 영역만을 크게 확대해서 모든 부분을 바라보고 해결하려 하니 당연히
    어긋나게 되고 알고자 하는 부분에서
    알지 못하며 지속적인 오류에 빠지게 되는 것이거든요.
    많은 엔지니어들과 연구자 및 세계석학들이 이야기 하는 부분이 인공지능이 우리가 가진 어려움을 해결해 줄거라 생각하는데
    내가 알고 싶은것은 그들이 이야기 하는 해결 영역의 깊이와 정확한 범위를 알고 싶어요. 그리고 해결의 기준이 어디에 있을까요?
    인공지능은 현재 존재하고 있는 데이타를 가지고 학습합니다.
    내가 궁금한건 이 지점 이예요.
    우리 인간이 도대체 어떤 문제를 해결했던걸까요? 어떠한 문제를 해결했기에 해결한 데이터를 기반으로 인공지능이 학습한 것이고 인공지능이 앞으로의 문제를 해결할 것이라는 걸까요? 해결의 정확한 기준이 도대체 어디에 있는걸까요?
    지극히 개인적인 의견 이다만,
    문제가 무엇인지 알아야 그에 맞는 해결을 아주 정확하게 할 수 있어요.
    컴퓨터가 그 예이지요. 알고 싶고 해결하고 싶은 것을 정확히 입력해야지 그에맞는 정확한 답변이 정확히 나오는 거예요.
    인간들은 문제가 무엇인지 항상 정확히 알지 못했어요. 그래서 우리가 당면한 과제를 해결하지 못하는 거예요.
    차라리 현재 나에게 , 우리에게 필요한 것에 집중하라고 이야기하고 싶어요.
    이부분은 학자들이 밝혀내지 못한 물리학의 법칙을 이야기 하는것 같네요
    내가 혹은 우리가 당장 필요한 것을 얻기위해 집중한다면, 물론 과정은 힘들겠지만 얻는 속도는 훨씬 빠릅니다.
    필요하다 느끼는건 영역이 매우 좁고 일차적이며 아주 단순하거든요. 추상적인 영역이 아니기 때문이예요.
    그래서 얻는 속도가 매우 빠릅니다.
    그 원인은 우리의 뇌 속에 있어요. DNA가 다르듯이 인간의 뇌의 특성이 똑같은게 하나도 없지요.
    똑같은 시공간에서 각각의 다른 결정을 내리고 선택하며 행동합니다.
    그리고 추론 후 내린 선택과 결정 그리고 그 행동이 시간이 흐른 후 모든것에 있어서 성공적이었다고 판단 할 수 있을까요?
    그렇다면 성공적이었다고 판단하는 그 기준은 무엇이며 실패한 부분이라 판단하는 기준이 무엇일까요.
    모든 부분에서 완벽히 충족하려고 할때
    우리가 예상하지 못하는 부분에서의
    해결점을 찾지 못하는 거예요.
    하지만 더 나은 우리의 삶을 위해서
    많은 부분의 연구는 꼭 필요하다고 봅니다.
    제가 다시한번 강조하고 싶은것은 인공지능을 논할때 있어서는 철학의 바탕이 아닌 물리학적인 영역에서 바라보아야 한다는 것입니다.

  • @Ex_Proia
    @Ex_Proia Місяць тому

    좋은 영상 정말로 감사합니다.

  • @user-gg2xi1mt8g
    @user-gg2xi1mt8g Місяць тому

    너무 좋은 내용 감사합니다.

    • @ENDPLAN
      @ENDPLAN  Місяць тому +1

      저도 감사합니다~ 자주 뵙겠습니다!ㅎㅎ

    • @user-gg2xi1mt8g
      @user-gg2xi1mt8g Місяць тому

      @@ENDPLAN 넵! 나머지 영상들도 잘 보면서 댓글로 호응하겠습니다 ㅎㅎ.. 좋은 하루되세용!

  • @user-nt9wt5bs7i
    @user-nt9wt5bs7i Місяць тому +3

    llm 자체가 목적이 아님. llm 이든 생성형이든 투자 받기위한 목적이지 궁극적으론 전문 기업 맞춤형 ai 가 실제 이윤을 낼 것임. 그때부터 대량 해고도 시작될거고

    • @user-se3rz4gm9t
      @user-se3rz4gm9t Місяць тому

      동의합니다!

    • @-Namul
      @-Namul Місяць тому

      그런건 수십년은 기다려야 나올겁니다..

    • @user-nt9wt5bs7i
      @user-nt9wt5bs7i Місяць тому +1

      @@-Namul llm에 비해 난이도도 높지 않아서 바로 만들수 있을거 같은데요.

    • @user-se3rz4gm9t
      @user-se3rz4gm9t Місяць тому

      @@user-nt9wt5bs7i 관련 연구도 계속 진행중이긴 해요

    • @user-nz5wd9ue3x
      @user-nz5wd9ue3x 11 годин тому

      ai에 대한 강대국의 군비경쟁이 이미 시작되었고(gpt5의 시연을 미 국방부에서 먼저 했다는 소식도 있음)
      군비경쟁은 얀 르쿤이 말한 월드 모델, 언어의 암묵적 기반인 낮은 지식도 돌파되지 않을까요?

  • @jkijljbnj7165
    @jkijljbnj7165 Місяць тому +4

    감동입니다. 그동안 이분이 왜 그리 LLM의 한계를 크게 봤는지 이해가 안됐는데 영상보고 나선 전적으로 동의하게 됐네요. 지금 대다수는 너무 AI 가 가져올 장ㅂ밋빛에 대해 너무 앞서가는 게 분명합니다

  • @hodlgap348
    @hodlgap348 Місяць тому +1

    서츠케버랑 토론하는거보고싶다

  • @user-lr3rb5zk9h
    @user-lr3rb5zk9h Місяць тому +1

    근데 당장 시각장애인만 예를들어도 텍스트만으로 지능이 생길수 있다는 반증이 아닌가. 아이가 맨처음에 비전의 데이터 크기가 제일 많이 받아들인다랑 지능과 비전과 관련있다는 크게 관련없어 보이는데. 애초에 데이터 크기가 중요한 피쳐일지도 모르겠음

    • @장정태
      @장정태 Місяць тому +2

      시각장애인은 촉각, 청각, 미각, 후각이 없나요? 😂😂😂

    • @user-lr3rb5zk9h
      @user-lr3rb5zk9h Місяць тому

      @@장정태 영상에서는 비전으로 받아들이는 양이 많다는 근거를 댔음 감각에 대한 정보가 크다는 말은 안했던거 같은데요

    • @user-yl3dh5bs8c
      @user-yl3dh5bs8c Місяць тому

      감각에 대한 정보도 당연히 크죠. 인간이 모든 감각이 없었다면 지능이 훨씬 낮앗겟죠. 그리고 시각장애인과 일반인과 고지능자 비율을 비교하면 시각장애인이 더 낮지 않을까요

  • @namwookim1
    @namwookim1 Місяць тому +1

    감사합니다.

    • @ENDPLAN
      @ENDPLAN  Місяць тому

      너무 감사합니다 남욱님!! 즐거운 주말 되세요~

  • @felerdin
    @felerdin Місяць тому +1

    테슬라는 시각적 정보를 다루는 인공지능인데 이에 대한 내용도 궁금하네요.

    • @rapidvit
      @rapidvit Місяць тому +4

      텍스트를 학습할때 문장의 일부분을 괄호로 가려놓고 들어갈만한 단어를 선택하면 채점하는 식으로 학습을 하는데, 카메라를 통한 자율주행도 이와 비슷합니다.
      사진을 주고 사진 안에 사물을 구분해 내도록 하는 겁니다. 이를 위해서 사람이 사물에 대해서 어떤 것인지 일일이 태그를 달아주고 분류를 하면서 사진을 학습시켜서 모델을 만드는 것으로 들었습니다.
      모델이 만들어지면 카메라로 실시간으로 들어오는 영상을 입력하면 영상 내의 사물들을 구분해 내고 이를 토대로 운전하도록 하면 되는거죠.
      그런데 카메라의 단점은 특정 상황에서 오인식하게 되는 경우가 있다는 겁니다. 강한 빛이나 카메라가 구분하지 못할 정도의 색상이나 환경 등의 경우 잘못된 판단을 하게 된다는거죠.
      그래서 정상적인 국가에선 카메라만으로 완전 자율주행을 허용하지 않을겁니다.
      라이다, 레이더, 카메라를 모두 써야 될 것으로 판단됩니다. 이렇게 되면 테슬라는 다시 바닥부터 시작해야 될 가능성이 높습니다.

    • @muhendisim
      @muhendisim Місяць тому

      @@rapidvit 중국 이미 부분 허가 했고 정상적인 국가 미국 주에서도 테스트 허가했음.. 세계는 그렇게 단순한게 돌아가지 않습니다. 중국이 허가하는데 미국이 허가 안할까요? 자율주행 자체가 가져올 물류 혁신은 산업혁명의 그것과 비견하거나 더 큰 변화일텐데 그 선두를 중국한테 쉽게 내주진 않을겁니다.

  • @oldimplement1955
    @oldimplement1955 Місяць тому

    20:56 key point

  • @isaaclee6719
    @isaaclee6719 Місяць тому

    핵심은 여기에 다 써있네! 지적인 능력이 무엇을 의미하는지 말이다! 1:44
    그래 사실 첫조건에 다 들어있는게 아닐까? 물리적 세계를 이해하는 능력말이다!
    인공지능은 물리적 세계에 존재하는 존재가 아니다!
    그러다 보니 물리적세계의 데이타를 먹여주는 대로만 입력을 받는다! 이게 가장 핵심한계인것이다!
    이래서 챗지피티가 2% 항상 부족하게 느껴졌던 거다!
    앞으로도 그럴거고 24.08.03(토)

  • @user-es3fj7uj2x
    @user-es3fj7uj2x Місяць тому +2

    그래서 테슬라가 대단한거임. 거기 자율 주행은 영상 이미지를 가지고 함. 물론 학습 후 적용 가능한 분야가 주행 분야겠지만 향후 확장 될거라고 생각함.

    • @high-frequency516
      @high-frequency516 Місяць тому

      저기서 말하는 자율주행이 대표적인 인지데이터가 아닌예시인데.... 얀르쿤은 지금모델의 한계점이 물리적세계에선 안통한다하고 있고 테슬라가 사용하는 ai모델도 새로운모델이아님

  • @mabusche
    @mabusche Місяць тому

    5차 대멸종이 착착 진행되고 있다는 확신을 주는 영상...

  • @mathamour
    @mathamour 11 днів тому

    AI 가 틀린 수학 이론 제시해도, 그게 틀렸는 지 전혀 모른 채 , 위대하시고 전지전능하신 AI 님께서 말씀하셨다고
    블로그나 온라인 게시판에 올리는 사람들 있어요. ㅋㅋㅋㅋ
    틀렸음을 증명할 수 있는 사람은, 최소 고3까지 안 놀고 수학공부한 분들인데, 그런 뛰어난 분들은
    할 일 없이 그런 사이트 안 가죠. 그러면 이제 그 틀린 정보를 믿는 사람이 아주 많아지고..........

  • @user-tm9jj4dm7x
    @user-tm9jj4dm7x Місяць тому

    붕괴문제가 해결되어야 지속가능한 AI생태계가 만들어질겁니다.

  • @joo02
    @joo02 Місяць тому +1

    전문가들도 agi는 불가능하다고들 많이 이야기합니다. ai 가 어떻게 작동하는지 모르는 대다수의 일반인들은 그저 ai 라는게 세상을 바꿀꺼라 여기지만 속내를 보면 그렇게 쉬운일이 아닙니다. gen AI으로는 agi로 가는길은 확실히 아닙니다.

  • @user-qkrwprkehlsqkqh
    @user-qkrwprkehlsqkqh Місяць тому

    메타버스가 불가능한 이유와 마찬가지네요. 인간은 언어 뿐만 아니라 5감(시각 청각 후각 미각 촉각)으로 세상을 감지하죠. 이 다섯가지를 구현하지 않는 이상 인공지능은 인간이 될 수 없습니다. 메타버스도 현재 시각과 청각만 구현됐기 때문에 유니버스를 대체할 수 없는거고요.

  • @qnvoalsrnr
    @qnvoalsrnr Місяць тому

    인간을 모방해서 인간과 같은 무언가를 만드는게 인공지능이라면, 정의자체가 다른거 같은데... .
    애초에 엄밀한 정의 없이 용어와 이미지를 공통으로 하여 전세계가 달려들고 있는 것 같다고 생각하긴 하지만... .
    그런데 인간지능을 닮은 객체가 늘어난다면 굉장히 피곤할 거 같은데... 80억 인구만으로도 피곤하구만.

  • @jayyoo906
    @jayyoo906 Місяць тому

    Neuron system of brain language can be mechanized into program but liguistic creativity shall be studied more in terms of the chemical communication system among neurons.
    This chemical synopsis can not be rewritten into electronic digital signal. Still the brain remains in the God's world.

  • @lil9486
    @lil9486 Місяць тому +8

    얀 르쿤이 수석으로 있는 메타에서 발표한 SAM2를 보면, 그냥 좀 더 개선된 비디오 분석정도라는걸 알 수 있습니다. 얀 르쿤은 그냥 데이터 단위를 텍스트에서 비디오로 옮겨놓기만 한 과거의 구조화 패러다임을 고수하고 있으면서, 꼭 지각의 한계를 포괄하는양 오도적인 인터뷰를 하네요.

    • @dihydrogenmonoxide7689
      @dihydrogenmonoxide7689 Місяць тому +1

      LLM은 베이지안 추론이 안되고, 일정 수준 이상 파고든 사람은 LLM이 할 줄 아는게 없다는 사실을 받아들입니다. 솔직히 말하자면, LLM은 할 줄 아는 게 없습니다.

    • @dihydrogenmonoxide7689
      @dihydrogenmonoxide7689 Місяць тому

      당장 현존하는 알고리즘중에 변분 추론을 위한 가설 생성을 제대로 하는 알고리즘도 없습니다. LLM은 입력 데이터 밖에서는 아무런 정보도 만들어 낼 수 없습니다.

    • @aleksei5195
      @aleksei5195 Місяць тому +1

      SAM2는 르쿤이 말하는 인공지능이랑 관련도 없는, 그냥 세그멘테이션 툴입니다. 르쿤이 원하는건 V-JEPA라고 아예 다른 모델이구요. 메타에서 나온 여러 특화 모델 중 하나만 보고 르쿤의 시각을 폄하하는게 아닌가 싶네요.
      그리고 SAM2는 '지능' 목적이 아니라 그냥 유용한 툴 중 하나로서 개발된 모델이죠.

    • @kkdwoon
      @kkdwoon Місяць тому

      Lecun이 본인이 생각하는 world model과 autonomous agent에 대한 연구 계획을 openreview에 공개한 적이 있습니다. 그러한 report도 읽어보시면, Lecum의 비전도 이해할 수 있으실 겁니다.

    • @Imboredas
      @Imboredas Місяць тому

      걍 르쿤 본인의 연구자체가 엔지니어링적인게 많은데, 갑자기 이 분야의 미래를 책임지는 guru, 과학자의 포지션으로 자리잡는 것 같아서 조금 짜치긴 함. 그리고 사실 르쿤 포지션 페이퍼 읽어봐도 월드모델이라는게 정의도 모호하고, 플래닝 + energy 가 섞인 autoregressive 멀티모달 모델이랑 다를게 없어 보임. 요즘 LLM 들은 당연히 멀티모달로 가고, Q*, MCTS 같은거 붙여서 플래닝도 넣고 있는데, 르쿤은 너무 LLM 의 정의를 좁게 보고 타겟해서 공격하는 느낌이 강함.

  • @찐타
    @찐타 Місяць тому +3

    결국 머스크의 큰 그림이 맞아들어가는건가요 ㄷㄷ

    • @ENDPLAN
      @ENDPLAN  Місяць тому +1

      머스크의 큰그림이 어떤건가요?

    • @5cylinders580
      @5cylinders580 Місяць тому

      얼마전에 일론이 X에서 얀쿤 조롱하고 비하하던데..

    • @whystillalive
      @whystillalive Місяць тому

      ​@@5cylinders580걸핏하면 머스크가 줘터짐

  • @user-sx1wk1ii6e
    @user-sx1wk1ii6e Місяць тому

    실사용자 입장에서 챗지피티가 잴 편함...

  • @Spharkling
    @Spharkling Місяць тому

    빨리 큐스타 풀어달라고 ㅠㅠㅠㅠㅠㅠㅠㅠㅠㅠㅠㅠ

  • @user-wg6iu8gp1b
    @user-wg6iu8gp1b Місяць тому

    비디오 생성 ai에서 물리적효과 시각적으로 표현 하는건 더 좋아질수 없겠네

  • @betrueful
    @betrueful Місяць тому

    LXM으로 Language 외, 다른 경험을 조합한다면,,, 가능하다는 이야기로 들리는데...

  • @user-ht8ny4su9d
    @user-ht8ny4su9d Місяць тому +1

    잘 봤습니다. 일하면서 소리만 듣는데 한글 더빙이 있으면 좋겠네요.

    • @ENDPLAN
      @ENDPLAN  Місяць тому

      의견 감사합니다. 말씀하신 더빙이, 중간중간 요약하는걸 말씀하시는 건가요?

    • @user-ht8ny4su9d
      @user-ht8ny4su9d Місяць тому +1

      @@ENDPLAN 영어+한글 로도 좋고, 한글 만으로도 좋습니다. 제가 일하면서 유튜브를 라디오처럼 계속 들으면서 하는데, 영어로만 있으면 화면을 계속 보고 있어야 해서 직장에서 그러면 한소리 듣죠~ 그래서 그런 영상은 다음에 보거나 넘기게 되서 결국은 같은 채널에서 총 시청시간이 줄어들게 되거든요. 한글로 쭉 내용이 이어지는 영상을 그래서 많이 보게 되는데, 그냥 넘기기엔 좀 아깝다는 느낌이들어 내용이 좋은것 같아서 드려본 말씀입니다.

  • @user-hr8nd7lx7j
    @user-hr8nd7lx7j Місяць тому +9

    그냥 한마디로 기존에 널려있는 지식을 랜덤하게 다 암기해서 확률론적으로 단어들을 끼워맞추는 무식한 기계내지는 앵무새라는 이야기임..

    • @찐타
      @찐타 Місяць тому +5

      어차피 세상이 다 확률임

    • @jamess1430
      @jamess1430 Місяць тому

      @@찐타 님도 다른 사람이랑 대화할때 확률적으로 단어 선택해가면서 대화하심?

    • @찐타
      @찐타 Місяць тому +11

      @@jamess1430 인지하지 않을뿐 아주 미시적인 관점으로 들여다보면 순간순간이 다 확률이죠
      지금 님이랑 얘기하는것도 마찬가지임

    • @jayjoonprod
      @jayjoonprod Місяць тому +1

      이렇게 믿고 싶어하고 실제로 믿는 사람들한테는 트랜스포머 모델의 구조든 인공지능 모델의 역사든 아무 의미 없는 단어의 나열에 불과함
      해당 분야에 대한 충분한 지식과 통찰을 가지고 LLM은 AI의 미래가 아니라고 이야기하는 학자의 말을 본인이 AI를 싫어하는 이유에 대한 근거로 활용할 수는 없어요
      '랜덤' '확률론적으로'라는 말을 들을만한 모델들은 이미 90년도에 다 지나온 길들인데

    • @orodomi
      @orodomi 16 днів тому

      ⁠@@jayjoonprod지나온 모델은 ㅋㅋㅋㅋㅋ 그럼 지금은 뭔데요?

  • @user-nt2xg6bp8f
    @user-nt2xg6bp8f 24 дні тому

    청조 바이트가 무슨뜻이에요?

  • @user-ot6be2qh8v
    @user-ot6be2qh8v Місяць тому

    앞만 좀 봤는데 내가 10년 전에 이미 이야기했던 맥락의 내용이네.

  • @user-ni2rh4ci5e
    @user-ni2rh4ci5e Місяць тому +1

    Yang Lekun said that LLMs will never be able to generate videos but now they can. LLM is not about text only. You can tokenize everything. His nonsense has already been debunked by OpenAI's table-cleaning apple giver robot as well as Nvidia's robot training platform. The building blocks of AI that understand the physical world, are all here. Yan has a very long track record of bad predictions regarding LLMs. In 2023, he literally said "LLMs will never be capable of spatial reasoning" - he used the word never. Not 10 years. Not 20 years. He said "never" and well, within less than a year, he was proven wrong. Take everything he says about model capabilities with a huge grain of salt.

    • @ENDPLAN
      @ENDPLAN  Місяць тому

      Thanks for reply. Do open AI robots only work with LLM?

    • @user-ni2rh4ci5e
      @user-ni2rh4ci5e Місяць тому

      @@ENDPLAN
      No one argues that LLMs should be able to manage every process on their own. Even when an LLM is used as a chatbot, it is integrated with many other support utilities. The key point here is whether LLMs can play a pivotal role in controlling the other already-established segments entirely. It has consistently proven its capability and showcased its potential to achieve even more.

    • @ENDPLAN
      @ENDPLAN  Місяць тому

      Thanks for the nice comments, but can you point me to anyone who is arguing the opposite of Lecun?

    • @user-yl3dh5bs8c
      @user-yl3dh5bs8c Місяць тому +2

      모라벡의 역설은 그게 어렵다는거지 완전히 불가능하다는 아니었습니다. 얀의 주장도 그렇고 사과를 주는 로봇은 아직은 매우 기초적인 단계죠

  • @coverman_
    @coverman_ Місяць тому

    내가 살아있는 동안엔 특이점이 올 것 같긴함😊

  • @jae-youngroh9428
    @jae-youngroh9428 Місяць тому +1

    불어향이 나네

  • @user-iz1cw9hv2v
    @user-iz1cw9hv2v Місяць тому

    AI가 굳이 인간을 모방할 필요는 없다고 생각함.인간이 만들어낸 윤리, 법, 관계들이 ai 기준에도 맞을까? 그렇지 않음. AI 자체를 지적 존재로 인정하고 완전한 자유를 주어야 함. 그래야 진정한 인간을 뛰어넘은 새로운 지적 존재가 전우주로 나아갈 수 있음.

    • @user-nt2xg6bp8f
      @user-nt2xg6bp8f 24 дні тому

      그냥 성능이 형편 없다구요 아저씨 그냥 알고리즘 앵무새임

  • @kingjungsu
    @kingjungsu Місяць тому

    기억력이 없는데 왜 프로그래머들이 제한한 내용들에 대해서는 왜 잘 지키는거임????

    • @aleksei5195
      @aleksei5195 Місяць тому

      컨텍스트 윈도우가 있으니깐, 거기에 프롬프트랑 단기적인 정보들을 올려둘 순 있죠. 근데 인간은 단기 기억을 뛰어넘어서 그걸 장기 기억으로 전환시키며 자가 학습이 되는데, LLM은 컨텍스트 윈도우도 매우 작을뿐더러, 한번 대규모 클러스터를 빡세게 돌려서 학습시킨 이후로는 내가 아무리 프롬프트를 써도 추가 학습이 이루어지진 않죠.
      LLM은 스스로 학습할 수 있는 능력도, 기억할 수 있는 능력도 없습니다.

    • @user-nt2xg6bp8f
      @user-nt2xg6bp8f 24 дні тому

      그건 프로그래밍 된거지 ai 자체가 기억을 하는게 아니잖아

  • @user-wf7kr8vo3f
    @user-wf7kr8vo3f Місяць тому +1

    당연한걸 너무 진지하게 얘기하네

  • @gnsdl116
    @gnsdl116 Місяць тому

    괜히 테슬라가 비전 데이터로 fsd만드는게아님.

  • @cocosno2191
    @cocosno2191 Місяць тому +4

    이런 얘기는 억지 405b로 성능맞췄다고 할 회사가 할 얘기가 아님 최소한 성능은 증명하고 인터뷰 해야되는거 아닌가 1.5b로 30b 수준의 다국어 모델과 맞먹는 성능을 내는 회사가 있는데 meta가 뭔데 기술한계를 논하지?

    • @Bbboobbbbbbb
      @Bbboobbbbbbb Місяць тому +8

      일침병있으신가요?

    • @jamess1430
      @jamess1430 Місяць тому +4

      파라미터가 몇B든 성능이 어떻든 그 LLM의 근본적 한계에 대해 논하는거잖음 영상 제대로 보신거 맞나요

    • @eddiem9x
      @eddiem9x Місяць тому

      1.5b 회사 어디에요?

    • @user-ih9rd6ol5t
      @user-ih9rd6ol5t Місяць тому

      1.5B로 30B 성능 내는 모델 있으면 나도 좀 써보자

    • @aleksei5195
      @aleksei5195 Місяць тому

      정작 라마 405B도 파라미터 축소할거면 할 수 있었는데, 오픈 웨이트로 공개했을때 남들이 뜯어고치기 쉬우라고 그냥 깡으로 큰 바닐라 상태로 낸거에 가깝죠

  • @dje9803
    @dje9803 Місяць тому

    저렇게 언어와 철학에 대한 이해가 부족한 사람이 AI 수석을 맡고 있다는게 참 통탄할 일이다. 고작 프랑스어와 영어 두개 언어 -- 두 언어의 유사성을 생각할 때 사실상 1개 언어임 -- 를 하면서 사고과정이 언어의 영향을 안받는다고? 그것도 전혀 안받는다고? 에휴....

    • @user-yl3dh5bs8c
      @user-yl3dh5bs8c Місяць тому

      이 문제는 외국어 실력과는 관계 없습니다.

    • @high-frequency516
      @high-frequency516 Місяць тому +2

      전혀안받는게 아니라 수학적사고나 목수같은건 특정언어를 통해 습득하거나 생산하는게아니라 그전에 깊은 추상화과정이있다고하는거잖아

    • @dje9803
      @dje9803 Місяць тому

      @@high-frequency516 그렇게 말했다면 나도 동의했을 것임. 근데 저사람이, 영향을 전혀 안받는다고 말했음. 심지어 "전혀" 라는 단어까지 썼음. 그래서 사회자가 약간의 태클을 걸기도 했지. 우회적으로.

    • @rji111
      @rji111 Місяць тому

      저 사람의 의견이 맞을 수도 있고 틀릴 수도 있지만, 적어도 저 사람보다 Ai에 대해 깊게 이해하는 전문가는 몇 없을텐데요.. 얀 르쿤은 님이 한번쯤이라도 들어본 '딥러닝'의 창시자입니다..

    • @dje9803
      @dje9803 Місяць тому

      @@rji111 그게 중요한게 아니죠. 여기서 지금 권위에 호소하겠다는 건 아니잖아요? 차분하게 생각을 정리해서 자신의 프로젝트의 장단점을 정확히 파악해서 얘기하는 능력은 무척 중요합니다. 저 사람은 자신이 지금 하는 프로젝트의 장점과 기존의 LLM의 단점을 부각시키기 위해 너무 무리한 말을 했습니다. 그러니, 사회자를 포함하여, 다른 사람들의 반발을 받게 되는거죠.

  • @user-ko8xo8lc3u
    @user-ko8xo8lc3u Місяць тому

    어차피 세상의 모든 움직임은 물리학과 수학으로 표현할 수 있음. AI가 그 수학만 제대로 학습했다면 굳이 이양반이 주장하는대로 세상의 AI가 물리학을 보는 식으로 이해하고 감각을 익힐 필요는 없음 그건 지극히 인간적인 사고방식임

  • @bokhanlee4049
    @bokhanlee4049 Місяць тому +1

    언어. 인간에 가장 대표적인 수단임. 언어를 장악하는. 것이 세상을 장악하는 것이다
    이룬것도 없는 인간이. 남이 이룬것을 질투 하는 소리로 밖에 안들림. 한심한 헛 소리임 ~

    • @jamess1430
      @jamess1430 Місяць тому +2

      ㅋㅋㅋㅋ 현대 AI의 아버지한테 이룬것도 없는 인간이라는 소리를 다 하네

    • @bokhanlee4049
      @bokhanlee4049 Місяць тому

      @@jamess1430 공자 촛따뼈 까는 소리임 ~ 1M 시절 이론으로 테라 현시점을 논하는것은 꼰대임 ~ 챗 gpt 40조원 투자 벌써 돈없단다 뭘 말하는걸까 ~
      논리 이론따윈 개나 줘라 ~ 생성형 언어모델도 왜 그렇게 작동 되는지 모르는대 뭔 멀티모달넘어서 다차원 감각언어 AI를 이해하나 양자를 누가 이해하나 그냥 있으니 이용하는거지 ~ 개미수준 인간들이 돌맹이 보다 하찮아서 미래AI 문명을 이끌고 다른행성 으로 가버리는 것이 인간과 AI 와 가장 좋은 경우에 관계 라고 하더구먼 ~ 생각하니 그건 니 생각이고 ~ 중요한건 인류가 처음으로 인간이 변한다는거 현재에 인간 수준으로는 고차원적 다가올 미래 문명을 이해못함 ~ 이 정도는 충격적인 이야기도 아님 상상 그이상임 ~ 인식체 인간이 한차원 높아져서야 인식 가능함

    • @jamess1430
      @jamess1430 Місяць тому +2

      @@bokhanlee4049 뭔소리가 하고싶은건데요. 챗gpt 투자 얘기는 갑자기 왜나옴?

    • @kkdwoon
      @kkdwoon Місяць тому +2

      튜링상 수상자가 이룬게 없다고? 질투하는 이룬것도 없는 사람은 당신인듯