#langchain

Поділитися
Вставка
  • Опубліковано 6 лют 2024
  • 📍 LangChain 한국어 튜토리얼
    github.com/teddylee777/langch...
    📍 실습파일
    github.com/teddylee777/langch...
    📍 블로그 글
    1. 기본편: teddylee777.github.io/langcha...
    2. 심화편: teddylee777.github.io/langcha...
    📘 랭체인 튜토리얼 무료 전자책(wikidocs)
    wikidocs.net/book/14314
    ✅ 랭체인 한국어 튜토리얼 코드저장소(GitHub)
    github.com/teddylee777/langch...
    ⭐️ 강의 홍보 ⭐️
    LangChain + ChatGPT + Streamlit 강의(VOD 강의)
    아래에 사전 등록을 하시면 강의 오픈 후 알림을 발송해 드릴 예정이며, 할인 쿠폰도 같이 제공해 드립니다.
    📍 LangChain + ChatGPT + Streamlit 강의 사전알림 신청 🙏🙏
    링크: forms.gle/buoXoiey7YHrVXVq9
    ---
    테디노트(깃헙 블로그) : teddylee777.github.io
    머신러닝 혼자서 스터디 : github.com/teddylee777/machin...
    LLM 프로젝트: llm.teddynote.com

КОМЕНТАРІ • 63

  • @bshfight
    @bshfight 4 місяці тому +7

    아니 이분 강의 지루하지가 않아

  • @jong01045
    @jong01045 Місяць тому +10

    이런 퀄리티의 강의가 유튜브로 올라온다..? 이건 진짜 나라에 공헌하는 수준인데요... 정말 감사합니다. 너무 이해가 쉽게 설명해주시네요. 앞으로도 잘 부탁드립니다 bb

    • @teddynote
      @teddynote  Місяць тому +1

      극찬해 주셔서 너무 감사드립니다. 더더더욱 좋은 퀄리티의 영상으로 보답하겠습니다!!🫡

  • @ykoy1577
    @ykoy1577 4 місяці тому

    항상 좋은 강의 감사드립니다! 잘 보고있습니다

    • @teddynote
      @teddynote  4 місяці тому

      항상 봐주셔서 감사합니다!🙌

  • @jay-and-b
    @jay-and-b 4 місяці тому +3

    와 미쳤다.. 좋은 강의 감사합니다.😊

    • @teddynote
      @teddynote  4 місяці тому

      감사합니다👍👍

  • @changjunlee2759
    @changjunlee2759 4 місяці тому +1

    족집게... 항상 감사 드립니다.^^

    • @teddynote
      @teddynote  4 місяці тому

      감사합니다 앞으로도 좋은 콘텐츠 만들겠습니다

  • @user-is8vt8rc2g
    @user-is8vt8rc2g 4 місяці тому +1

    감사합니다. 도움이 많이되었습니다.

    • @teddynote
      @teddynote  4 місяці тому

      감사합니다😀

  • @ryjun93
    @ryjun93 3 місяці тому +1

    감사합니다!!

  • @wonpaper
    @wonpaper 2 місяці тому +1

    선생님 강의는 늘 재밌습니다. 제 귀에 쏙쏙 들어와요 감사합니다. ^^

    • @teddynote
      @teddynote  2 місяці тому

      감사합니다~ 도움이 되셨으면 좋겠습니다~^^

  • @taek2879
    @taek2879 3 місяці тому +1

    와... 너무 좋은 강의랑 깃허브 정리 감사합니다...ㅜㅜ

    • @teddynote
      @teddynote  3 місяці тому

      너무너무 감사합니다. 앞으로 더더더 좋은 콘텐츠 만들겠습니다 🙌

  • @cheol7978
    @cheol7978 4 місяці тому

    강의력 미쳤다 람쥐..

  • @user-ww7ps7mo5p
    @user-ww7ps7mo5p 2 місяці тому +2

    강의 대박입니다^^ 개발자도 아니고 그냥 관심만 있어서 검색하다 여기까지 왔는데요. 1도 지루하지 않게 설명을 재미나게 해주시네요~ 감사합니다!

    • @teddynote
      @teddynote  2 місяці тому

      극찬입니다👍👍 감사합니다🫰

  • @user-ww7ps7mo5p
    @user-ww7ps7mo5p 2 місяці тому +1

    2번째 청강 입니다.. 들을 때마다 느끼지만.. 귀에 쏙쏙 잘 들어오네요. 테디노트님 덕분에 점점 이해도가 높아지고 있습니다~ 감사해요!!😊

    • @teddynote
      @teddynote  2 місяці тому

      좋은 말씀 감사합니다👍👍👍

  • @user-xk6rg7nh8y
    @user-xk6rg7nh8y 3 місяці тому +1

    너무 재밌다 …

  • @user-kj5ci9ro1p
    @user-kj5ci9ro1p Місяць тому +1

    퀄리티뭐야,..! 이걸이제 보다니 감사합니다
    Retriever 도 학습된 모델인가요? 아니면 알고리즘에 의한 건가요?

    • @teddynote
      @teddynote  Місяць тому +1

      왜 이제서야 오셨어요~ ㅎㅎ
      retriever는 유사도 기반 검색 알고리즘 입니다

    • @user-kj5ci9ro1p
      @user-kj5ci9ro1p Місяць тому

      ​@@teddynote 해당 영상에 이어서 "RAG, LangChain, Document Embedding" 에 관련된 해봄직한 프로젝트가 어떤게 있을까요!! 추천해주실 수 있나요?!

  • @Sww3158
    @Sww3158 2 місяці тому +1

    이해하기 쉽고 핵심만 설명해주셔서 행복한 강의였습니다!!
    실습 후애 토이프로젝트로 쇼핑몰의 링크를 넣으면 리뷰를 크롤링하고
    데이터를 기반으로 qa봇을 만들어볼까 하는데 혹시 이강의에서 변경할만한 점이 있을까요?
    개인적으로는 리뷰의 개수가 많아질 수도 있기에 chunk를 나누는 부분부터 좀 다를 것 같은데
    질문드려도 괜찮을까요?
    유익한 강의 감사합니다. 항상 잘 보고 있어요!!

    • @teddynote
      @teddynote  2 місяці тому

      QA 목적에 따라 다를 수 있을 것 같아요. 리뷰를 종합하여 리뷰 분석을 하느냐와 리뷰 하나하나에 대한 감정 분석을 하느냐 등등으로요. 종합하여 분석을 할 때는 수집된 리뷰를 하나로 합쳐서 적절한 텍스트 전처리 후에 Chunk 사이즈를 잘 나눠서 결과물로 뽑아내는 것이 중요할 것 같구요. 리뷰 하나씩 개별 처리를 할 때는 리뷰 하나의 길이가 그렇게 길지 않다는 가정하에 Chunk는 리뷰의 최대 길이를 잡아줘도 될 것 같아요!

  • @chankim9901
    @chankim9901 Місяць тому

    좋음 강의 올려주셔서 감사합니다.
    선생님 깃헙 자료로 공부 중에 질문드릴게 하나 있는데요,
    pdf를 로드해서 사용할때말고
    필드 별로 정리돼있는 csv 파일(내용, 요약문, 주요키워드)를 로드해서 사용할 때 고려해야할 점이 있을까요?
    내용에 대해 쿼리를 하면 요약문이나 키워드를 참조하기 원합니다.

    • @teddynote
      @teddynote  Місяць тому +1

      CSV Loader 를 사용하시면 편하게 가져오실 수 있을 것 같아요 그리고 조회한 데이터를 LLM 에 전달해야 하는데 이때 방식이 여러가지일 수 있어요. pandas dataframe 을 만들어 데이아 프레임 쿼리를 날릴 수도 있고요(보통은 통계량 다룰때)
      단순 텍스트 처리를 하고 싶으면 텍스트화 할 부분은 텍스트로 일괄 병합하여 llm에 넣고 요약을 하거나 요점 정리를 하거나 할 수도 있을 것 같아요~

  • @Dr.Ahn.
    @Dr.Ahn. 13 днів тому +2

    질문이 있습니다. 웹페이지에서 제목과 본문을 긁어올때 꼭 태그를 살펴보고 class나 id를 지정해서 뽑아내는 방법 밖에 없나요? 웹싸이트마다 그 형식이 다 다를텐데.. 뭔가 하나로 다 되는 펑션은 없나요?

    • @teddynote
      @teddynote  13 днів тому

      다 긁어올 수 있어요. 전체 페이지를 다 받아올 수는 있으나, 필요 없는 정보들이 많이 포함되어 있어서요. 질이 좋지 못합니다. 그래서 핀포인트로 가져오시는 것을 추천 드려요. 구조는 하나의 웹 안에서는 보통 통일됩니다.
      예를 들어 네이버 뉴스 플랫폼안에서는 구조는 동일하고 콘텐츠만 바뀌기 때문에요. 한 번의 귀찮음으로 차라리 더 질좋은 정보는 소싱하는 것이 나을 것 같습니다!

  • @user-rq9bk1yg7w
    @user-rq9bk1yg7w 2 місяці тому +1

    좋은 강의 감사합니다! 실습 파일 따라해보려는데 맨 처음에 load_dotenv() 실행 결과가 False로 나오는 건 어떤 문제일까요..? 이 부분에 대한 설명이 넘 간략히 되어있어서 어렵네요^^;

    • @teddynote
      @teddynote  2 місяці тому

      먼저 .env 라는 파일을 하나 만들어서 거기에 OPENAI_API_KEY를 설정해야합니다~
      도움이 될만한 링크 드리고요: learn.griptape.ai/latest/setup/02_openai/#installing-python-dotenv
      제가 영상으로도 한 번 다루겠습니다~~

  • @user-uv6pb1lw6q
    @user-uv6pb1lw6q 3 місяці тому +1

    좋은 가의 너무나 감사합니다. 다른 강의들도 다 시청해야겠어요 ㅠㅠ
    혹시 프롬프트를 hub에서 가져오지 않고, 직접 작성하는 경우에는
    input_variables=['context', 'question'] messages=[HumanMessagePromptTemplate(prompt=PromptTemplate(input_variables=['context', 'question'], template="You are an assistant for question-answering tasks. Use the following pieces of retrieved context to answer the question. If you don't know the answer, just say that you don't know. Use three sentences maximum and keep the answer concise.
    Question: {question}
    Context: {context}
    Answer:"))]
    이걸 어떤 형식으로 prompt = 에 넣어야 하나요?

    • @teddynote
      @teddynote  3 місяці тому

      지금 가져오신 부분에서 prompt=PromptTemplate... 끝까지 가져오셔서요. prompt 를 hub에서 가져온 프롬프트 대신 넣으시면 됩니다!

  • @Dr.Ahn.
    @Dr.Ahn. 2 місяці тому +2

    너무 좋은 강의네요. 질문이 있습니다. gpt-4-turbo-preview 같은 모델은 최대 128k 토큰의 입출력을 다룰 수 있는데, 이 경우에는 굳이 1000토큰씩 청크를 나누지 않고 전체 글을 통채로 넣어도 되지 않나요?

    • @teddynote
      @teddynote  2 місяці тому +1

      네, 기술적으로는 전체 컨텍스트를 모델에 직접 입력하는 것이 가능합니다. 그러나, 이 방법은 이론적으로 가능한 것이지, 실제로는 최적의 결과를 얻는 데 있어서는 권장되지 않습니다. 이에 대한 자세한 설명은 다른 영상(RAPTOR)에서도 다루어집니다. 간단히 말하자면, 모델에 입력되는 데이터는 질문과 밀접한 관련이 있는 압축된 정보여야 합니다. 이를 비유하자면, 오픈북 시험에서 1000페이지 분량의 책 전체를 제공하는 것과, 잘 정리된 요약 노트를 사용하는 것 사이의 차이와 유사합니다. 압축된 정보를 사용하는 것이 보다 효율적이며 바람직한 접근 방식입니다.

    • @Dr.Ahn.
      @Dr.Ahn. 2 місяці тому +1

      @@teddynote 와 좋은 답변 감사합니다ㅠ 넘 궁금했었거든요. 챗봇 만드는데 관심이 많아서 정말 많은 영상들을 보았는데.. 그 중 단연 최고입니다. 한줄기 빛이십니다.

    • @teddynote
      @teddynote  2 місяці тому

      @@Dr.Ahn. 과찬이십니다🥹 앞으로도 좋은 영상 많이 공유드리겠습니다👍👍

  • @jisulee3650
    @jisulee3650 2 місяці тому +1

    좋은 강의 감사합니다! ❤ 만약에 뉴스기사와 관련없는 질문(예를 들면, 아침에 사과를 먹는 것의 효능은 무엇인가?)을 하면, 어떠한 수준의 대답이 나오나요? 직접 검색에 걸리는 문서들은 임베딩된 기사 내용에 제한된다고 보면되나요? (그리고 그 기사들을 학습데이터라고 부를 수 있을까요?) 만약 RAG를 통해 앞서 주제와 관련없는 (사과 효능) 질문에 대해 답변을 받을 수 있다면, OpenAI 임베딩에 영향을 받아서 일 수 있나요? 다시말해 RAG가 기존 LLM 의 학습데이터도 고려하여 답변을 내놓는 것인지 궁금합니다.

    • @teddynote
      @teddynote  2 місяці тому +1

      1. 뉴스기사와 관련없는 질문은 모른다 혹은 관련성 없다로 나와야 합니다
      2. 주어진 기사에 국한 됩니다(추가 검색도 가능하게 구현할 수 있습니다)
      3. 학습 데이터 보다는 주어진 문맥(context) 라는 표현을 씁니다. 학습데이터와는 구분됩니다.
      4. 주어진 문맥에 기반으로 답하라고 지시하였기 때문에 외적인 내용은 배제한채 답합니다.

    • @jisulee3650
      @jisulee3650 2 місяці тому

      감사합니다!! 😊

  • @user-ln9yr9sw2u
    @user-ln9yr9sw2u Місяць тому +2

    RAG가 새로운 데이터로 학습하는 것 말고도 "정답이 없는 창의적인 문제에 대해서 잘 된 답변들을 학습하는" 방식으로 GPT 성능을 향상시킬 수 있을까요?

    • @teddynote
      @teddynote  Місяць тому +1

      RAG의 주된 목적은 Retrieval 에 있다고 볼 수 있는데요 한마디로 오픈북 테스트를 생각하시면 쉽습니다.
      정답이 없다는 문제에서 답변을 도출해 냈을때 (예를 들면 광고 카피라이팅) RAG 에 과거 답변 이력이나 정답이 없는 문제에 대하여 답변을 도출한 과정 들이 들어가 있다면 이를 참고하여 답변하는 것은 가능해 보입니다.

    • @teddynote
      @teddynote  Місяць тому +1

      한마디로 답변을 정답지에서 찾아서 답변하기 보다 답변을 도출해낸 과정을 모사하여 답변하도록 유도해보시면 좋을 듯 합니다!

    • @user-ln9yr9sw2u
      @user-ln9yr9sw2u Місяць тому

      감사합니다!!! 도움이 많이 됐습니다!

  • @user-vg2cg4lv9x
    @user-vg2cg4lv9x Місяць тому +1

    혹시 영상을 어떤 순서로 보면 될까요? 혹시 강의 안내시나요 ㅋㅋ 회사에서 팔란티어를 쓰는데 결국 기본개념이 너무 중요하네요 ㅜㅠ

    • @teddynote
      @teddynote  Місяць тому +1

      LangChain 튜토리얼 재생목록 순서대로 보셔도 좋을 것 같아요. 5월말에 강의 사전신청 페이지 오픈 예정입니다~

  • @jay-and-b
    @jay-and-b 4 місяці тому +3

    안녕하세요~ 어제부터 실습해보고 있는데 faiss에서 문제가 발생해 질문드립니다.
    from_documents가 존재하지 않는다고 뜹니다ㅠㅠ
    faiss도 소문자로 인식이 되고..
    파이썬 버전을 3.12에서 3.11, 3.10으로 다운하고 faiss-cpu도 설치해봤는데 그대로네요.
    방법이 있을까요?

    • @jay-and-b
      @jay-and-b 4 місяці тому +4

      해결했습니다ㅠㅠ from langchain_community.vectorstores.faiss import FAISS 라고 불러오면 됩니다. 왜 이렇게 되는건지는 모르겠으나..저와 같은 문제를 겪는 분들 참고하세요.

    • @teddynote
      @teddynote  4 місяці тому

      패키지는 소문자 faiss 이고요 모듈명은 FAISS 대문자입니다~! 대소문자 구분하기 때문에 지켜주셔야 오류가 없습니다~👍

  • @jeon-cu7ze
    @jeon-cu7ze Місяць тому +1

    로컬의 회사문서들을 기반으로 chatGPT등 온라인 기반 LLM을 통해 답변을 합니다. 이때 로컬 자료들에 관련 정보들은 LLM에 공유가 안 되는지 문의합니다. 다이어그램을 보면, LLM은 로컬 자료들을 기반하여 인간의 언어로 변환해주는 작업만 하니 로컬 자료들이 온라인에 뿌려지지는 않을 것 같지만 제가 이해한 것이 맞는지 궁금합니다.

    • @teddynote
      @teddynote  Місяць тому +1

      ChatGPT를 사용하면 공유 될 수 있어요. 물론 공유되지 않는 엔터프라이즈 형을 사용하시면 되긴 하지만 개인이 사용하기엔 어렵죠.
      그래서 chatgpt 모델 대신 오픈 모델과 DB도 내부에 구축하여 데이터 유출 방지 하기 위한 설계를 하실 수도 있어요

    • @jeon-cu7ze
      @jeon-cu7ze Місяць тому

      @@teddynote LLM은 llama3로 세팅하여야 겠어요. 항상 좋은 영상 감사합니다.

  • @jy6180
    @jy6180 3 місяці тому +1

    안녕하세요, 이런 챗봇을 만들어서 무료로 서비스화 한다면, 비용이 많이 발생될까요?

    • @teddynote
      @teddynote  3 місяці тому +1

      사용자가 많다면 그만큼 비례해서 과금이 발생하기 때문에 얼마나 많은 사용자가 이용하는가가 관건일것 같아요!

  • @user-lq4mr6xc8d
    @user-lq4mr6xc8d 2 місяці тому

    vectorstore 생성하는 과정에서 Error Code 429 라고 뜨는데 유료 결제로 바꿔도,, 똑같은 증상이 뜨네용,, 어떻게 해결하면 좋을까요?

    • @teddynote
      @teddynote  2 місяці тому

      vectorestore 는 과금이 발생하지 않습니다~ 아마 Embedding 이나 모델 사용하실때 유료 모델 사용하실 것 같고요. API 키가 올바르게 설정되어 있는지 한 번 확인해 보세요!

  • @MrSdfgh98
    @MrSdfgh98 3 місяці тому +1

    테디님 따라해보고싶은데 실습파일 복구좀 해주실수있으실까요

    • @teddynote
      @teddynote  3 місяці тому +1

      링크 수정했습니다~^^

    • @MrSdfgh98
      @MrSdfgh98 3 місяці тому +1

      @@teddynote 감사합니다 ~