- 52
- 29 564
NLP 코기
South Korea
Приєднався 23 січ 2023
NLP와 프롬프트 엔지니어링에 대해서 알아보자! 자연어처리 마스터가 되기 위해서...
LLM(ChatGPT, GPT, Bard...)는 미래가 아니라 현재입니다. 잘 알아야 잘 쓸 수 있고 그것을 응용할 수 있습니다. 같이 Large Language Model의 흐름에 올라타세요.
#ai #nlp #chatgpt #gpt #prompt #promptengineering #bard #deeplearning #machinelearning #llm #largelanguagemodel #prompting #prompt #프롬프트 #프롬프팅 #프롬프트엔지니어링 #rag
LLM(ChatGPT, GPT, Bard...)는 미래가 아니라 현재입니다. 잘 알아야 잘 쓸 수 있고 그것을 응용할 수 있습니다. 같이 Large Language Model의 흐름에 올라타세요.
#ai #nlp #chatgpt #gpt #prompt #promptengineering #bard #deeplearning #machinelearning #llm #largelanguagemodel #prompting #prompt #프롬프트 #프롬프팅 #프롬프트엔지니어링 #rag
RAG에서 트리 구조로 재귀적으로 문서 검색! (RAPTOR: Recursive Abstractive Processing for Tree-Organized ...) | 꼬꼬엔
다가오는 미래의 흐름에 올라타자! NLP 코기
더 자세한 내용은 다음 논문을 참고하시기 바랍니다.
RAPTOR: Recursive Abstractive Processing for Tree-Organized Retrieval
(openreview.net/forum?id=GN921JHCRw¬eId=rquBHNygEX)
시청해주셔서 감사합니다. 구독! 좋아요! 해주세용!
시청 감사합니다.
#ai #chatgpt #bard #prompt #promptengineering #llama #llm #gpt #RAG
더 자세한 내용은 다음 논문을 참고하시기 바랍니다.
RAPTOR: Recursive Abstractive Processing for Tree-Organized Retrieval
(openreview.net/forum?id=GN921JHCRw¬eId=rquBHNygEX)
시청해주셔서 감사합니다. 구독! 좋아요! 해주세용!
시청 감사합니다.
#ai #chatgpt #bard #prompt #promptengineering #llama #llm #gpt #RAG
Переглядів: 137
Відео
Text를 넘어서 Video로 RAG (VideoRAG: Retrieval-Augmented Generation over Video Corpus) | 꼬꼬엔
Переглядів 25414 днів тому
다가오는 미래의 흐름에 올라타자! NLP 코기 더 자세한 내용은 다음 논문을 참고하시기 바랍니다. VideoRAG: Retrieval-Augmented Generation over Video Corpus (arxiv.org/abs/2501.05874) 시청해주셔서 감사합니다. 구독! 좋아요! 해주세용! 시청 감사합니다. #ai #chatgpt #bard #prompt #promptengineering #llama #llm #gpt #RAG
Chain of Thought로 Retrieval 성능 향상시키기 (Interleaving Retrieval with Chain-of-Thought ...) | 꼬꼬엔
Переглядів 1972 місяці тому
다가오는 미래의 흐름에 올라타자! NLP 코기 더 자세한 내용은 다음 논문을 참고하시기 바랍니다. Interleaving Retrieval with Chain-of-Thought Reasoning for Knowledge-Intensive Multi-Step Questions (arxiv.org/abs/2212.10509) 시청해주셔서 감사합니다. 구독! 좋아요! 해주세용! 시청 감사합니다. #ai #chatgpt #bard #prompt #promptengineering #llama #llm #gpt #RAG
시간을 고려하는 Retrieval (Time-sensitive Retrieval-Augmented Generation for Question Answering) | 꼬꼬엔
Переглядів 2103 місяці тому
다가오는 미래의 흐름에 올라타자! NLP 코기 더 자세한 내용은 다음 논문을 참고하시기 바랍니다. Time-sensitive Retrieval-Augmented Generation for Question Answering (dl.acm.org/doi/10.1145/3627673.3679800) 시청해주셔서 감사합니다. 구독! 좋아요! 해주세용! 시청 감사합니다. #ai #chatgpt #bard #prompt #promptengineering #llama #llm #gpt #RAG
반복적 긴 문서 압축과 RAG 성능 향상 (COMPACT: Compressing Retrieved Documents Actively for Question ...) | 꼬꼬엔
Переглядів 2193 місяці тому
다가오는 미래의 흐름에 올라타자! NLP 코기 더 자세한 내용은 다음 논문을 참고하시기 바랍니다. COMPACT: Compressing Retrieved Documents Actively for Question Answering (openreview.net/pdf?id=QoSLasuLAa) 시청해주셔서 감사합니다. 구독! 좋아요! 해주세용! 시청 감사합니다. #ai #chatgpt #bard #prompt #promptengineering #llama #llm #gpt #RAG
Speculative RAG (Speculative RAG: Enhancing Retrieval AugmentedGeneration through Drafting) | 꼬꼬엔
Переглядів 3224 місяці тому
다가오는 미래의 흐름에 올라타자! NLP 코기 더 자세한 내용은 다음 논문을 참고하시기 바랍니다. Speculative RAG: Enhancing Retrieval Augmented Generation through Drafting (arxiv.org/abs/2407.08223) 시청해주셔서 감사합니다. 구독! 좋아요! 해주세용! 시청 감사합니다. #ai #chatgpt #bard #prompt #promptengineering #llama #llm #gpt #RAG
RAG는 오타에 취약하다 (Typos that Broke the RAG’s Back: Genetic Attack on RAG Pipeline by ...) | NLP 코기
Переглядів 2674 місяці тому
다가오는 미래의 흐름에 올라타자! NLP 코기 더 자세한 내용은 다음 논문을 참고하시기 바랍니다. Typos that Broke the RAG’s Back: Genetic Attack on RAG Pipeline by Simulating Documents in the Wild via Low-level Perturbations (openreview.net/pdf/8c1749a0c8ec329e5b15dcb6c25fbd2e696ca84c.pdf) 시청해주셔서 감사합니다. 구독! 좋아요! 해주세용! 시청 감사합니다. #ai #chatgpt #bard #prompt #promptengineering #llama #llm #gpt #RAG
Domain-specific RAG를 위한 LLM 파인튜닝 (RAFT: Adapting Language Model to Domain Specific RAG) | NLP 코기
Переглядів 1,1 тис.5 місяців тому
다가오는 미래의 흐름에 올라타자! NLP 코기 더 자세한 내용은 다음 논문을 참고하시기 바랍니다. RAFT: Adapting Language Model to Domain Specific RAG (arxiv.org/pdf/2403.10131) 시청해주셔서 감사합니다. 구독! 좋아요! 해주세용! 시청 감사합니다. #ai #chatgpt #bard #prompt #promptengineering #llama #llm #gpt #RAG
Graph RAG (From Local to Global: A Graph RAG Approach toQuery-Focused Summarization) | NLP 코기
Переглядів 7295 місяців тому
다가오는 미래의 흐름에 올라타자! NLP 코기 더 자세한 내용은 다음 논문을 참고하시기 바랍니다. From Local to Global: A Graph RAG Approach to Query-Focused Summarization (arxiv.org/pdf/2404.16130) 시청해주셔서 감사합니다. 구독! 좋아요! 해주세용! 시청 감사합니다. #ai #chatgpt #bard #prompt #promptengineering #llama #llm #gpt #RAG
학습 없이 리랭커만을 이용해서 RAG 성능과 효율을 늘리는 방법 (DSLR: Document Refinement with Sentence-Level... ) | NLP 코기
Переглядів 3765 місяців тому
다가오는 미래의 흐름에 올라타자! NLP 코기 더 자세한 내용은 다음 논문을 참고하시기 바랍니다. DSLR: Document Refinement with Sentence-Level Re-ranking and Reconstruction to Enhance Retrieval-Augmented Generation (arxiv.org/pdf/2407.03627) 시청해주셔서 감사합니다. 구독! 좋아요! 해주세용! 시청 감사합니다. #ai #chatgpt #bard #prompt #promptengineering #llama #llm #gpt #RAG
LLM의 인퍼런스 속도를 2배 이상 높여주는 Speculative Decoding(Accelerating Large Language Model Decoding with..)|꼬꼬엔
Переглядів 8386 місяців тому
다가오는 미래의 흐름에 올라타자! NLP 코기 더 자세한 내용은 다음 논문을 참고하시기 바랍니다. Accelerating Large Language Model Decoding with Speculative Sampling (arxiv.org/abs/2302.01318) Fast Inference from Transformers via Speculative Decoding (arxiv.org/abs/2211.17192) 시청해주셔서 감사합니다. 구독! 좋아요! 해주세용! 시청 감사합니다. #ai #chatgpt #bard #prompt #promptengineering #llama #llm #gpt #RAG
Instruction-finetuned한 Embedding[One Embedder, Any Task: Instruction-Finetuned Text Embeddings]|꼬꼬엔
Переглядів 2407 місяців тому
다가오는 미래의 흐름에 올라타자! NLP 코기 더 자세한 내용은 다음 논문을 참고하시기 바랍니다. One Embedder, Any Task: Instruction-Finetuned Text Embeddings (arxiv.org/abs/2212.09741) 시청해주셔서 감사합니다. 구독! 좋아요! 해주세용! 시청 감사합니다. #ai #chatgpt #bard #prompt #promptengineering #llama #llm #gpt #RAG
RAG말고 Gen-read[Generate rather than Retrieve: Large Language Models are Strong Context ...]|꼬꼬엔
Переглядів 8028 місяців тому
다가오는 미래의 흐름에 올라타자! NLP 코기 더 자세한 내용은 다음 논문을 참고하시기 바랍니다. Generate rather than Retrieve: Large Language Models are Strong Context Generators (arxiv.org/abs/2209.10063) 시청해주셔서 감사합니다. 구독! 좋아요! 해주세용! 시청 감사합니다. #ai #chatgpt #bard #prompt #promptengineering #llama #llm #gpt #RAG
LLM은 훌륭한 Document 리랭커다[Large Language Models are Effective Text Rankers with Pairwise Ranking..]|꼬꼬엔
Переглядів 7599 місяців тому
다가오는 미래의 흐름에 올라타자! NLP 코기 더 자세한 내용은 다음 논문을 참고하시기 바랍니다. Large Language Models are Effective Text Rankers with Pairwise Ranking Prompting (arxiv.org/abs/2306.17563) 시청해주셔서 감사합니다. 구독! 좋아요! 해주세용! 시청 감사합니다. #ai #chatgpt #bard #prompt #promptengineering #llama #llm #gpt #RAG
RAG에서 Query에 따라서 다른 전략으로 Retrieval 하자[Adaptive-RAG: Learning to Adapt Retrieval-Augmented ...]|꼬꼬엔
Переглядів 1,8 тис.10 місяців тому
다가오는 미래의 흐름에 올라타자! NLP 코기 더 자세한 내용은 다음 논문을 참고하시기 바랍니다. Adaptive-RAG: Learning to Adapt Retrieval-Augmented Large Language Models through Question Complexity (arxiv.org/abs/2403.14403) 시청해주셔서 감사합니다. 구독! 좋아요! 해주세용! 시청 감사합니다. #ai #chatgpt #bard #prompt #promptengineering #llama #llm #gpt #RAG
얼마나 작은 단위로 검색해야 할까요?[Dense X Retrieval: What Retrieval Granularity Should We Use?]|꼬꼬엔
Переглядів 24410 місяців тому
얼마나 작은 단위로 검색해야 할까요?[Dense X Retrieval: What Retrieval Granularity Should We Use?]|꼬꼬엔
기나긴 프롬프트, RAG로 해결하자.[Retrieval meets Long Context Large Language Models]|꼬꼬엔
Переглядів 1 тис.10 місяців тому
기나긴 프롬프트, RAG로 해결하자.[Retrieval meets Long Context Large Language Models]|꼬꼬엔
ChatGPT가 프롬프트 중간 정보를 활용하지 못한다고?![Lost in the Middle: How Language Models Use Long Contexts]|꼬꼬엔
Переглядів 41710 місяців тому
ChatGPT가 프롬프트 중간 정보를 활용하지 못한다고?![Lost in the Middle: How Language Models Use Long Contexts]|꼬꼬엔
불필요한 내용을 줄이면 RAG가 성능이 올라간다고?!-2[RECOMP: IMPROVING RETRIEVAL-AUGMENTED LMS WITH COMPRESSION ...]|꼬꼬엔
Переглядів 253Рік тому
불필요한 내용을 줄이면 RAG가 성능이 올라간다고?!-2[RECOMP: IMPROVING RETRIEVAL-AUGMENTED LMS WITH COMPRESSION ...]|꼬꼬엔
불필요한 내용을 줄이면 RAG가 성능이 올라간다고?!-1[RECOMP: IMPROVING RETRIEVAL-AUGMENTED LMS WITH COMPRESSION ...]|꼬꼬엔
Переглядів 416Рік тому
불필요한 내용을 줄이면 RAG가 성능이 올라간다고?!-1[RECOMP: IMPROVING RETRIEVAL-AUGMENTED LMS WITH COMPRESSION ...]|꼬꼬엔
스스로 자신을 평가하는 RAG?-2[SELF-RAG: LEARNING TO RETRIEVE, GENERATE, ANDCRITIQUE THROUGH SELF-REFLECTION]
Переглядів 496Рік тому
스스로 자신을 평가하는 RAG?-2[SELF-RAG: LEARNING TO RETRIEVE, GENERATE, ANDCRITIQUE THROUGH SELF-REFLECTION]
스스로 자신을 평가하는 RAG?[SELF-RAG: LEARNING TO RETRIEVE, GENERATE, ANDCRITIQUE THROUGH SELF-REFLECTION]|꼬꼬엔
Переглядів 1,2 тис.Рік тому
스스로 자신을 평가하는 RAG?[SELF-RAG: LEARNING TO RETRIEVE, GENERATE, ANDCRITIQUE THROUGH SELF-REFLECTION]|꼬꼬엔
어떻게 AI 논문을 읽어야 할까요?[How to Read a Paper?]|꼬꼬엔
Переглядів 314Рік тому
어떻게 AI 논문을 읽어야 할까요?[How to Read a Paper?]|꼬꼬엔
Q: Bias-variance trade off에 대해서 설명해주시겠어요? 그리고 이는 머신러닝 모델의 성능에 어떤 영향을 미칠까요? |꼬꼬면
Переглядів 135Рік тому
Q: Bias-variance trade off에 대해서 설명해주시겠어요? 그리고 이는 머신러닝 모델의 성능에 어떤 영향을 미칠까요? |꼬꼬면
Q: 이미지 인식을 위해 컨볼루션 신경망(CNN)을 구현하는 방법을 설명하세요. CNN의 주요 레이어는 무엇이며 이미지 처리에 어떻게 기여하나요? |꼬꼬면
Переглядів 250Рік тому
Q: 이미지 인식을 위해 컨볼루션 신경망(CNN)을 구현하는 방법을 설명하세요. CNN의 주요 레이어는 무엇이며 이미지 처리에 어떻게 기여하나요? |꼬꼬면
GPT의 할루시네이션을 줄이고 최신 지식을 업데이트 시킬 수 있다고?(RAG)-2[Retrieval-Augmented Generation for Knowledge-....]|꼬꼬엔
Переглядів 320Рік тому
GPT의 할루시네이션을 줄이고 최신 지식을 업데이트 시킬 수 있다고?(RAG)-2[Retrieval-Augmented Generation for Knowledge-....]|꼬꼬엔
GPT의 할루시네이션을 줄이고 최신 지식을 업데이트 시킬 수 있다고?(RAG)[Retrieval-Augmented Generation for Knowledge-....]-1|꼬꼬엔
Переглядів 1,7 тис.Рік тому
GPT의 할루시네이션을 줄이고 최신 지식을 업데이트 시킬 수 있다고?(RAG)[Retrieval-Augmented Generation for Knowledge-....]-1|꼬꼬엔
Q: Cross validation과 boot strapping과 같은 기술은 머신러닝 모델에서 오버피팅과 언더피팅을 확인하고 방지하는데 어떻게 도움이 됩니까? |꼬꼬면
Переглядів 113Рік тому
Q: Cross validation과 boot strapping과 같은 기술은 머신러닝 모델에서 오버피팅과 언더피팅을 확인하고 방지하는데 어떻게 도움이 됩니까? |꼬꼬면
Q: 머신러닝에서 overfitting과 underfitting에 대해서 설명해주세요. |꼬꼬면
Переглядів 182Рік тому
Q: 머신러닝에서 overfitting과 underfitting에 대해서 설명해주세요. |꼬꼬면
Q: GPT 모델은 어떤 한계가 있으며 real-world applications에 어떤 영향을 끼칩니까? |꼬꼬면
Переглядів 103Рік тому
Q: GPT 모델은 어떤 한계가 있으며 real-world applications에 어떤 영향을 끼칩니까? |꼬꼬면
좋은 영상 감사합니다. 혹시 발표 자료는 따로 올려주시지는 않는 건가요?
요청하시면 메일로 보내드릴게요!!
코기님은 유명한 논문 같은 것 들은 어디서 파악하시나요?? 참고하시는 사이트가 있으실까요?
안녕하세요. 가장 고전적인 방법은 top conference에 올라오는 논문을 직접 제목과 abstraction을 보고 확인하는 것입니다 (ICLR, NIPS, AAAI, CVPR, ACL, EMNLP 등등). 그 외에 가장 트렌디한 논문을 읽는 방법으로는 Linkedin이나 X(구 트위터)에 논문들을 올려주는 계정들이 있는데 거기에서 사람들의 heart, share, 댓글들을 보고 그 유행의 정도를 판단합니다. 그리고 영향력있는 논문 같은 경우는 survey paper를 하나 잡은 후에 논문 하나하나 검색해가며 google scholar 기준 citation 수를 보고 영향력 있는 논문을 판단할 수도 있습니다. 저는 이러한 방법을 다 활용합니다 ㅎㅎ
재밌는 논문 소개해주셔서 감사합니다!!! 너무 잘보고있어요
@@linohong9406 감사합니다!! 더 재밌는거 많이 가지고 올게요 ㅎㅎ
항상 양질의 영상 감사드립니다🙏
와 테디님 역시 유튜브 맛잘알❤❤
오늘도 찾아주셔서 감사합니다! 좋은 하루 되세용!
이와 관련된 컨텐츠 너무나 좋은거 같습니다! 앞으로도 잘 부탁드립니다!
ㅋㅋㅋㅋ 감사합니다~!!
좋은 자료 감사합니다.
RAG 성능을 높이기 위한 방법이 무엇이 있을까 고민하면서 여러 검색을 하고 있었는데 유튜브가 그걸 알고 이 영상을 추천해 주었나봅니다. 소개시켜주신 방법으로 접근해서 성능 향상이 얼마나 있는지 테스트 해봐야겠네요. 좋은 영상 감사합니다
ㅋㅋㅋ 감사합니다!! 실제로 적용하실 때는 이 논문으로 해보세요. 제로샷이고 잘되는 것 같습니다. (arxiv.org/abs/2409.12468)
항상 잘보고있습니다~~
@@송재천-g7w 감사합니다!
방갚습니다❤ 테디노트님 방송서 뵙고 왔습니다 ㅎ
어서오세요. 감사합니다 ㅎㅎ
응원해요
@@youngwoongko706 감사합니다
흥미로운 논문이네요~
@@IRwithPUGGY 그렇습니다 😎
🎉
o1모델의 성지인가...
사랑해요
저두 사랑합니다 (?)
좋은 영상 감사합니다!!
감사합니다!
늘 양질의 논문 리뷰 감사드립니다. RAG 개발에 정말 많은 참고가 되고 있습니다. 정말로 감사드립니다🙏
감사합니다! 저도 동영상 잘보고 있습니다. 오늘도 찾아주셔서 감사합니다! ㅋㅋ
Wunsch Burgs
정말 재밋는 논문이네요!
@@IRwithPUGGY ㅋㅋ 이거 읽어보셨어요?
굉장한 논문이군요
아주 굉장한 논문입니다.
응원합니당ㅎㅎ
좋은 영상 감사합니다
서현 학우분께 추천받고 들어보았는데, 정말 좋은 강의 듣고 갑니다. 감사합니다.
하하 감사합니다 😊
정말 뇌섹남!! 감사하고 또 멋져서 당장 구독합니다.
제목이 적절하지 않는듯, RAG를 대체하는게 전혀아님. 그리고 이해도 안됨. 그냥 데이터 유사한것끼리 클러스터링해서 각 클러스트마다 프롬프트를 생성하고 반환하라는거 아니냐 이걸 설마 이렇게 설명한건가?
1. retrieve-then-read가 RAG 세팅이랑 같습니다. 정확히는 대체하자는건 아니고 이런 가능성이 있다는걸 보여준게 맞구요. 이 논문은 정확히는 generated output과 retrieved document를 섞어쓰는 하이브리드 해보는 것도 얘기합니다. 제목이 적절하지 않은 것도 맞는 것 같습니다. 그냥 재밌어보이고 클릭하고 싶은 제목을 단순하게 지었는데... 더 신경쓸게요 ㅎㅎ 2. 이해 안되게 설명드렸나봐요. 더 잘 설명드려볼게요. 뭔가를 이미 다 아는 상태로 설명하니까 설명하는게 어렵네요. 3. "그냥 데이터 유사한것끼리 클러스터링해서 각 클러스트마다 프롬프트를 생성하고 반환하라는거 아니냐 이걸 설마 이렇게 설명한건가?"를 설명한 내용이 맞아요. 더 자세하게 설명 드리면 클러스터링한 것을 demonstration으로 넣어주고 쿼리에 대해서 각각 demonstration에 대해서 document를 생성시키고 그것을 활용하는 거에요.
RAG를 왜 사용하는데요..
RAG를 사용하는 이유는 여러가지가 있지만 여기서는 knowledge-intensive task를 해결하는 관점에서 본 겁니다.
혹시 이런 개념으로 코드를 짜 넣은 샘플은 없을까요
당연히 있죠!: github.com/microsoft/LMOps/tree/main/prompt_optimization
다음시간 언제 나오나요
다음 시간 곧 더 열심히 올릴 예정이에요. 바쁜일이 일단 끝나서요. 관심갖고 댓글 달아주셔서 감사합니다.
채널에 정말 귀중한 영상 많이 업로드 되어 있었는데, 이제서야 발견하게 되었다니 ㅠㅠ 좋은 영상과 깔끔하고 이해하기 쉬운 설명 감사드립니다!!
극찬 감사합니다!! 더 재밌는거 많이 올려볼게요!
감사감사
구독과 좋아요 이미 눌렀었는데 중간에 또 누르라고 하셔서 망설여지네요>< 장난이고 좋은 리뷰 늘 감사드립니다!
저도 시청해주셔서 감사합니다
7:45 에타 <요즘 RAG 논문들 쭉 보다가 우연히 알게된 채널인데, 멋지십니다!>
ㅋㅋㅋ 감사합니다 😂 😆
재밌는 논문 좀 추천해주십쇼 그거 리뷰해볼게요. Rag에서 되게 마일스톤이 되는거 있나요 요즘?
@@NLP코기좋은영상 감사합니다! 저도 궁금한데 RAG만큼, 혹은 보다 영향력있는 LLM 관련 논문이 또 있을까요?
llm 챗봇 알못인데 이 채널 덕분에 잘 공부하고 갑니다!
요즘에 교양이죠 그냥 ㅎㅎ 감사해요 봐주셔서
안녕하세요 저는 중간고사를 준비하고 있는 고딩인데요 여기서 말하는 모델 complexity가 파라미터의 개수와 같은건가요??
네 맞아요. 고딩이 이런 영상을 보다니 대단하시네요 ㅎㅎ
코기님 안녕하세요, 좋은 논문 소개 항상 감사합니다. 다름이 아니라 궁금한 부분이 있어서 시간이 조금 많이 지났지만 질문해봅니다! 논문에 나온 Table들을 보면 본 논문에서 주장한 RECOMP 방식과 기존 RAG 방식이 적용된 RALM과 성능을 비교한 결과들이 나오는데 ppl을 제외하고 모든 성능 평가 matric에서 RALM보다 RECOMP의 성능이 낮은 걸로 확인이 되는데 이런 경험적인 지표들을 봤을 때 RECOMP방식으로 인해서 오히려 필요한 정보들이 소실되었다고 판단할 수 있지 않을까 생각을 했습니다! 그런데 코기님께서는 썸네일에 "불필요한 내용을 줄이면 RAG가 성능이 올라간다고?!" 라고 하셔서, 어떤 부분을 보고 이렇게 생각하셨는데 여쭙고자 끄적여봅니다! 배우는 입장으로써 한 수 부탁드립니다!
안녕하세요. 오라클 세팅보고 그렇게 얘기했던 것입니다. "For the extractive approach, we construct oracle compressor by considering all sentences si in the evidence document set and choosing the sentence that leads to the best end task performance (i.e., lowest perplexity or highest answer accuracy) for each example. For the abstractive approach, we consider summaries generated from different prompts ({sj} in Figure 3) and empty summary,and choose the one that leads to the best end task performance." recomp에서 위와 같은 방법으로 오라클 세팅을 만들었고 이 논문에서 주장했던 내용 중에 오라클 세팅을 통해서 RAG 시켰을 시에 entire documents를 넣었을 때보다 성능이 높다 라는 내용이 있습니다.( Table에 oracle이라고 되어있는 부분입니다.) 다시 한번 정리하면, 이 압축기가 최적의 성능을 내서 정답을 맞추는 정도로 압축을 잘 해낸다면 이론상 모든 문서를 넣었을때 보다 좋다라는 주장을 하면서 이후에 retrieved document의 내용을 압축을 해야할 것을 얘기하고 있습니다. 이해되셨나유?
@@NLP코기 그렇군요! 감사합니다!
첫 멘트 듣고 도망안간게 잘한거겠죠?
하하 재밌으셧으면 좋겠네요
우와~
선생님 잘들었습니다. 궁금한 것이 있어 여쭤봅니다. 오라클 세팅이 정확하게 어떤 의미인가요?
아주 좋으신 질문입니다. 오라클 세팅이라는 건 어원은 모르겠으나 upper bound를 말하는 것입니다. 어떤 세팅 중에서 최적의 상황으로 모든 것이 흘러갔을 때 setting이라는 거죠. 그러니까 여기서는 특정세팅에서 가장 운이 좋아서 최적으로 문제를 풀었을 때 정도 되겠네요.
@@NLP코기 감사합니다! 찾아봐도 잘 안나오고 이해가 안됐었거든요:)
???? 선생임 똘끼 상당하시네ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ
하하 웃어주시니 감사합니다
잘봤습니다 더 많이 자주 올려주세요
응원 댓글 감사합니다. 참 힘이 되네요! 더 자주 올려보겠슴다.
좋은 영상 감사합니다! 기획자로서 모델러 분들과 이야기할 떄 다뤄주신 내용들 너무 유용하게 활용하고 있습니다. 이번 내용도 유익하네요!
ㅎㅎ 이 내용들이 사전지식 없이 이해하기 어려울까? 하는 고민이 있었는데 도움이 되셨다니 정말 고마운 댓글이네요!!! 더 좋은 서비스로 나은 세상을 만들어주십쇼!
로봇 관련 컨텐츠는 없을까용?
로봇에 LLM을 결합해보시는건 어때요? 말하는 로봇 🤖 🤖
아니면 의사결정을 LLM으로 하기는 어때요?
It is mind-boggling to me that the video text is in 1/3 English add 2/3 Chinese and there's not enough information for an English person to make use of it yet it includes language why didn't you include an English translation of this as well why is part of it English barely and the rest of it is Chinese how am I supposed to read it if I'm English
Thank you for your comment. Actually, it's not Chinese, it's Korean. These contents are made for Koreans, but there are some parts that don't make sense when I changed all the terminologies to Korean, so I made the best use of English. In recent d videos, I'm trying to make materials in English, even if I can't explain them in English. If I have time in the future, I will try to make a video in English as well. Thank you for your good feedback.
이런채널을 이제 알다니.. 감사드려요
하하 저도 봐주셔서 감사합니다!
오늘 3시30분 nlp개발자 면접보고, 기술면접질문 공유하겟습니다.!
오오 잘보십쇼!!! 홧팅입니다.
Q. 유사도를 구하는 방식들을 설명해달라. Q. 코사인 함수에서 두 벡터의 방향이 같다고 가정할 때, 값이 몇일 때가 가장 유사하냐. Q. 최근 언어모델 파인튜닝 해본 경험있느냐 nlp에 대한 이론 질문이였습니다..
@@newwave2873 좋은 인사이트 공유해주셔서 감사합니다! 저도 많이 배웠슴다.
제가 본 어텐션의 식은 softmax를 취하기전 attention score를 구할 때, key의 크기로 나누어 정규화해주는 계산이 포함되던데. 동영상에서는 attention weights를 통해 output을 도출할 때, key의 크기로 정규화하는 과정은 없는건가요?
정규화하는 과정도 있는데 핵심 개념의 설명만 설명하기 위해서 넣지 않았습니다 ㅎㅎ 벡터 크기에 따라 값의 차이가 있기 때문에 길이로 정규화하는 과정이 있는 것이 맞습니다 ㅎㅎ
좋은 영상 감사합니다. 어떻게 생각하는지 궁금해서 질문 하나 남깁니다. 제 생각에는 RAG도 결국은 검색이라고 생각하는데 그렇다면 단순히 더 좋은 검색 능력이 있으면 이 논문에서 제시한 문제점이 다 해결 되는거 아닐까요? 임베딩 된 벡터값을 통해 리턴 하지 않고, 리턴 하는 결과 자체가 잘 된 검색이라면 이런 해결 방안들이 의미가 없지 않을까요? 이미 검색에 대해 엄청난 연구들이 있어 왔는데 다시 과거로 회귀해서 기본적인 검색능력 향상을 연구하는거 같아 궁금해서 물어봅니다.
영상봐주시고 의견 남겨주셔서 감사합니다 ㅎㅎ 1. 단순히 더 좋은 검색 능력이 있으면 이 논문에서 제시한 문제점이 다 해결 되는거 아닐까요? 이 논문에서 해결하려는 문제는 다음과 같습니다: 1) 단순히 검색 능력이 좋더라도 무분별한 고정된 횟수의 검색 때문에 생성할 때 관련없는 passages가 들어가서 성능이 떨어지는 점. 2) 단순히 검색 능력이 좋아관련있는 passages가 들어가도 해당내용에 대한 일관된 내용을 generator가 생성하지 않는 점. 따라서 이 두가지 문제를 해결하는 방법은 좋은 검색 능력만이 중요한 것만은 아닙니다.
2. 임베딩 된 벡터값을 통해 리턴 하지 않고, 리턴 하는 결과 자체가 잘 된 검색이라면 이런 해결 방안들이 의미가 없지 않을까요? 질문이 100% 이해가 된 것은 아니지만, 아까 1번에 답변과 같은 이유로 이 논문은 1) 답변에 검색이 필요할 때만 하기 2) 해당 검색된 내용으로 생성할 때 잘 생성했는지 평가하기 3) 이 모든 과정을 LM 하나의 모델이 스스로 할 수 있다는 것 이 3가지가 중요 내용입니다. 검색 방법은 기존 방법을 그대로 사용하고 있습니다. 그래서 충분히 이후 문제를 해결하는 연구에 줄 수 있는 인사이트가 충분하여 연구의 가치와 의미있다고 생각합니다. 3. 이미 검색에 대해 엄청난 연구들이 있어 왔는데 다시 과거로 회귀해서 기본적인 검색능력 향상을 연구하는거 같아 궁금해서 물어봅니다. RAG에서 기본적인 검색능력에 대한 연구는 지금도 꾸준히 진행하고 있습니다. 그것이 말씀하신대로 RAG에서 가장 핵심적으로 중요한 부분중 하나이기 때문입니다. 현재의 검색들도 완벽한 것이 아닌 장단점이 있다는 부분에서 기본적인 검색능력에 대한 연구는 앞으로도 계속 될 것 같습니다. 잘봐주시고 댓글 달아주셔서 감사합니다!! 저도 다른 분들하고 같이 이렇게 토론해볼 수 있는 기회가 있어서 좋네요 ㅎㅎ
@@NLP코기 답변 감사합니다! 최근에 이쪽 관련해서 관심이 많아서 여러 생각을 해봤는데 좋은 정보 감사합니다. 답변 들으니 이해가 되네요 ㅎㅎ 3번은 여전히 의문으로 남네요. 예를 들어 구글의 검색능력을 이용해 나만의 데이터를 검색한다고 하면 분명 지금의 RAG 방식보다 높은 정확도를 보여줄텐데 그럼 많은 부분이 해결 될거 같은데. 혹시 현재의 검색 툴들의 장단점에 대해서 아는 부분도 있으신가요? 저도 관련 연구를 하고 있는데 생각보다 이쪽에 관심이 맞는 사람을 찾기가 힘들었는데 답변주시니 감사하네요 ㅎㅎ
@@SsSs-vx1pl 검색해오는 document가 얼마나 쿼리와 관련있고 정보가 풍부하냐는 것은 크게 성능에 영향을 끼쳐서 구글꺼를 쓰면 성능이 올라갈 것입니다. 하지만 구글꺼는 어떻게 구현되었는지 공개되어 있지 않습니다. 구글 검색의 장단점 같은 경우에도 자세하게 어떻게 구현되었는지는 모르기 때문에 장단점을 알 수가 없고 구글이 독점하게 되고 더 발전될 수 없겠죠. 이런 부분 때문에 리트리버에 대한 연구는 꾸준히 진행되어야 한다고 생각합니다. 현대 retriever의 RAG 측면에서 해결할 점은 지금 알기로는 1.정교한 알고리즘이나 파인튜닝이 들어가기 때문에 구현이 어렵다는 점 2.특정 도메인에만 잘될 수도 있다는 점 3. 리소스가 많이 든다는 점 4. 도큐먼트와 query, 도큐먼트와 LLM 사이의 alignment가 어렵다는 점 5. 트레이닝 데이터의 퀄리티나 다양성에 디펜던시가 있다는 점 등등 다양한 측면에서 발전할 수가 있습니다. RAG는 단순히 검색하는 방법이 아니고 인공지능에게 질문했을 때 검색기반으로 알맞게 답변을 생성하는 것에 중점이 있다는 점에서 엄청 좋은 검색엔진 만으로는 해결하지 못하는 부분들이 있습니다. 도움이 되셨으면 좋겠네요 ㅎㅎ
뭔가 rag 동향을 전반적으로 소개하는 컨텐츠가 있으면 좋을 것 같네요. 저도 공부하고 한번 준비해보겠습니다!
시행착오를 겪어도 아무리 노련한 사람도 보면 좋을 영상이네요 잘 봤습니다📚
응원 말씀 감사합니다! 다른 유명한 연구관련된 아티클들도 리뷰해볼까합니다 ㅎㅎ 기대해주세요.
안녕하세요! 채널 영상을 잘 보고 있습니다. 혹시 NLP분야 논문에 나오는 용어를 따로 공부하는 방법이 있을까요? 시중에 나온 용어집도 없어 보여서 논문을 읽을 때 용어 때문에 시간이 더 걸리는 것 같습니다 ㅜ
안녕하세요. 잘봐주셔서 감사합니다. 저의 개인적인 의견은, 어쩔 수 없이 모를때마다 검색하면서 보는 것입니다. 저도 읽으면서 모르는 용어가 많이 나오는데 그럴 때마다 검색하는 수 밖에 없었습니다 ㅎㅎ 논문을 읽으시면서 모르는 용어가 나올 때 검색하시고 그냥 한 문장으로 이런 역할을 한다는 거구나 설명 가능할 정도로만 알고 추상화하시고 넘어가는 건 어떠세요?
채널에 배울 영상이 많습니다. 감사히 잘 보겠습니다.
저야말로 봐주셔서 감사합니다. 누구한테 도움이 되었다니 정말 보람차네요.
코기님에게 연락하려면 어디로 하면 되나요?
corginlp@gmail.com로 주시면 됩니다.