Create table question answering with Gen AI LLMs

Поділитися
Вставка
  • Опубліковано 21 жов 2024

КОМЕНТАРІ • 6

  • @laurenttran8288
    @laurenttran8288 6 місяців тому

    Great video. But, what can we do when our data is much larger than in the video example ? Is there any alternative way to increase the number of tokens per query?

    • @superlazycoder1984
      @superlazycoder1984  6 місяців тому

      Hi Lauren maybe you can try some the large model for Google tapas or Microsoft tapex. I can see large models seem to have higher model_max_length

    • @superlazycoder1984
      @superlazycoder1984  6 місяців тому

      You can also try chunking your table data and then feed it to model

    • @laurenttran8288
      @laurenttran8288 6 місяців тому

      @@superlazycoder1984 Yeah but it might lose some precision into the prediction no?

    • @superlazycoder1984
      @superlazycoder1984  6 місяців тому

      Chunking might not lose precision and also using larger models

  • @curtdrake8088
    @curtdrake8088 6 місяців тому

    *Promosm*