Data Validation with Pyspark || Real Time Scenario

Поділитися
Вставка
  • Опубліковано 29 гру 2024

КОМЕНТАРІ • 15

  • @RahulEternalLearner
    @RahulEternalLearner 2 місяці тому

    Amazing content. Thank you for sharing. This time youtube didn't show repeated ads. Thank you youtube.

  • @vamshimerugu6184
    @vamshimerugu6184 8 місяців тому

    Great explanation ❤.Keep upload more content on pyspark

  • @mohitupadhayay1439
    @mohitupadhayay1439 7 місяців тому

    Amazing content. Keep a playlist for Real time scenarios for Industry.

  • @ajaykiranchundi9979
    @ajaykiranchundi9979 7 місяців тому

    Very helpful! Thank you

  • @ArabindaMohapatra
    @ArabindaMohapatra 7 місяців тому

    I just started watching this playlist. I'm hoping to learn how to deal with schema-related issues in real time.Thanks

  • @listentoyourheart45
    @listentoyourheart45 Рік тому

    Nice

  • @ComedyXRoad
    @ComedyXRoad 5 місяців тому

    do we apply these techniques for delta tables also

  • @Lapookie
    @Lapookie Рік тому

    Cool, but is it like this every time ? Like you have a reference df containing all columns and file name / path and you have to iterate over it to see if its matching ?

  • @TelugodiPrapanchaYathra
    @TelugodiPrapanchaYathra 10 місяців тому

    how did you define reference_df and control_df

    • @DataSpark45
      @DataSpark45  10 місяців тому

      we defined as a table in any DataBase. As of know i used them as a csv

  • @OmkarGurme
    @OmkarGurme 9 місяців тому

    while working with databricks we dont need to start a spark session right ?

    • @DataSpark45
      @DataSpark45  9 місяців тому +1

      No need brother, we can continue with out defining spark session, i just kept for practice