Vivian Lobo
Vivian Lobo
  • 33
  • 63 189

Відео

McCulloch-Pitts (MP) neuron for XOR gate
Переглядів 5 тис.3 роки тому
McCulloch-Pitts (MP) neuron for XOR gate
McCulloch-Pitts (MP) neuron for NOR gate continued...(Plotting a graph)
Переглядів 7293 роки тому
McCulloch-Pitts (MP) neuron for NOR gate continued...(Plotting a graph)
McCulloch-Pitts (MP) neuron for NOR gate
Переглядів 6 тис.3 роки тому
McCulloch-Pitts (MP) neuron for NOR gate
McCulloch-Pitts (MP) neuron for AND NOT function
Переглядів 2,2 тис.3 роки тому
McCulloch-Pitts (MP) neuron for AND NOT function
McCulloch-Pitts (MP) neuron for NOT gate
Переглядів 3,1 тис.3 роки тому
McCulloch-Pitts (MP) neuron for NOT gate
McCulloch-Pitts (MP) neuron for OR gate
Переглядів 5 тис.3 роки тому
McCulloch-Pitts (MP) neuron for OR gate
McCulloch-Pitts (MP) neuron for AND gate
Переглядів 4,1 тис.3 роки тому
McCulloch-Pitts (MP) neuron for AND gate
Module 06 | Application Layer | Part 1
Переглядів 683 роки тому
Module 06 | Application Layer | Part 1
TCP Timers
Переглядів 2,4 тис.3 роки тому
TCP Timers
TCP State Transition or Connection Modeling
Переглядів 6 тис.3 роки тому
TCP State Transition or Connection Modeling
Module 05 | TCP Header | Computer Networks
Переглядів 1063 роки тому
Module 05 | TCP Header | Computer Networks
Experiment 08 | CNL | Implementation of Network Topology (Star Topology) in NS2 via TCL
Переглядів 6413 роки тому
Experiment 08 | CNL | Implementation of Network Topology (Star Topology) in NS2 via TCL
Leaky Bucket Algorithm | Computer Networks
Переглядів 3353 роки тому
Leaky Bucket Algorithm | Computer Networks
Learning by Classification using Gaussian Naive Bayes | Machine Learning Workshop
Переглядів 353 роки тому
Learning by Classification using Gaussian Naive Bayes | Machine Learning Workshop
Bayesian Belief Network and Markov Model
Переглядів 1,4 тис.3 роки тому
Bayesian Belief Network and Markov Model
Hidden Markov Model
Переглядів 2383 роки тому
Hidden Markov Model
Markov Model | Numerical
Переглядів 1403 роки тому
Markov Model | Numerical
Application of Bayes Rule on HMM
Переглядів 893 роки тому
Application of Bayes Rule on HMM
Support Vector Machine SVM | Part 1
Переглядів 1093 роки тому
Support Vector Machine SVM | Part 1
Support Vector Machine SVM | Part 2
Переглядів 713 роки тому
Support Vector Machine SVM | Part 2
SVM and Maximum Margin Linear Separators
Переглядів 7073 роки тому
SVM and Maximum Margin Linear Separators
Finding Optimal Hyperplane
Переглядів 5483 роки тому
Finding Optimal Hyperplane
Clustering
Переглядів 583 роки тому
Clustering
Expectation Maximization Algorithm | Part 1
Переглядів 873 роки тому
Expectation Maximization Algorithm | Part 1
Expectation Maximization Algorithm | Part 2
Переглядів 443 роки тому
Expectation Maximization Algorithm | Part 2
Expectation Maximization Algorithm | Numerical
Переглядів 1783 роки тому
Expectation Maximization Algorithm | Numerical
Radial Basis Functions | Numerical
Переглядів 10 тис.3 роки тому
Radial Basis Functions | Numerical
Dimensionality Reduction
Переглядів 2073 роки тому
Dimensionality Reduction
Principal Component Analysis (PCA)
Переглядів 1733 роки тому
Principal Component Analysis (PCA)

КОМЕНТАРІ

  • @mkgh7322
    @mkgh7322 6 місяців тому

    👏 Thank you sir

  • @opcolget0077
    @opcolget0077 7 місяців тому

    sir a12 is positive and a11 is negative ???

  • @vishnupatel8411
    @vishnupatel8411 8 місяців тому

    🙏🙏

  • @Mahesh_Badgujar
    @Mahesh_Badgujar 10 місяців тому

    can you please elaborate why you have taken -1/underroot 2 in lamda 2 for value of x1 ?

  • @ishapatil6570
    @ishapatil6570 10 місяців тому

    Thankkk you so muchhh!

    • @UtsavKuntalwad
      @UtsavKuntalwad 10 місяців тому

      video upload karke 3 sal hua hai , par cmmt sab exam ke ek din pehele kar rahe hai😂😂

  • @CharmiTank
    @CharmiTank 10 місяців тому

    If factors are 0 then sigma2 will be 0 and u2 will be infinite

  • @rooseweltantony5220
    @rooseweltantony5220 10 місяців тому

    Nice explaination sir

  • @AyushGarg-r5r
    @AyushGarg-r5r 11 місяців тому

    this is wrong definately

  • @gauravparashar304
    @gauravparashar304 Рік тому

    Your calculations are not correct.

  • @aditi189
    @aditi189 Рік тому

    simple and straight explanation. Thank you!

  • @deepjyoti09
    @deepjyoti09 Рік тому

    Windows kharidle bhai

  • @returntosacredhome3594
    @returntosacredhome3594 Рік тому

    It is wrong calculation

  • @niamatkhan5563
    @niamatkhan5563 Рік тому

    center point=. 0, 0.5 ,1 Evaluation point= 0 ,0.5 ,0.6 ,0.7 ,0.8 ,1 Shape parameter=3 function=e^sinπx Solve this by using MQ RBF interpretation technique

  • @er.shashikantkumar9584
    @er.shashikantkumar9584 Рік тому

    your solution is totally wrong. if you don't know how to find the distance, then answer will be wrong. the solution will be (phi1,phi2)={(1, 0.1353), (0.3678, 0.3678), (0.3678, 0.3678), (0.1353, 1)

  • @usamazahid1
    @usamazahid1 2 роки тому

    excellent tutorial...keep it up

  • @brainlink_
    @brainlink_ 2 роки тому

    PER ITALIANI: Ho realizzato una playlist sulle reti RBF! :) quì -> ua-cam.com/video/fcBz-3NchCI/v-deo.html

  • @ankitchouhan1808
    @ankitchouhan1808 3 роки тому

    How did you get 0.3678 value when you considered x(0,1) and u(0,0) x-u= [0 1] - [0 0] = 0*0 - 1*0 = 0 how it came 0.3678????? plz clear that problem.

    • @vivianlobo8440
      @vivianlobo8440 3 роки тому

      Hello Ankit, As per the formula, once you calculate x - µ1, whose answer is [ 0 1], we need to calculate the mod value of [0 1], which is 1 (i.e., sqrt (0^2 + 1^2) = 1). Then, as per the formula, it is exp(-1), which is 0.3678.

    • @kevinvigi9791
      @kevinvigi9791 3 роки тому

      @@vivianlobo8440 true, but there is error in phi2(x) calculation for (0,0) case and phi1(x) calculation for (1,1) case. in both these cases the phi value is e^(-2). Hence the points (1,1) that u got in (0,0) and (1,1)-(first and fourth case) will be (1,0.135) and (.135,1) respectively

    • @anloncul8268
      @anloncul8268 3 роки тому

      @@kevinvigi9791 kevin is right actually

    • @fixufixu5651
      @fixufixu5651 2 роки тому

      @@kevinvigi9791 I agree with you

  • @payalsagar1808
    @payalsagar1808 3 роки тому

    Thankyou so much ! It was lit and can u pls explain on wht basis you took initial values of theta A and theta B which we assumed?

  • @RISHABHBHATNAGAR_
    @RISHABHBHATNAGAR_ 4 роки тому

    Very helpful video sir!

  • @nisharshah7167
    @nisharshah7167 4 роки тому

    One of the best faculty in st. John 😅 keep it up sir 👍