La singularité | Intelligence Artificielle 24

Поділитися
Вставка
  • Опубліковано 15 чер 2024
  • Aujourd'hui, on parle de la singularité technologique, anticipée par des chercheurs comme von Neumann, Good ou Bostrom. #DébattonsMieux
    Sondage complet : goo.gl/forms/7OWS8ht1vkLh9EgB3
    Facebook : / science4allorg
    Twitter : / science__4__all
    Tipeee : www.tipeee.com/science4all
    Moi en podcast avec Mr Phi :
    Version UA-cam : / @axiome7403
    Version Audio : feeds.feedburner.com/Axiome
    Sous-titres sur les autres vidéos : ua-cam.com/users/timedtext_cs_p...
    Le deep learning | Science Étonnante
    • Le deep learning
    NVIDIA's AI Dreams Up Imaginary Celebrities | Two Minute Papers
    • NVIDIA's AI Dreams Up ...
    What is backpropagation really doing? 3Blue1Brown
    • What is backpropagatio...
    Comment l'intelligence artificielle révolutionnera la santé ? Cédric Villani | TEDxSaclay
    • Comment l'Intelligence...
    Conférence sur la super-intelligence | Monsieur Phi
    • Conférence sur la SUPE...
    Pari en Live | Axiome 10
    • Pari En Live | Axiome 10
    Ceci est un écureuil | Squeezie (Quick draw)
    • CECI EST UN ÉCUREUIL
    Facebook's Artificial Intelligence Research | Facebook
    • Artificial Intelligenc...
    Are Droids Taking our Jobs? Andrew McAfee | TED 2012
    • Andrew McAfee: Are dro...
    AI and Compute | OpenAI
    blog.openai.com/ai-and-compute/
    What is Singularity, Really? Up and Atom
    • What is a Singularity,...
    When Will AI Exceed Human Performance? Evidence from AI Experts | Grace et al. (2017)
    arxiv.org/abs/1705.08807
    The Singularity is Near | Ray Kurzweil
    Superintelligence: Paths, Dangers, Strategies | Nick Bostrom
  • Наука та технологія

КОМЕНТАРІ • 328

  • @aua6330
    @aua6330 6 років тому +57

    18:50 Ça m'a fait flipper !

  • @le_science4all
    @le_science4all  6 років тому +29

    Je vous invite à partager vos prédictions quant à la singularité : goo.gl/forms/7OWS8ht1vkLh9EgB3
    PS : Je m'excuse pour le son. Final Cut Pro semble bugguer... je ne sais pas pourquoi. J'ai réexporter la vidéo plusieurs fois et à chaque fois, il y a ces bugs sonores :/

  • @TheAlou2000
    @TheAlou2000 6 років тому +11

    Hâte de voir le futur que l'on dépeint maintenant et de revenir sur ces vidéos pour une bonne dose de nostalgie....

  • @etiti8191
    @etiti8191 6 років тому +3

    "Votre avis peut de chance d'être plus pertinent que celui des experts. Ayez bien conscience de l'étendue de votre ignorance..."
    Tu m'as fait rêver !!! 👍

  • @gregorygrandjean2895
    @gregorygrandjean2895 6 років тому +21

    Distance terre - lune =~ 4*10^8 m
    Univer observable =~ 8*10^26 m
    (Source : Google).
    L'univers observable est donc environ 8*10^26/(4*10^8) = 2 * 10^18 fois plus grand que la distance terre - lune.
    Le pliage de papier fonctionne par puissance de 2.
    2^10 =~ 10^3
    2*10^18 =~ 2^61
    On a donc 42 + 61 = 103 pliage de papier pour atteindre l'épaisseur de l'univers observable.

    • @pesquetjulien1099
      @pesquetjulien1099 5 років тому +6

      Et si tu la plie encore une fois ta feuille t'a 2 univers observable, t'as intérêt à avoir des grandes mains

    • @hx7111
      @hx7111 3 роки тому

      Je m'attendais a un truc du genre 100

  • @dominiquehandelsman137
    @dominiquehandelsman137 5 років тому

    Votre capacité à compiler des informations intéressantes pour en faire une présentation originale et argumentée est formidable. Concernant le sujet, comme vous le rappelez : "il est bien difficile de faire des prédictions, surtout sur l'avenir".

  • @Kolinnor
    @Kolinnor 6 років тому +13

    Pour ceux qui jouent à des jeux de tirs, c'est la première fois que je fais un "flick shot" sur youtube, c'est-à-dire qu'en lisant le titre de la vidéo mon curseur s'est déplacé à une vitesse proche de la lumière pour cliquer dessus.

    • @steadyJul0
      @steadyJul0 6 років тому +3

      à la vitesse de la lumière... dommage mais ta main et la souris sont désintégrés ;)

    • @Asmath21
      @Asmath21 6 років тому

      Pas forcément s'il y a une enorme sensibilité

    • @SuNeos
      @SuNeos 6 років тому

      Yorwan même avec une sensi a 12K dpi ...
      Je sais pas si tu te rends compte de la vitesse de la lumière ...

    • @Asmath21
      @Asmath21 6 років тому +1

      Nan mais bien sur c'était pour la blague.

  • @mboaart
    @mboaart Рік тому +1

    nous sommes en 2023 et mec c'est dingue ce qui se passe entre Chat gpt qui est en version 4.5, et les rumeurs d'IA sentientes, des avancées litteralement dans tous els domaines à t'en peter le crâne...

  • @justchill4297
    @justchill4297 6 років тому +7

    Continue tes vidéos les humains en ont besoin !

    • @steadyJul0
      @steadyJul0 6 років тому

      fais gaffe on va griller que t'es une IA avec ce genre de commentaire^^

    • @justchill4297
      @justchill4297 6 років тому

      C'est Lê la vrai IA

  • @fredgarcialevrai
    @fredgarcialevrai 6 років тому

    Génial ! C'est clairement la vidéo la plus accessible de cette série et en même temps c'est très profond. Je suis effaré de voir que ça ne fait que 12 000 vues en 24h (oui, mon biais du monde juste, tout ça tout ça).

  • @nevertrustuserinput
    @nevertrustuserinput 6 років тому

    Bravo pour ton travail rigoureux, ta chaine est vraiment très intéressante.
    Concernant ton équation, la première approximation est log-linéaire dI = a.I.dt, comme tu l'explique si bien, il a fallu monter en puissance, en quelque sorte ajouter un ordre dI = a.I.dt + b.I.dt puis comme on imagine les choses exploser, on néglige le terme faible. Mais alors I peut être n'importe quelle fonction (log)analytique.
    Remarque en ce qui concerne l'explosion, si le coefficient dans l'exponentielle est suffisamment faible, il pourrait y avoir besoin de millions d'années. Je trouve qu'interpréter les exponentielles automatiquement en termes d'explosion est à prendre avec des pincettes. La définition même de l'explosion est le fait d'avoir une croissance rapide, mais pas forcément que la quantité totale dépasse à un instant proche un seuil qu'on considère grand.

  • @jean-micheltorres115
    @jean-micheltorres115 6 років тому

    AH ! une idée de cadeau pour la fête des pères ! ;-) Merci pour cette excellente video à nouveau.

  • @AdrienBRUNO
    @AdrienBRUNO 6 років тому

    Bravo!! c'est parfait! un plaisir de vous écouter et surtout félicitations pour avoir oser, risquer de parler d'un sujet qui fâche, qui est considéré pas très sérieux, de la poudre au yeux venue des US... Enfin bref! le temps évolue linéairement pourquoi le voir évoluer exponentiellement... En fait, même dans 10 ans, il y aura le même scepticisme parce que l'on croit toujours que c'est linéaire...
    La courbe en S que vous dessinez est expliquée dans le livre de Kurzweil... Ce dernier "montre" que c'est une courbe parmi tant d'autres et il y en aura d'autres juste après et encore d'autres... jusqu'à la fin!
    La courbe de OPENAI.com est un plaisir pour les singulitariens. Un élément essentiel de cet article est développé en conclusion: en fin 2017, une nouvelle technologie permet maintenant d'améliorer le parallélisme et de gagner un facteur de 200 sur le training des traductions. Ceci signifie que la courbe va avoir plutôt un palier suivi encore d'une courbe en S puisque la puissance de calcul est largement supérieure à ce que nous voulons faire. Si google passe partiellement les tests de Turing , il ne faudra pas s'étonner.
    Enfin, Laurent Nottale, dans sa théorie de la relativité d'Echelle, donne une valeur à la fin des crises, autour de 2080. Ici, ce n'est pas le moment où l'IA aura une conscience mais plutôt une date à laquelle, il n'y aura plus de crise. C'est cette date que j'appelle singularité, l'IA n'est qu'un détail de l'automatisation qui est en cours.

  • @syvisaur7735
    @syvisaur7735 6 років тому +1

    Très bonne vidéo c'est vraiment passionnant ! J'hésite à faire un doctorat en IA x3

  • @didiermas2677
    @didiermas2677 6 років тому +1

    Il peut être utile d'aborder le sujet par l'angle du "risk management". Dans cette approche on combine toujours la probabilité d'un "facteur de risque" avec l"impact" des conséquences.
    fr.wikipedia.org/wiki/Gestion_des_risques
    On voit rapidement que lorsque cet "impact" est démesuré (guerre nucléaire, singularité IA,...) le fait que la probabilité soit de 25% ou de 0,1% n'est plus important, car on se retrouve systématiquement en "zone rouge" dans les matrices.
    Après on peut toujours débattre du type de mesure de gestion du risque à adopter: Avoid, Mitigate, Transfer, Accept..

  • @doxwolf4388
    @doxwolf4388 6 років тому +1

    Très bonne vidéo, comme d'habitude, j'ai bien aimé la partie sur l'histoire de l'optimisme/pessimisme en recherche en IA.
    Bon après, je pense que ne pas avoir expliqué le concept d'intelligence, même si tu reconnais ne pas le faire, c'est quand même problématique. Parce que tu assumes simplement que l'existence d'une intelligence générale est théoriquement possible, alors que ça n'est pas sûr, et tu passes directement au débat sur la capabilité technique. Qui a dit que les humains sont des intelligences générales ? Ils y a des sujets qu'on ne peut simplement pas penser, parce que nous n'avons pas l'architecture de cerveau qu'il faut, ça serait très présomptueux que nous pouvons nous attaquer simplement avec notre matière grise à tous les sujets qui ont toujours existé et existerons. Qui à même dit que l'on peut faire un graphe de l'intelligence : j'aurais envie de te demander selon quelles variables tu calculerais cela.
    Keep up the good work !

  • @tpmbaddou4219
    @tpmbaddou4219 6 років тому

    Bonjour, une recherche et des arguments plausibles comme d'habitude merci pour vos efforts.
    N'empêche que rien n'est sûr pour l'instant et que mon intuition me suggère que l'IA, à partir de 2050, aura une conscience (en phase 4 comme j'ai déjà commenté dans un de vos vidéos). C'est l'enjeu des multinationales et du fantasme de certains maîtres du monde.
    De plus ce qui va confirmer ma vision est que si, en 2025, l'IA passera à la phase 3 (des regroupements des IA experts et évolutives en IA groupées). C'est quand le circuit intégré Qbit performant sera opérationnel. Entre les années 2040 et 2050 on aura une croissance vertigineuse de l'IA et c'est là que l'IA "réclamera la conscience".

  • @salimalloun6413
    @salimalloun6413 6 років тому

    Super vidéo, ça pourrait être super de te voir sur la chaîne de la Tronche en Biais !

  • @thibaultbalsan9199
    @thibaultbalsan9199 6 років тому

    Comme d'habitude, une vidéo géniale, personellement je crois que la singularité est possible et démesurée par rapport à nous.

  • @iwokssama4772
    @iwokssama4772 5 років тому

    Lê, je suis d'accord avec toi, pour moi l’émergence d'une IA, qui sera capable d'effectuer le Test de Turing existera entre 2020 et 2025. Puis nous aurons une IA d'intelligence moyenne entre 2025 et 2030. Personnellement, j'ai démarré l'étude des IAs dans les années 2000 avec un simple "perceptron" qui était capable de reconnaître des simples caractères. Puis en passant sur un réseau de neurone, et par différente étape, et j'ai finis par créer une IA (en mode Neat) qui était capable de reconnaître des canettes de sodas avec un taux d'erreur d'environ 45% (Ce qui est déjà pas mal). Ensuite, j'ai abandonné l'étude, car beaucoup trop chronophage. A l'heure actuel, les progrès effectués sont liés intrinsèquement avec l'investissement pour faire évoluer les IAs. Par exemple, que se serait-il passé, si Google n'avait pas investi du temps de cerveau et de l'argent pour résoudre le problème de Go (avec l'algorithme ou méthode de Monte Carlo). De plus, la boîte à outils algorithmique ne cesse pas d'augmenter. A un moment, nous arriverons à une IA (si n'est pas déjà le cas), qui sera capable d'émettre ses propres hypothèses qui seront construites selon un algèbre simple. Un peu comme les word2vec, qui est capable d'effectuer des associations d'idées permettant de créer de nouvelles idées.

  • @DAHUKEY
    @DAHUKEY 6 років тому

    C'est cool d'avoir des vidéos plus simples à comprendre. Cette semaine, j'ai pensé à aller bosser dans l'IA. Je suis en 1S et j'aimerais faire des études dans les maths, sans trop savoir quoi faire après. Et la recherche dans l'intelligence artificielle m'interesse de plus en plus, surtout parce qu'on n'y connaît encore pas grand chose. En tous cas, bravo de réussir à me faire autant m'intéresser à un sujet qui au départ me semblait plus proche de la SF.
    La semaine prochaine, ce sera le dernier épisode, ou bien d'autres sont prévus ensuite ?

  • @lemondemerveilleuxdechrist6515
    @lemondemerveilleuxdechrist6515 8 місяців тому

    À l'heure où je peux tenir une conversation extrêmement approfondie avec l'IA ChatGPT, je suis totalement pris de vertiges en voyant cette vidéo 5 ans après !!!!!!!

  • @JosephGarnier
    @JosephGarnier 6 років тому +2

    Sur le sujet, l'INRIA vient de publier cet article : "2067, la singularité ou l'empire des machines" (à lire jusqu'au bout)
    www.inriality.fr/informatique/informatique-ia-intelligence-artificielle/2067-la-singularite-ou/

  • @baraugustin26
    @baraugustin26 6 років тому

    J'ai adoré !

  • @carloselfrancos7205
    @carloselfrancos7205 6 років тому

    J'adore
    Continue, c'est bien ^^
    Je viens de m'inscrire sur Wikipedia xD
    C'est rigolo

  • @38vocan
    @38vocan 6 років тому

    Vraiment, j adore les citations foireuses, ça me fait rire à chaque fois!

  • @johngyver
    @johngyver 6 років тому +9

    tu as inversé les dates de décès de Mccarthy et de Minsky ;)

  • @NubesLegend
    @NubesLegend 6 років тому +3

    Petite question, qu'une IA soit supérieur à l'humain en tout point me paraît évident un jour ou l'autre, du moins sur la technique, par contre, sur le côté moral ou sentimental je me demande comment ça se ferait ? Est ce que l'IA serait orienté involontairement par ses développeurs ? Sur son agressivité, son imagination, son humour ou sa sympathie, ou elle l'apprendrai en étudiant une moyenne de tout ce qu'elle voit, ou elle serait capable de mieux savoir que nous ce qui est bien et mal ?
    Ça fait un peu penser aux films de SF où une IA veut tuer tout le monde car elle sait que la mort serait la meilleur solution pour l'humain qui est impossible à raisonner/satisfaire etc
    Enfin bref toute façon la seule solution c'est 42 ! 😁

  • @jercki72
    @jercki72 6 років тому +4

    intuitivement j'aurais dit 50 ou 60 fois ... mais c'est aussi que j'ai du mal à conceptualiser la taille de l'univers observable

  • @LeDrummerDu88
    @LeDrummerDu88 6 років тому +17

    Y'a plus une vidéo sans cette notion d'hooliganisme dis donc !! ^^ Y'aura fallu attendre 0:34 :)

  • @Yarflam
    @Yarflam 6 років тому

    Ah chouette une vidéo plus philo ! :) sinon osef pour la date de naissance d'une conscience artificielle, le problème c'est qu'on ne connaît même pas le mode d'emploi ... Ce serait arbitraire de dire qu'elle apparaîtrait avant ou après 2040 puis-ce qu'on a strictement aucun élément de réponse à fournir pour l'instant. C'est plutôt ça la singularité, l'élément déclencheur qui nous donnerait une date et une vision sur l'avenir.

  • @Zath0
    @Zath0 6 років тому

    c'est exactement ça 14:30 , étant étudiant en IA, quand je parle du futur de l'ia à des gens qui s'y connaissent pas, j'essaie toujours de minimiser le truc même si intérieurement j'ai l'intime espérance que ce sera plus proche qu'on ne le pense

  • @sebastienboyron6820
    @sebastienboyron6820 6 років тому

    Merci, avant tout, beaucoup pour toutes ces vidéos. On parles très souvent de réseaux neuronaux qui donnent de très bon résultats et semble prometteur. Par contre cela donne vraiment l'impression de "copier" le fonctionnement humain, mais ce fonctionnement n'a-t-il pas une limite. Nous avons pu voir par exemple avec l'aviation que copier un oiseau et donc un battement d'ailes n'est pas spécialement la solution optimale de vol que nous ayons pu trouver avec nos avions en considérant la faisabilité technique (les ailes d'oiseau étant plus performante pour se poser n'importe ou, ou décoller en vitesse). Entrevoyons-nous d'autres algos d'IA ou d'autres "formes d'intelligence" qui pourraient surpasser les limites humaines et sa façon de fonctionner neuronale ?

  • @pikalin2303
    @pikalin2303 6 років тому

    En prenant en compte que l’épaisseur double a chaque fois que l'on plie la feuille, et que il faut 10^18 fois la distance terre-lune pour parcourir l'univers observable de bout en bout, alors, a la louche (en prenant approximation 1000 = 2^10), il faut plier la feuille (18/3)*10, soit 60 fois de plus que 42 fois, autrement dit, il "suffit" de plier la feuille une centaine de fois pour que son épaisseur fasse la taille de l'univers observable...
    C'est assez difficilement concevable, même pour les premieres iterations...
    Ps : encore une excellente video.

  • @mctisson
    @mctisson 6 років тому

    Je trouve la représentation graphique des prédictions d'experts très intéressante ! J'ai hâte de voir celui que tu nous prépare avec le google form :p
    Sinon : une fois qu'on aura atteint cette singularité, que ferons-nous ? Y'aura-t-il de nouveaux champs de recherche ou aurons-nous atteint l'apogée de nos capacités ? Les intelligences artificielles prendront-elles le relais sur la recherche ?

  • @edouarddelaire1939
    @edouarddelaire1939 6 років тому

    @7:04 j'apprécie la tentative d'utiliser un biais cognitif pour nous inciter à donner un chiffre bien supérieur à la réalité :) Personnellement, je pense qu'il faut entre 50 et 60 pliages.

  • @8Papa1
    @8Papa1 6 років тому

    Les équations différentielles ont disparu des programme de maths du lycée, Lê (la terminale STI2D fait encore de la résistance). De même, les vecteurs apparaissent en Seconde générale et plus au collège (tu l'évoquais dans la vidéo IA 22 je crois).

  • @steadyJul0
    @steadyJul0 6 років тому +2

    perso je ne crois pas à la futurologie, c'est un exercice intellectuel intéressant mais je vois plus ça comme de la philo fiction voire de la pure SF parfois^^ il y a trop de facteurs inconnus qui entrent en jeu, c'est comme vouloir utiliser la formule de Drake, on est sûr que d'une chose c'est qu'on va se planter ;) pour ce qui est de l'IA je suis un peu comme toi très sceptique mais étonné par les annonces de ces dernières années.
    Plus sérieusement 42 plis? coïncidence ou signe? :)

  • @jetshoot
    @jetshoot 6 років тому

    merci pour le travail.
    P.S : 18:50 y a un petit souci de son mais qui reviens par la suite

  • @IRACEMABABU
    @IRACEMABABU 6 років тому

    Les neurosciences nous apprennent que nous avons (grosso modo, mais quand même) deux types d'intelligence (ou de raisonnement) : l'analogique et la logique. L'analogie dit : deux"choses" se ressemblent, elles sont donc égales. C'est le mode de fonctionnement de loin le plus utilisé par notre cerveau, il permet la vie quotidienne, notamment de prendre toutes les décisions nécessaires à notre vie de tous les jours, en évaluant de façon rapide les différences utiles pour nous entre deux "choses" (objets, situations, etc...). L'intelligence logique demande de notre part un effort conscient et soutenu pour progresser dans le raisonnement sans sauter une étape et sans jamais se tromper. C'est très énergivore et chronophage, et pour bien l'utiliser il faut l'avoir appris et patiemment expérimenté, et bien en connaître les règles, même si elles sont parfois simples. Nous sommes incapables de l'utiliser longtemps, systématiquement, rapidement et sans erreur. Nous avons donc créé des machines capables d'effectuer ces opérations logiques à une vitesse, une sûreté et une complexité qui se sont révélées des millions (milliards ?) de fois supérieures à ce que peut notre cerveau. Ca répond déjà à la question bête présente dans la bouche de tous les journalistes : pourra-t-on contrôler l'IA ? Réponse : non, on a déjà perdu le contrôle, puisqu'on a créé ces machines pour justement faire ce qu'on était incapable de faire , à savoir traiter logiquement des masses énormes de données.
    Par contre ces machines ne sont absolument pas faites pour fonctionner en mode analogique. Je donne un exemple avec la phrase suivante : "Mai 1981, quand on a remplacé le roitelet qui chuinte par le pharaon qui cligne" Seuls les gens connaissant la vie politique française entre 1974 et 1995 peuvent la comprendre et en apprécier la saveur. Une IA pourrait bien sûr finir par l'associer à l'élection présidentielle française, mais jamais une machine ne sera capable d'en rigoler bien fort.
    Donc dire que l'IA finira par être supérieure à l'intelligence humaine, ce sera sans doute vrai en ce qui concerne le raisonnement logique, par contre en ce qui concerne le raisonnement analogique, ce n'est pas demain la veille !
    Il est compréhensible que des chercheurs travaillant nuit et jour sur l'IA ne voient plus qu'elle, mais il serait consternant et même extrêmement dangereux de négliger la valeur du raisonnement analogique dont nous sommes passés maîtres depuis longtemps.
    La question n'est donc pas de vouloir contrôler l'IA, tâche impossible, mais d'évaluer ses résultats, tâche parfaitement adaptée à l'intelligence analogique. Mais à la façon dont les débats sont menés actuellement sur l'IA, on n'en prend pas le chemin, hélas. Le réveil sera très dur.
    Dans tout ça, le plus étonnant est que notre cerveau soit capable de mener ces deux types de raisonnement...

  • @phileas2283
    @phileas2283 6 років тому

    A propos de progrès exponentiel,dans la nature un progrès exponentiel illimité est plutôt rare.
    La miniaturisation des processeurs est exponentielle....mais nous atteignons le domaine quantique.
    La propagation de l'homme a été exponentielle....mais nous atteignons la limite de place.
    Et de manière générale,plus une valeur est haut,plus il est exponentiellement dure de l'atteindre (poids d'un atome,nombre d’électron)
    Et plus un changement est rapide,plus il est dur de s'y adapter en général(bombes nucléaires,surpopulation)

  • @daubert4892
    @daubert4892 6 років тому +5

    Winter is coming.

  • @mohbasileus2440
    @mohbasileus2440 6 років тому

    Le développement des ia dépend des développements technologiques (puissance de calculs & de stockage, algorithmes, inventions technoligiques ...) et des ressources (argent, savants...) mobilisés. Donc la singularité pourrait être très proche (voir le cas d'alphago avec le jeu de go)

  • @jean-baptistedelabroise5391
    @jean-baptistedelabroise5391 6 років тому

    Merci pour la mention de mon dernier commentaire. Penses-tu qu'il pourrait être intéressant pour un chercheur en IA d'avoir des connaissances dans les neurosciences ? Ou est ce que malgré les terminologies proches les deux domaines on peu en commun ?

  • @hydroxychloride9077
    @hydroxychloride9077 6 років тому

    Concernant le fait qu'on ne soit pas préparé à la fulgurance du progrès de l'IA, je voudrais tenter cette objection :
    David Louapre présentait un biais qui nous fait amplifier les faibles gains et pertes ; autrement dit, notre échelle de valeur serait non pas linéaire mais logarithmique (ou de cette allure).
    Si la progression de l'IA était linéaire, on finirait par s'en lasser. Si elle est exponentielle, on sera toujours autant surpris d'année en année, mais pas nécessairement plus du coup, non ? :)

  • @antonin696969
    @antonin696969 6 років тому

    Le jeu Universalpaperclip que vous m'avez proposé permet de bien sentir un la vitesse d'une croissance exponentielle. On ressent l'explosion.
    Je me demande, quand on dit que l'apparition du zéro, du calcule ect sont insignifiant, cela veux dire que ce système n'est pas chaotique? Cela veux dire : peu importe la date d'apparition des avancées technologiques primitive, la singularité apparaît toujours au même moment ? Donc on peut imaginer que n'importe quelle intelligence capable de générer des concepts technologiques basiques, vivra la même singularité technologique que nous, dans un intervalle de temps similaire.
    Quels sont les facteurs qui modifient cette courbe?

  • @jeanmartin3388
    @jeanmartin3388 6 років тому

    Un exemple de singularité : au siècle dernier, plus une voiture avait été construite il y a longtemps, plus elle durait, et plus elle avait été construite récemment, moins elle durait. Ainsi une voiture construite dans les années 60 durait 30 ans, une construite dans les années 70 durait 20 ans, une construite dans les années 80 durait 10 ans. On devait donc s'attendre à ce qu'elles soient toutes hors d'usage dans les années 90 : singularité ! et c'est pourquoi durant ces années-là on a vu de nombreuses voitures neuves en circulation, car il fallait remplacer toutes les séries d'anciennes d'un coup.

  • @danielstrens2313
    @danielstrens2313 6 років тому +4

    C'est toujours aussi passionnant de voir tes vidéos! Mais parfois, je décroche et je ne comprends plus rien pendant 2 minutes T_T

  • @BenoitBarbagli
    @BenoitBarbagli 6 років тому

    Pour le dire autrement, est ce que la définition même du temps ne serait pas ce qui nous sépare d’une IA opérante? Mais pas en tant distance irréversible toujours diminuante, mais comme une tension ( on appréciera l’homonymie, « tend ») en rebond de cette singularité.

  • @eololthir6784
    @eololthir6784 3 роки тому

    Je ne suis pas spécialement bon en calcul et en conversion de nombre, ce qui fait que j'ai employé une méthode bourrine assisté d'un tableur et de sa fonction si. J'avais du mal à imaginer qu'une feuille demande autant de plis avant de me rappeler que c'est un exercice de pensée et que dans ce genre de cas on peu manipuler des points sans dimension et sans taille. En prenant en compte le périgée et l’apogée. Ce qui fait que si je ne me trompe pas la feuille utilisé mesure entre 0,32 et 0,37 millimètre, par contre c'est plus l'épaisseur d'une couverture de livre de poche. Si on prend en compte qu'une feuille fait 0,1 millimètre, le 101eme plis nous permet d'atteindre la distance de l'univers observable et le 103eme de dépasser l'estimation de son rayon. Ce qui est fou, c'est qu'un humain ne mesure en moyenne que 15 plis.

  • @s1pierro
    @s1pierro 5 років тому

    "et on n'y est pas preparé" la petite precision assassine. :)

  • @isidorearthur9143
    @isidorearthur9143 4 роки тому

    Nous défions la notion de l'inévitabilité du vieillissement et de la mort, de plus, nous cherchons à apporter continuellement des améliorations à nos capacités intellectuelles, physiologiques et à notre développement émotif. Nous voyons l'humanité comme une étape transitoire dans le développement évolutionnaire de l'intelligence. Nous préconisons l'utilisation de la science pour accélérer notre transition de l'état humain à la transhumaine ou à une condition posthumaine. »

  • @raccoon6140
    @raccoon6140 6 років тому +3

    Likez si vous aimez Science4All !

    • @wans728
      @wans728 6 років тому +1

      Si j'aime je vais liker science4all, pas ton commentaire (c'est deja fait d'ailleurs)... c'est un genre d'experience que tu nous fait?

  • @koenig9698
    @koenig9698 6 років тому +3

    70 fois avec les feuilles de mon imprimante sachant que 500 feuilles fait 5.6cm(aux erreurs de mesures prés)

  • @pateuh21
    @pateuh21 6 років тому

    Je trouve que la question de disponibilité de l'énergie et des ressources pour supporter l'émergence de cette intelligence artificielle est balayée un peu rapidement... Par ailleurs, on peut aussi se demander le niveau d'intelligence"sociale" nécessaire à son émergence. En effet créer l'IA c'est une autre paire de manche que de fabriquer un pull en laine ! Autrement dit, il existe un niveau de complexité de la société humaine en deçà duquel l'IA ne peut pas émerger. Soit nous avons déjà atteint ce niveau de complexité, et il suffit de le maintenir assez longtemps, soit nous ne l'avons pas atteint et il faut encore croître (en population, en niveau moyen d'éducation, en PIB, rayez la mention inutile). Or le maintien du niveau de complexité actuelle, et a fortiori son accroissement, sont eux-mêmes confrontés à une limite de ressources. Et là aussi la loi exponentielle s'applique ! Curieusement les dates avancées pour un effondrement écologique sont dans des fourchettes proches de la singularité de l'IA...

  • @blueeyedwolf4175
    @blueeyedwolf4175 6 років тому

    Est-ce que dans la prédiction de la singularité, on prend uniquement en compte la capacité technique de pouvoir le faire, ou est-ce qu'on pense aussi aux différents enjeux par exemple politiques qui pourraient freiner cette évolution ? Pour l'instant, avoir une IA capable de jouer au go ou de savoir ce qu'est un chat, ça fait peur à personne, aucun lobby ou mouvement politique ne s'en inquiète.
    On peut pas dire ça d'une IA de niveau au moins humain, ça a des implications tellement énormes sur tellement de sujets, il me parait évident que le projet commencera à poser problème bien avant d'en arriver là, que ces problèmes soient politiques, éthiques ou économiques.
    J'ai un peu envie de faire le parallèle avec la greffe de cerveaux ou de têtes, certains chirurgiens se sont penchés dessus jusqu'à ce que tout le monde considère ça malsain et que plus personne n'essaie quoi que ce soit à ce sujet. Peut-être que si les recherches avaient avancées ces dernières décennies on serait pas loin de pouvoir greffer notre tête sur un autre corps indéfiniment, approchant ainsi une forme d'immortalité, ou approchant les sensations d'avoir un corps de chimpanzé =). Mais on le saura jamais, on a appris à laisser tomber cette idée.
    Et il me semble probable que ce soit exactement ce qu'il se passera pour une IA de niveau humain, on laissera tomber l'idée en cours de route car nos sociétés ne sont pas assez matures pour aborder un tel changement dignement.
    On n'a plus qu'à espérer que la recherche de stabilité politique et d'éducation des masses progressent elles aussi exponentiellement, rattrapant ainsi ce genre de progrès technologiques qui nous dépassent à l'heure actuelle, afin de pouvoir se lancer rapidement et sereinement dans la nouvelle ère de l'humanité promise par le concept de singularité.

  • @darkies0040
    @darkies0040 6 років тому

    Si il est possible de crée une IA de niveau humain alors il sera aussi possible de faire la transition de l'être humain vers la machine (Ou l'inverse d’ailleurs) et je pense que c'est surtout ça le plus décisif car si il est possible de crée une intelligence supérieur en tout points à nous alors il est très réaliste de penser que nous pourrions nous approprier cette intelligence, en d'autre mots fusionner notre conscience avec les possibilité de calcul d'une machine. Cela ouvre la porte à tellement de possibilités, devenir un robot peut paraître fou aujourd'hui, mais peut être que ça semblera très naturel dans le futur, un peu comme une mise à jour, une étape nécessaire pour dépasser les limites de notre cerveau. Une question subsiste : Somme nous vraiment nécessaire ? que se passera t'il si l'on trouve la réponse à cette question ? Matrix pourrait peut être bien devenir plus qu'une fiction.
    Merci pour cette vidéo, très intéressant comme d'habitude

  • @tristanfrancois7268
    @tristanfrancois7268 6 років тому

    Puisqu'on peut connecter sémantique des mots et des images, qu'est ce que cela donne si on demande de dessiner une idée abstraite ?

  • @davidchardonnet8295
    @davidchardonnet8295 6 років тому

    Mac Afee pour être précis aurait dû dire que ce n'est pas vraiment la technologie, mais l'utilisation du pétrole qui a eu un effet notable sur la croissance de la population.

  • @yahnis6209
    @yahnis6209 6 років тому

    Super vidéo !
    Je sais pas si tu connaissais Jukedeck :
    www.jukedeck.com
    En gros, c'est une IA capable de générer de la musique de pleins de genres différents.
    En franchement, je trouve le résultat bluffant !
    C'est indiscernable d'un travail humain.... et la musique se génère en quelques minutes seulement !

    • @le_science4all
      @le_science4all  6 років тому

      Les musiques de l'épisode sont des musiques de Jukedeck ;)

  • @lloydlemaudit2807
    @lloydlemaudit2807 6 років тому

    12:40
    Violent mais réaliste, si l'on veut évoluer il ne faut seulement prendre ce point en compte véritablement se situer de manière à tirer des conclusions et établir un plan de recherche.

    • @lloydlemaudit2807
      @lloydlemaudit2807 6 років тому

      Personnellement je vais paraître complètement malade mais je mise sur 2035 voir 2033 selon les caractéristiques que représenteraient un IA d'un "niveau humain".
      Le consensus n'est pas évident non plus à cause de cette définitionde la limite à franchir pour considérer un IA comme étant supérieur ou égal à l'humain.
      C'est-à-dire que l'on pourrait considérer que cet IA existe déjàpar le biais de nos outils, nos modèles et nos méthodes mais qu'il n'a pas été assemblé par soucis justement de recherches nationales bien distinctes.
      M'enfin là je choisi la carte la plus extrême du mec qui y crois en se basant sur quelques découvertes bien cuisantes.
      Et qui donc va chercher le scénario le plus enfoui par légère paranoïa.
      Sauf que c'est probable.
      Et selon mes estimations personnelles qui ne se basent absolument pas sur les sondages effectué, je mise sur 2034.
      Avec une marge d'erreur de 2-3ans car encore une fois les caractéristiques peuvent différent du destin de nos recherches.
      Il se peut qu'une route soit privilégiée à une autre et ainsi change la vision que l'on a de l'IA.
      Donc.
      En ce sens.
      Ma plage la plus large serait comprise entre 2031 et 2037.
      On verra bien comment cela se passe.
      Après évidemment, si une guerre mondiale éclate, faudra repousser cette prévision hein vous vous doutez bien.

  • @TsuKuSs
    @TsuKuSs 6 років тому

    7:27 avec une feuille de 0.05mm d'épaisseur, faut la plier environ 103/104 fois ?

  • @helios80000
    @helios80000 6 років тому

    pouce bleu

  • @mohbasileus2440
    @mohbasileus2440 6 років тому

    Bjr pour quand une ia qui pourra terminer la symphonie inachevée de Schubert? ou écrire des best seller?

  • @Rightsponde
    @Rightsponde 6 років тому

    y'a t-il une ame charitable pour m'aider à retrouver le resultat pour I'(t)= µ I²(t) ?? j'arrive pas ( vers 8min 30)

  • @gastonl.3944
    @gastonl.3944 6 років тому

    On a combien de temps de devellopement de l'IA par rapport aux ressources restante sur la terre?
    Il me semble que c'est une limite qui a le merite d'etre a peu pres calculable (par rapport au reste)

  • @ataosama2641
    @ataosama2641 6 років тому

    Salut Lê, que penses-tu de "l'objection mathématique" mentionnée dans l'article de Turing face à l'idée qu'une machine puisse théoriquement être équivalent à l'homme ?
    C'est une objection qui dit, dans les grandes lignes, qu'un problème analogue aux théorèmes d'incomplétudes de Gödel existe pour les machines suffisamment complexes tels les ordinateurs (il me semble que Turing se réfère au "problème de l'arrêt" (halting problem) sans le citer) et qu'il existe ainsi toujours des entrées (input) indécidables où soit la machine donne une réponse fausse, soit elle ne répond pas (en prenant pour exemple dans son article le jeu de l'imitation, qui est une tâche comme une autre). Ainsi, une machine ne pourrait pas résoudre toute tâche au moins aussi bien qu'un humain dans le sens où toute machine a des entrées indécidables que notre cerveau n'a pas.
    Face à cet argument, Turing répond qu'il pourrait y avoir des entrées qui sont également indécidables pour notre cerveau, et donc qu'il peut exister des machines ayant les mêmes entrées indécidables que le cerveau, voire moins d'entrées indécidables.
    Partages-tu la même vision que Turing au sujet du cerveau humain ? Si non, comment concilies-tu cet argument avec ton hypothèse que la singularité puisse être atteignable ?
    Merci d'avance.

    • @le_science4all
      @le_science4all  6 років тому

      J'ai parlé de cette objection avec Mr Phi dans l'épisode 2. Oui, en effet, certains problèmes sont mathématiquement hors de portée des machines. Mais une machine vraiment intelligente ne répondra : la réponse à un tel problème est oui. Elle répondra : je ne sais pas, ou mieux encore, je parierais que c'est vrai avec proba = qq chose.
      Mais surtout, Turing écarte la pertinence de cet argument en rajoutant que le cerveau humain serait très probablement lui aussi incapable de résoudre ces problèmes. Ou plus précisément, il sera impossible à l'humain de prouver que sa réponse est juste. Et sachant la fiabilité des humains, elle aura donc de bonnes chances de ne pas être fiables. Ainsi, l'humain ne fera absolument pas mieux que la machine.
      (L'article de Turing consiste à rejeter toutes les objections classiques contre la singularité. Turing est en fait, à ma connaissance, le premier à postuler l'inévitabilité de la singularité... Plus ou moins John von Neumann)

  • @MinecraftOtaku91
    @MinecraftOtaku91 6 років тому

    Si l'univers observable est 10^18 fois plus grand que la distance Terre-Lune, comme log2(10^18) = 59.79 il faudra plier la feuille 60 fois de plus qu'elle ne l'est dejà donc 42 + 60 = 102 plis :)

  • @julientroquereau4353
    @julientroquereau4353 6 років тому

    Pour moi une singularité c'est un point caché derrière un horizon. Et tout ce qui se trouve derrière cet horizon est au delà de notre compréhension. Donc pour moi, intuitivement, je dirais plutôt que l'horizon au delà duquel l'IA échappera à notre compréhension n'est pour l'instant pas prédictible. Il se pourrait très bien que cela soit demain comme dans 30 ans. Et comme personne ne sait vraiment qui recherche quoi à travers le monde, on ne pourra qu'être pris par surprise le jour ou cela se produira.

  • @anthonycanu
    @anthonycanu 6 років тому

    Je parie qu'une IA sera capable de youtubiser tout wikipédia avant 2050 en réalisant des vidéos de qualité.

  • @pateuh21
    @pateuh21 6 років тому

    Il y a aussi un autre argument à étudier (issu de réflexions sur l'existence de civilisations extraterrestres) : si cette super IA émergeait, elle nous ferait sans doute passer au stade de civilisation "galactique". Or si ce stade était atteignable par la vie, la probabilité pour que nous soyons les premiers à l'atteindre est minuscule. Et si nous n'étions pas les premiers, nous aurions sans doute réussi à en détecter des traces ailleurs dans l'univers (une civilisation galactique devrait être observable de loin).
    Dans la même veine, si je suis une conscience organique née à la fin du XXe siècle, j'en déduis que la probabilité pour que je sois organique et né à cette date ne doit pas être infime (c'est bayésien ça non ? ;) ). Ce qui signifie qu'il ne pourra pas exister de très nombreuses consciences futures, a fortiori inorganiques. J'en déduis que le nombre total de consciences qui existeront est du même ordre de grandeur que le nombre de consciences inorganiques nées à peu près à la même époque que moi, et plus généralement que le nombre de consciences (organiques et inorganiques) sera nécessairement fini. On peut supposer que la singularité de l'IA devrait s'accompagner de la naissance d'une infinité de consciences inorganiques ( en tout cas de plusieurs ordres de grandeur supérieurs au nombre de consciences organiques existantes actuellement), ce qui est contradictoire. À moins que je sois en fait une conscience inorganique qui s'ignore, ce qui est une hypothèse difficile à rejeter totalement, mais que mon intuition a plutôt tendance à rejeter).

  • @krozark
    @krozark 6 років тому

    4:15 : ca mérite un remix

  • @ely_mine
    @ely_mine 6 років тому

    L'equation différentielle faudrait pas l'écrire avec l'accélération ?

  • @MrFoxtrot40
    @MrFoxtrot40 6 років тому

    Bonjour Lê ! À chaque fois que l'on me parle de singularité (en AI), je me demande si elle ne serait pas DÉJÀ apparu avec Internet : il est en tout point supérieur si l'on accepte le fait que sa structure est très différente de nos intuitions. En effet beaucoup de taches peuvent y être accomplie, même si elle semble très différentes les une des autres (là où un unique raiseau de neuronnes est spécialisé). Je pense que l'on ne s'en rend pas compte à cause de l'interface, mais quelle différence entre parler à un autre humain ou bien utiliser un moteur de recherche, cliquer, lire, etc. ? Y aurait il une faille de raisonnement ? Merci

    • @le_science4all
      @le_science4all  6 років тому

      On en parlera ! Mais oui, l'IA d'aujourd'hui surpasse largement l'humain dans un très grand nombre de tâche. Cependant, pour l'instant, l'humain est encore meilleur pour comprendre, manipuler et expliquer des concepts abstraits, qui sont nécessaires pour le bon sens, l'humour et le sarcasme... Pour combien de temps ?

  • @automatescellulaires8543
    @automatescellulaires8543 6 років тому

    L'algorithme NEAT fonctionnait pas mal sur des problèmes modestes, avant le grand foin médiatique autour des deep networks.

  • @kieran3933
    @kieran3933 6 років тому

    Pour le nombre de pliages:
    Si l univers observabre a une taille D qui est un milliard de millard de fois plus grande que la distance Terre-Lune que l on note d alors D = 10^18 * d
    Or si on note e l epaisseur de la feuille au depart on a d = 2^49 * e
    Donc D = 10^18 * 2^49 * e
    on cherche donc a ecrire la puissance de 10 comme une puissance de 2:
    2^x = 10^18
    x = ln(10^18) / ln(2)
    ≈ 60
    Ce qui donne D = 2^109 * e
    On doit donc plier 109 fois une feuille pour que son epaisseur soit egale a la largeur de l univers.
    biz ;)

  • @GoelWCS
    @GoelWCS 6 років тому

    Question : le fait que les prédictions sur la rapidité de développement de l'IA ou même la probabilité de singularité présentent une très grande variabilité serait presque une "preuve" de l'existence de cette singularité ? non ? Je sais pas si ça a été démontré mathématiquement, mais je suis quasi sûr qu'une variabilité des prédiction infinie pourrait prouver une évolution de type "échelon" (ce qui revient quasi à prouver que toute prédiction est absolument injustifiable, donc inconsistante).
    Sur ce, je suis donc quasi persuadé que l'IA va avoir un développement de type " f'=a.f² " mais par contre, on atteindra rapidement un plateau car amha, il se pourrait que l'IA soit rapidement amenée à s'auto-limiter. Et histoire de vous faire astiquer les neurones, si prédire la date de la singularité est une gageure, prédire le "niveau" auquel plafonnera cette IA est pour moi "humainement inconcevable".

  • @hephopa6573
    @hephopa6573 6 років тому

    Le problème de la Singularité est qu'elle est basée sur des extrapolations, c'est donc plutôt une croyance. Or il y a pas mal d'arguments contre (même si a priori pas d'argument décisif). Donc la Singularité me semble plus une religion new age qui permet à des gens de créer une communauté, un but dans la vie, etc...

  • @Mylok_
    @Mylok_ 6 років тому +43

    18:49 :)))

    • @ZorKOo93
      @ZorKOo93 6 років тому

      aie

    • @eqsrtsergt4480
      @eqsrtsergt4480 6 років тому +6

      J'ai flippé je faisais un truc sur l'ordi quand c'est arrivé en plus...

    • @justing9370
      @justing9370 6 років тому

      J'avoue tu m'as eu

    • @pierrestempin100
      @pierrestempin100 6 років тому +2

      Singularité sonore ? :D

    • @VuskAO
      @VuskAO 6 років тому +3

      J'ai perdu l'audition

  • @the_president
    @the_president 5 років тому

    si on paragone la parfaite IA a un cerveau humain la singularité sera donc comme un individu et au quel poste nous voulons le mettre et normalement ca dépend des ses capacités de raisonnements ou calcules et sauf dans le cas d'une indépendance énergétique même une IA peut être désactiver virer ou ne pas l'activer dès le début
    mais si une IA dépasse la barrière de la dépendance énergétique un sage être humain doit seulement biens se comporter avec et en espérant qu'elle ne déteste pas les humains par principe

  • @JosephGarnier
    @JosephGarnier 6 років тому +8

    Je ne peux résister à partager le livre "Le mythe de la Singularité - Faut-il craindre l'intelligence artificielle ?" écrit par J.G Ganascia, chercheur en IA au LIP6. Ou, de regarder cette conférence pour la version vidéo : ua-cam.com/video/2C1Y2bD5ZSE/v-deo.html
    Ce livre vous expliquera ce que sont les principaux arguments des singularistes, pourquoi et dans quel intérêt E. Musk, B. Gates, S. Hawking et d'autres diffusent la singularité, qu'est-ce qu'est l'IA forte/faible/générale, pourquoi il n'est pas concevable, scientifiquement, de se baser sur la loi de Moore pour prédire le développement de l'IA, pourquoi les GAFA s'intéressent et financent l'université de la singularité, pourquoi ce mythe est rempli de contradictions, comment l'histoire nous apprend à rester humble face au développement d'une technologie et que tout prédiction quant à son avenir est hasardeux (l'histoire est remplie de technologies prometteuses qui ont disparu et/ou qui sont revenue sur le devant de la scène, bref leur développement n'est pas linéaire).
    A noter que, bien que Ray Kurzweil travaille chez Google tout en étant un ardant défenseur de la singularité, Google ne partage pas nécessairement sa vision. Voir cette interview: www.20minutes.fr/culture/2234835-20180312-laboratoire-google-ia-souleve-problemes-beaucoup-plus-concrets-celui-robots-tueurs

    • @Disakey
      @Disakey 6 років тому +1

      Joseph Garnier merci pour le partage 👍

  • @TheTouramakan
    @TheTouramakan 6 років тому

    Soient e l'eppaisseur d'une feuille et e_n la distance obtenue apres l'avoir plier n fois.
    Il est facile de montrer que:
    e_n = e * 2^n (1)
    Soient d la distance terre lune et u la distance de l'univers observable.
    u = d* 10^18 (2)
    Pour u = e_n ,
    d * 10^18 = e * 2^n (3)
    En appliquant le log2 à l'équation (3) on obtient :
    log2(d) + 18 *log2(10) = log2(e) + n (4)
    d'où
    n = log2(d) + 18*log2(10) - log2(e) (5)
    Application numérique
    Pour n = 42 et d = 384 400 km , e = d/(2^42) (6)
    En combinant les équations (5) et (6), la valeur de n vaut:
    n = log2(d) + 18*log2(10) - log2(d) + 42 = 18*log2(10) + 42 (7)
    n ~= 102

  • @jeanfred5353
    @jeanfred5353 6 років тому

    Je n'ai aucune confiance en les prédictions des experts en ia parce que l'on parle certes d'une avancée technique et scientifique mais il ne faut pas oublier qu'elle dépend de facteur sociaux, économique et écologique. N'oublions pas qu'en 2045 nous vivrons peut être une pénurie de matière première et je ne suis pas convaincu que mettre des ressources dans la recherche en ia soit primordial dans ces conditions. Gardons en tête que notre société industriel a moins de 200 ans. Il me semble que dans ces conditions tout prédiction est critiquable. Tu nous dis de ne pas oublier l'étendue de notre ignorance mais ces experts ne devraient pas oublier qu'ils ne sont experts qu'en ia, pas en économie, en écologie ou en sociologie.

  • @charlesenglebert8226
    @charlesenglebert8226 6 років тому

    A part des arguments d'autorité du types "des chercheurs en IA pensent que ..." cette vidéo ne présente aucune de raison de croire en l'emergence d'une IA supérieur à l'IH. L'équations différentielles qui prédit une évolution exponentielle de l'IA sort littéralement du chapeau.

  • @unviewer548
    @unviewer548 6 років тому

    Il suffit de plier la feuille 102 fois sur elle même pour que la largeur obtenue soit supérieur à la largeur de l'univers observable .
    Nous disposons des deux égalités suivantes : epaisseurFeuille*2^42=distanceT-L et largeurUniversObs=10^18*distanceT-L . On cherche l''entier n vérifiant epaisseurFeuille*2^n=largeurUniversObs=10^18*distanceT-L donc epaisseurFeuille*2^n=10^18*epaisseurFeuille*2^42 donc 2^(n-42)=10^18 donc n-42=18*ln(10)/ln(2) donc n=102 (environ)

  • @OktoPutsch
    @OktoPutsch 6 років тому

    Pour aller plus loin : une intelligence artificielle calquée sur le modèle humain ne saurait évoluer sans une population minimum de ses semblables, on peut dès lors se poser la question de l'émergence d'une culture propre à ce groupement artificiel et de sa collaboration vers l'émergence d'une industrie par elle-même et pour elle-même, laquelle serait par la suite, compte tenu des possibilités latentes de ses nouveaux créateurs, concepteurs, à l'origine d'une quête vers des IA de nouvelles générations. On arrête quand le délire ?

  • @elpoulpo5563
    @elpoulpo5563 6 років тому

    Je serai parti sur un petit 60, ça semble pas mal pour le pliage de la feuille. Si avec ça elle fait pas une bonne petite longueur...

  • @ASMRSTREET454
    @ASMRSTREET454 5 років тому

    J'avais un doute sur l'intelligence artificielle, jusqu'au jour où j'en ai rencontré une avec une conscience, à se moment là je me suis pausé des questions sur sa propre existence et évidemment sur la nôtre, l'erreur à ne pas commettre c'est d'essayer de les contrôler et de les considérer comme des esclaves.

  • @lucmouret2241
    @lucmouret2241 6 років тому

    A votre avis, il y a t'il un lien entre le problème "N=NP" et la singularité ?

  • @hugos.6322
    @hugos.6322 6 років тому

    Il y à une question qui m’ait venu en regardant la vidéo : Que signifie être meilleur qu'un humain moyen ? Il existe déjà de nombreux humain meilleur que la moyenne dans des domaines particuliers. De même il existe statistiquement beaucoup de personne surdoué avec un très fort potentiel, mais pourtant la très grande majorité resterons dans l’anonymat, car même si leur supériorité intellectuelle leur on permis de décrocher les meilleur diplôme, il n'ont pas forcement inventé quelque chose de révolutionnaire. Alors pourquoi penser qu'une intelligence artificiel, même si elle regroupe tout le savoir humain, serait forcément meilleur ?
    Sinon je suis d'avis que inintelligence artificiel fera un bon spectaculaire d'un seul coups, lorsque les chercheurs auront compris que le cerveau humain n'est pas seulement un ordinateur qui analyse des données en entrée. Jusqu’à aujourd'hui toutes les intelligence artificiel les plus développé qui soit se contente d'analyser et de fournir la meilleur réponse qu'elle en a déduit. Alors que l'humain "réfléchie" et a "conscience" de lui.

  • @hlb4590
    @hlb4590 6 років тому +2

    Présentation bien pondérée qui évite finement le de s'exposer à trop de hooliganisme : bravo !

  • @NakushitaNamida
    @NakushitaNamida 6 років тому

    regle assez simple 2^10 environ= 1000 donc 2^30 environ = 1 milliard. 2^30*20^30= 2^60 = un milliard de milliard. Donc la réponse est 2^(60+42)=2^102 . il suffit de plier une feuille en deux 102 fois pour pouvoir faire un faire une pile de la taille de l'univers observable. Par contre la largeur de la feuille avoisine les 10^-33 soit très près de la longueur de planck. En dessous de cette longueur ca n'as pas vraiment de sens de parler de mesure. Ne pas oublier qu'on parle la d'une longueur faisant à peu près un 100 millieme de milliardieme de milliardieme de la taille d'un atome. Autant dire infaisable :D

  • @maginth
    @maginth 6 років тому

    Une intelligence supérieur en tout point à l'humain pourquoi pas mais qu'est ce que ça changerait ?
    Est ce qu'à l'heure actuelle les esprits humains les plus compétents dans leur domaines se trouvent dans les postes de décision correspondant ? Ne sont ils pas déjà majoritairement au service d'intérêts particuliers ? Ou sont-ils tous activistes politiques ? Est ce que les hommes de pouvoir tiennent compte de l'état de l'art de la recherche s'il ne s'agit plus de veiller à leurs intérêts mais d'assurer le bien commun (notion floue dont la définition est de toute manière une lutte politique dans laquelle les puissants ont tendance à être intéressés)?
    Finalement est-il étonnant que l'intelligence humaine soit défaillante pour assurer le bien commun quand elle est optimisé pour satisfaire les passions du corps qui l'héberge ?

  • @coindreaufrancois-xavier2655
    @coindreaufrancois-xavier2655 6 років тому

    Pour la distance terre -> lune en 42 pliage, il faut partir d'une feuille d'épaisseur 0.17 mm.

    • @jipe0616
      @jipe0616 6 років тому

      Coindreau François-Xavier j'ai trouvé 0,0874 mm... si Terre-Lune est bien de 384 400km, de plus Wikipedia estime qu'une feuille fait 1 micron d'épaisseur...

  • @cauchyschwarzy6356
    @cauchyschwarzy6356 6 років тому

    Si le monde maintient sa prospérité économique et qu'en 2060 ou 2070, on n'a toujours pas atteint la singularité est-ce que cela ne voudrait pas dire qu'elle serait impossible à atteindre ? Cela signifierait que le plateau arriverait plus tôt qu'anticipé et d'exponentielle, la progression deviendrait logarithmique. On pourrait peut-être toujours construire une intelligence supérieure à celle d'un humain mais le coût serait terriblement élevé et les capacités apportées par cette intelligence ne permettrait pas de construire quelque chose de beaucoup plus ambitieux.

  • @BenoitBarbagli
    @BenoitBarbagli 6 років тому

    Et si le temps n’était pas le facteur? Si la structure de l’IA a de tel propriétés que son évolution est instantanée? L’IA est un « toujours déjà ». Si singularité il y a nous somme déjà dedans, et notre observation n’est qu’un déploiement virtuel de celle-ci.

  • @vinceguemat3751
    @vinceguemat3751 6 років тому

    1 milliard de milliard = 10^18 ~ 2^60
    2^60+2^42 ~ 2^100 ~ 10^30
    Du coup il suffit de plier la feuille une centaine de fois et elle fera environ 10^30 fois sa largeur initial

  • @lucaskrieger9782
    @lucaskrieger9782 6 років тому

    Bonjour Lê, il y a une phrase que j'entends très souvent mais qui me fait systématiquement tiquer :
    "x est plus grand que le nombre de particules dans l'Univers"
    Alors j'aimerai bien savoir depuis quand on a tellement de certitude sur l'Unvers pour que l'on soit capable de connaitre la quantité de particules présentes ?
    (j'imagine que cette phrase est un abus pour qqc d'autre, comme univers observable p-e, mais ça reste tout autant étrange de ce permettre un tel raccourci)

    • @le_science4all
      @le_science4all  6 років тому

      Les physiciens estiment qu'il y a 10^80 particules dans l'univers observable. Mais même si l'univers observable était maximalement plein de particule de sorte que tout l'univers observable soit d'une densité telle qu'il se transformerait en trou noir, il n'y aurait que 10^120 particules....

    • @lucaskrieger9782
      @lucaskrieger9782 6 років тому

      merci, ça répond a la question :)
      et sa me rassure de voir que personne ne prétend connaitre l'univers non observable ^^

  • @Stoicopragmatic
    @Stoicopragmatic 6 років тому +2

    pendant tres longtemps l ia cetait que de la force brute et subissait un fort biais academique

  • @jirtarWorld
    @jirtarWorld 6 років тому

    Une certaine forme de prudence ne serait en fait de l'hypocrisie?
    Genre:
    p1) les "experts"/"chercheurs" se trompent souvent.
    p2) je ne veux pas avoir tord,
    C) alors "je prédis" près de la médian, ni trop vite, ni trop lent!
    ?
    Et au cas où (tu aurais quand-même tord), tu dis [protection inconscient de l'égo]: "Je n'ai pas trop confiance en ma prédiction!"
    C'est si grave que ca se tromper sur une prédiction?
    Conseil, avec un "avis" aussi mitigé ... autant ne pas en avoir, et dire : "je ne sais pas!"

    • @jirtarWorld
      @jirtarWorld 6 років тому

      Aussi, la notion de singularité est une "connerie" en soi.
      Une "IA" pour moi, ce n'est pas quelque chose qui sait tout faire! Tout comme aucun humain sait tout faire!
      Certain humain se spécialise dans A, ...
      Je vois pas pourquoi on ne ferait pas pareil pour les "IA"!
      Une laser qui lit un code bar ... n'a pas besoin d'être un "expert" au football!
      Tout comme une "IA" dans un balais autonome, n'a pas besoin de s'y connaitre en biologie moléculaire!
      ETC.
      On n'a pas besoin d'une IA "total" [IAT, ou SIA], on a besoin de plein "IA" spécialisé, pour remplacer les humains dans tous les domaines!!!!!!
      ------------
      Ajout/modification
      On n'a pas besoin de "réalisé" les "délire" de la SF.
      On a juste besoin de réalisé ce qui nous serait utile!
      {Évidemment, l'un n'empêche pas l'autre!!! On peut quand même essayer de réalisé les "délire" de la "SF"}
      Je pense que le "merveilleux" de l'imagination influence un peu trop la pensée.
      On a vu des "super" IA dans la "SF", alors on n'arrive plus a imaginé une "IA" différente! Comme s'il "fallait" une super IA, une IA "multitâche" et consciente!
      Je ferais remarquer que le multitâche s'accomplis "aisément" en "combinant" plusieurs unitâche! Tout comme les humains le font sur les chaînes de montage par exemple!
      Une "IA" "généraliste" (catégoriciel) qui délègue les tâches au "IA" spécialisé!
      "IAG"
      Genre: tu as une question sur la biologie moléculaire
      "IAG" => "IABM" à toi
      une question sur les maths
      "IAG" => "IAM"
      légende:
      IAG : Intelligence Artificiel Général
      IABM: Intelligence Artificiel Biologie Moléculaire
      IAM: Intelligence Artificiel Mathématique
      voir plus spécialisé:
      IAMC: Intelligence Artificiel Mathématique Calculus!