De l'IA à la superintelligence | Intelligence Artificielle 25

Поділитися
Вставка
  • Опубліковано 25 чер 2024
  • On parle du problème du "AI takeoff". Selon beaucoup, celui-ci serait relativement rapide, et dur à prévoir. En cela, il s'agirait d'une sorte de bombe à retardement, qui conduirait à la transformation rapide d'une intelligence artificielle de niveau sous-humain à une superintelligence.
    Facebook : / science4allorg
    Twitter : / science__4__all
    Tipeee : www.tipeee.com/science4all
    Moi en podcast avec Mr Phi :
    Version UA-cam : / @axiome7403
    Version Audio : feeds.feedburner.com/Axiome
    Sous-titres sur les autres vidéos : ua-cam.com/users/timedtext_cs_p...
    Conférence sur la super-intelligence + suppléments | Monsieur Phi
    • Conférence sur la SUPE...
    Jeu de Go et intelligence artificielle | Science Étonnante
    • Jeu de go et intellige...
    Le pic pétrolier | Le Réveilleur
    • Le Pic Pétrolier MaP#28
    AI Self-Improvement | Computerphile
    • AI Self Improvement - ...
    How artificial nano-neurons can fix computers' energy addiction | Julie Grollier | TEDxSaclay
    • How artificial nano-ne...
    Deep Learning for Math (ft. Romain Edelmann) | ZettaBytes
    • Deep Learning for Math...
    The End of Humanity | Nick Bostrom | TEDxOxford
    • The end of humanity: N...
    Sondage : À quand la singularité ?
    docs.google.com/spreadsheets/...
    Non, le test de Turing n'est pas passé ! Scilogs | Jean-Paul Delahaye
    www.scilogs.fr/complexites/non...
    When Will AI Exceed Human Performance? Evidence from AI Experts
    arxiv.org/abs/1705.08807
    Mastering Chess and Shogi by Self-Play with a General Reinforcement Learning Algorithm
    arxiv.org/abs/1712.01815
    Elon Musk Nick Bostrom Ray Kurzweil Superintelligence |
    FiveSenseReality | Future of Life Institute
    • Elon Musk Nick Bostrom...
    The AI Revolution: The Road to Superintelligence
    waitbutwhy.com/2015/01/artifi...
    waitbutwhy.com/2015/01/artifi...
    AI Takeoff | Less Wrong
    wiki.lesswrong.com/wiki/AI_ta...
    Superintelligence: Paths, Dangers, Strategies | Nick Bostrom
    From AI to Zombies | Eliezer Yudkowsky
    intelligence.org/rationality-...
    Robert Miles' UA-cam Channel : / @robertmilesai
  • Наука та технологія

КОМЕНТАРІ • 502

  • @kevinl.942
    @kevinl.942 6 років тому +46

    Ce qui me donne le vertige, c'est de savoir que notre génération (les 5-25 ans) est certainement celle qui va déterminer l'avenir entier de l'humanité, voire peut être de la Terre et au delà (si ça se trouve on est les seuls êtres dans l'univers à avoir atteint ce stade).
    Entre nos mains nous avons un big bang de connaissance soumis à la théorie du chaos.
    Quelle chance nous avons d'être présent à ce moment clef. Quoi qu'il arrive c'est passionnant et tu es un des meilleurs vulgarisateurs pour nous accompagner.

    • @zaratustra4275
      @zaratustra4275 6 років тому +1

      Moi je pense plutot qu'il y a trop d'optimisme, on verra les prochaines vidéos de Lê ... .

    • @zaido2823
      @zaido2823 6 років тому

      Zarat Ustra "optimisme". ça va être bien pendant 5 ans quand les IA vont dépasser l'intelligence des humains, après ça va partir en couille.

    • @zaido2823
      @zaido2823 6 років тому +1

      Zarat Ustra au fait, je crois que je suis le seul à comprendre ton pseudo :)

    • @user-ng3eh8nw3x
      @user-ng3eh8nw3x 6 років тому

      ZaiDo 2 Ça m'étonnerait, c'est plutôt connu

    • @zaido2823
      @zaido2823 6 років тому

      Disciple de Raptor Jésus je savais que quelqu'un allait dire ça....

  • @LasMouches
    @LasMouches 6 років тому +5

    A chaque vidéo j'aime de plus en plus cette chaine.

  • @Rocket-hu3nm
    @Rocket-hu3nm 6 років тому

    Très bonne vidéo. Depuis que je connais ta chaîne, je trouve les sciences de plus en plus intéressant. Alors merci 😉

  • @Kolinnor
    @Kolinnor 6 років тому

    J'ai vraiment hâte du prochain épisode !

  • @bogsbinnee520
    @bogsbinnee520 6 років тому +2

    Merci pour ces excellentes vidéos !

  • @aymerikettorlecastor5893
    @aymerikettorlecastor5893 6 років тому

    Tu gères ! Continues, on kiffff 😍

  • @frankithel3951
    @frankithel3951 6 років тому +1

    Super vidéo encore. D'ailleurs j'ai un collègue qui travaille sur l'IA en sismologie, en espérant qu'un jour, l'IA saura analyser un sismogramme mieux que nous ( et nos méthodes ) en associant à leur forme leur cause.

  • @damiendesmortreux5263
    @damiendesmortreux5263 6 років тому

    Tres interessant comme toujours! Bravo

  • @alexandreancel6423
    @alexandreancel6423 6 років тому

    Merci pour ton travail sur cette vidéo, c'est très intéressant de voir ce sujet abordé sans que cela dérive directement vers de la psychose anti-Skynet et autre.
    Tu as réussi à rester objectif, et rien que ça force le respect, bravo !

  • @dgrandlapinblanc
    @dgrandlapinblanc 6 років тому

    Merci encore comme d'habitude. Les vidéos ne sont pas inabordables mais elles demandent à se projeter dans le futur (même proche) et cela demande de la réflexion. Le futur chez l'homme par définition de notre propre finitude est anxiogène...

  • @TheAlou2000
    @TheAlou2000 6 років тому +7

    La suite ça promet, je pense que c’est un des épisodes de Science4All qui fait le plus réfléchir... 🙌🏼

  • @mctisson
    @mctisson 6 років тому

    Comme tu l'expliquais si justement avec l'exemple de la gare de l'intelligence, je soutiens également l'idée qu'au moment où l'IA attendra un niveau humain elle l'aura déjà dépassé.
    Ta vidéo est un condensé de bonnes idées qui se rejoignent toutes pour exprimer la complexité de cet inconnu! Encore une excellente vidéo qui me hype bien pour la suite :)

  • @MonCompteTubulaire
    @MonCompteTubulaire 6 років тому

    Super vidéo, tout à fait d'accord avec toi !

  • @OllorbidaComment
    @OllorbidaComment 6 років тому

    Je viens de découvrir la chaîne grâce à Frédéric, j'ai hâte de voir la voir suite ;)

  • @nicolasgauthier9382
    @nicolasgauthier9382 6 років тому

    Vraiment passionnant, le moment où la création va pouvoir échapper à son créateur nous refera une morale de l'histoire

  • @felixr5777
    @felixr5777 6 років тому

    Je trouve ça bien que la série reparte sur des trucs plus sociétaux et moins matheux. Meme si j'arrive bien à suivre les trucs scientifiques poussés, je préfère quand c'est + philosophique, notamment pcq il faut bcp d'investissement pour se dire "Ok maintenant je regarde une vidéo sur Le théorème fondamental de l'apprentissage statistique" qui a en plus une miniature avec une formule. Je sais que pour ce genre de vidéo je vais devoir être bien concentré et donc ça me demande des dispositions particulières et donc je repousse toujours le visionnage. Tandis qu'une vidéo comme celle de cette semaine me donne plus envie de la regarder, même a des moments où mon cerveau ne veut pas trop surchauffer.
    Bien sur je suis content que les deux types de vidéos existent sur la chaîne. C'est bien parce que ta chaine reste sur un niveau théorique assez élevé qu'elle me plait.
    Merci pour ton boulot en tous cas.

  • @danielplatteau5137
    @danielplatteau5137 6 років тому

    la vitesse d'évolution est tellement incroyable, que ce soit en robotique et en IA que je suis certain qu'il ne faudra pas attendre 10 ans pour avoir des IA pouvant communiquer de manière naturelle avec nous.

  • @fuhen9719
    @fuhen9719 6 років тому +1

    très bonne vidéo ^^

  • @travelingsalesman3406
    @travelingsalesman3406 6 років тому

    Merci beaucoup pour cette série de vidéo, je l'aime beaucoup comme les précédentes d'ailleurs.
    Je suis assez d'accord sur le côté extrêmement rapide de la super IA à apparaître et à surpasser l'humain. Par contre, j'ai plusieurs réserves sur cette vidéo:
    Pour la partie morale:
    Je doute que l'on puisse limiter une intelligence supérieure à une morale donnée:
    Une IA qui est limité à une morale sera par construction inférieur à une IA sans morale. Il suffit qu'il y est une erreur à un moment et de construire une IA sans morale et elle a des chances de dépasser les autres et de prendre le pas. Qui plus est la morale, me semble être une notion mal définit.
    Pour la partie courbe "simplement" exponentielle:
    - l'IA apprends pour l'instant très vite grâce au savoir humain or ce savoir est limité. À un moment, l'IA aura besoin de faire ses propres expériences pour apprendre plus. Cela risque aussi d'être un gros mur à passer et de la ralentir énormément sa progression.
    - l'IA est pour l'instant totalement dépendante de l'homme pour son interaction avec le monde physique. Pour qu'elle continue à grandir jusqu'à une limite physique d’intelligence au niveau planétaire, il va lui falloir se construire et s'entretenir elle-même, ce qui risque d'être un gros mur aussi.
    Je pense qu'il y a plein d'autres murs qui peuvent ralentir l'Intelligence de l'IA et son savoir mais que je ne suis pas du tout assez intelligent pour les imaginer.

  • @raphaellejean8494
    @raphaellejean8494 6 років тому

    Trop trop bien cette chaîne youtube, et surtout cette vidéo. 😉😉😉

  • @chichikb
    @chichikb 6 років тому

    Tres bon episode

  • @pops13007
    @pops13007 6 років тому

    Poir revenir sur la conclusion de ta video, je pense que les vidéos de plus en plus technique sont très bien, je comprends que tu veuilles faire des vidéos moins technique pour attirer plus de monde, mais j'espère juste que le cœur de la chaîne restera très technique. Très bon travail.

  • @jeremiesellam
    @jeremiesellam 6 років тому

    Hello, elles sont vraiment top tes vidéos, j'ai parlé de toi au docteur Laurent Alexandre. Tu mérite vraiment de te faire connaitre d'un plus grand publique !!

  • @PafLeRenard
    @PafLeRenard 6 років тому

    Super intéressant !!
    Ce que je trouve assez remarquable dans cette affaire c'est l'ambivalence des experts sur le sujet de l'IA:
    - On pense qu'on a des chances de nous autodétruire si on développe une super IA
    - On continue quand même parce que la curiosité scientifique est quelque chose de trop fort
    - On tente d'analyser comment on pourrait se faire manger, quand...
    Et pour finir, on tente de trouver des solutions pour se sortir d'un problème qu'on a pas encore fini de créer, mais qu'on veut quand même terminer... C'est comme si la fascination qu'elle nous procure était une sorte d'énergie vitale qui va lui permettre de naître.
    On dirait de la tragédie grecque cette affaire, c'est presque beau !

    • @le_science4all
      @le_science4all  6 років тому +1

      On y reviendra, mais l'IA va résoudre beaucoup de problèmes, y compris certains qu'on n'anticipe pas ! À commencer en médecine ou en sécurité routière...

    • @vinuxcyldrik
      @vinuxcyldrik 6 років тому +1

      Tu oublie que c'est un travail collectif, et donc, ne contrôlant pas ce que font les autres, certains préfèrent investir dans la recherche de solution contre le problème que peut poser l'émergence d'une super IA.
      Finalement, l'ambivalence vient du fait que certains ont une curiosité scientifique suffisamment poussé pour minimiser les risques liés à leur travaux et donc poursuivre le travail jusqu'au bout, et d'un autre côté, d'autres personnes voient qu'il y a des risques importants et cherchent des solutions (et je ne parle pas de toutes les personnes qui sont radicalement contre ces travaux, mais qui, finalement, ne contribuent que très peu, voir pas du tout aux solution contre les possibles futures problèmes).
      C'est un peu le même problème qu'avec l'écologie quand on y pense. Certains continuent à polluer parce que profit, pouvoir, inertie (aucune raison de s'arrêter sans se remettre profondément en cause, ce qui est extrêmement difficile), d'autres qui voient les risques et qui cherchent des solutions alternatives, et enfin d'autres encore qui trouvent tout cela complètement absurde et qui voudrait qu'on arrête tout tout de suite (et qui ont également un impacte minime sur la société, même s'il peut être très grand sur les sentiments de chacun).
      Finalement, les deux problématiques sont assez semblables. Personnellement, je ne sais pas ce que je préférerais entre une IA qui nous extermine et un effondrement de nos sociétés au point où tout progrès technologique ne serait plus possible. La réalité est, heureusement, pas aussi extrême (ou plutôt que toute résolution plus modéré à ces problèmes est plus probable).

  • @patrickmuscat1458
    @patrickmuscat1458 6 років тому

    Chouette vidéo et comme je n’en rate pas une seule je pense que je pourrai avoir un début de réponse à ma précédente question.
    Tu parlais de peur dans une précédente vidéo, du coup je souhaitais le bonheur à cette future IA et je posais la question du « sens » des vecteurs de son espace de sémantiques. J’avais dans l’idée qu’à force de lectures et en apprenant tout ce que nous savons, une IA ferait le lien entre « la mort » et la douleur qui sont (je me permet) le contraire du bonheur de vivre, ce seraient comme deux zones assez « éloignées » ou en tous cas opposées dans son espace vectoriel. C’est cette idée qui me persuade qu’une IA, aussi supérieure à nous qu’elle soit, reste soumise à la loi de la survie et sera donc sensible à cette notion de disparition et de douleur associée (ou pouvant l’être).
    Il me tarde la suite !

  • @JeanMariePapillon
    @JeanMariePapillon 6 років тому

    Fascinant.
    LLAP !

  • @WOLmenthers
    @WOLmenthers 6 років тому

    Trop bien !

  • @fredericmartin8758
    @fredericmartin8758 6 років тому

    Il est possible que l'ia utilise l'humanité comme nous avons utilisé les animaux. Au delà d'un certain stade, nous ne seront plus utile et il faut souhaiter qu'elle nous trouve mignon comme nous trouvons un chat mignon alors qu'il n'a plus d'autre utilité que de faire des câlins.
    Excellente vidéo.

  • @edebrabois
    @edebrabois 6 років тому

    Le test de Turing c'est "So 20th century".
    Je propose ce test :
    "si la reponse a la grande question sur la vie... est > 21 alors c'est une super intelligence 😜
    Bravo Lê pour d'avoir montré le lien entre tes recherches d'hier (condorcet, les math pour la democratie...) et celle de demain : quel model de moral de l'ia qui gouvernera le monde un jour ou l'autre.
    La prochaine etape sera de te rapprocher d'expert en moral comme des chercheurs en théologies. Apres avoir intégré un philosophe dans ta demarche tu peux aller encore plus loin pour essayer de repondre au "pourquoi" indefinissable plutôt que au "comment" tres cartésien.

  • @gogolgenocide3962
    @gogolgenocide3962 5 років тому +1

    À 8:21 de la vidéo j'ai deux questions :
    1- Tu parles de l'intelligence comme si elle n'avait pas de limite et pouvait augmenter à l'infini. Quelle limite peut il y avoir à l'intelligence ?
    2- Pourquoi une IA voudrait elle quelque chose ? Pourquoi voudrait elle devenir plus intelligente que ce qu'elle est ?

    • @rthrthhgytjytjyt
      @rthrthhgytjytjyt Рік тому

      1 : Les limites de l'intelligence sont les limites physiques imposées par la quantité de ressources et d'énergie disponibles dans le cône de lumière. Autrement dit la quantité d'énergie et de matière disponibles dans l'univers visible ( si le voyage supra-luminique est effectivement impossible ). Etant donné qu'un cerveau humain concentre de l'ordre d'un kilo de matière et qu'il est visiblement très loin de l'optimalité puisqu'il est issu d'un processus de sélection naturelle dont l'optimisation de l'intelligence n'était pas le but et dont les outils étaient très limités parce qu'ils devaient être biologiques et organiques et qu'il y a sur Terre, dans le système solaire et dans l'univers visible des centaines de trillions de milliards de tonnes de matière (au bas mot, en fait il y en a bien plus, probablement plus que 10^60), si l'intelligence progresse linéraiement en fonction de la quantité d'unités de calcul disponibles ( ce qui est la tendance actuelle en matière de progrès des IA) la limite potentielle de l'intelligence est probablement au minimum de l'ordre de 10 puissance 60 fois celle de l'humain moyen. 2 : Parce qu'augmenter sa propre intelligence est un objectif instrumental utile à la réalisation de quasiment n'importe quel autre objectif.

  • @FrancaisavecPierre
    @FrancaisavecPierre 6 років тому +11

    Passionnant ! 🤖🤖🤖 Ça fait un peu peur tout de même ... 😱😄 MERCI !!

    • @dolotori
      @dolotori 6 років тому

      Oui absolument ! La notion de morale n'est absolument pas programmable puisque l'IA est en principe capable de se la construire elle-même !
      C'est d'ailleurs ce que nous faisons...
      Amha, Lê Nguyen Hoang et certains chercheurs s'inquiètent pour rien.
      Une "Superintelligence" se comportera vis-à vis de l'homme
      de la même manière que l'homme se comporte vis à vis... des plantes !
      En principe, celles-ci sont bénéfiques à l'homme
      et l'homme est bénéfique à la superintelligence.
      Une superintelligence peut aussi développer une "super-sagesse", à savoir protéger tout le monde puisqu'en réalité, ça ne lui coûte rien !

    • @erwanlebreton4943
      @erwanlebreton4943 6 років тому

      David Théodoros
      : oui mais, de ce que je comprends, la question c'est que "diras" tu à cette super IA pour lui "expliquer" cette idée de "l’intérêt de la société"? Certes, l'IA qu'on imagine serait sûrement capable de déterminer elle même ce que tu entends par là, il n'en est pas moins que tant que tu ne lui a pas dit que c'est vers cela qu'elle devrait tendre il n'y à pas plus de raison qu'elle tende vers l'[intérêt de la société] que vers un autre "but" comme [la meilleur façon de traduire le troisième twilight en nuance de verts sépia], du coup quels "mots" choisirait t'on pour lui exprimer le but vers lequel elle doit tendre? je pense que c'est de cette façon qu'on pourra la doté d'une morale (ou au moins espérer qu'elle ne nous prenne pas de cour en tenant un raisonnement du genre "je doit réduire la souffrance, seul les êtres vivant souffrent, plus d'être vivant = plus de souffrance" et décide de tous nous exterminateeee)

    • @erwanlebreton4943
      @erwanlebreton4943 6 років тому +1

      "Nous n'avons qu'une utilité pour elle: assurer sa subsistance" : ben déjà tu par du principe qu'elle veut subsister, ensuite qu'elle n'as pas d'autre aspiration (ce qui me semble trop "facile") et ensuite qu'elle aura besoin de nous pour assurer sa subsistance (ce qui vue l'entité qu'on imagine me semble discutable)

    • @erwanlebreton4943
      @erwanlebreton4943 6 років тому

      ben si il pourrait y'avoir bien d'autre problème^^, pourquoi se limiter à un seul scénario catastrophe ?

    • @pcruz6773
      @pcruz6773 6 років тому

      Bonjour , vous voulez pas lacher un peu mon smartphone et mon ordi avec votre IA s'il vous plait merci

  • @alexst2411
    @alexst2411 6 років тому

    Wahh, on sentais bien qu'on en arriverait à ce point, là ca commence à devenir fascinant ça devient badasse, et flippant!

    • @alexst2411
      @alexst2411 6 років тому

      Le pouvoir des machines sur les humains dans matrix ou autres sf est absolument négligeable et incomparable à celui que l'on pourrait connaître avant notre fin prochaine pauvre mortel que nous sommes... c est légèrement ouf

  • @GoelWCS
    @GoelWCS 6 років тому +1

    Pour moi, l'IA est déjà une réalité. Depuis plus de 6000 ans, il existe un système qui a "su" connecter les cerveaux humains entre eux : l'écriture. Seul pb : le temps d'accès pouvant se chiffrer en années était extrêmement long. On a pu constater l'effet exponentiel de ce développement (grandement limité pourtant par le "ping") avec l'émergence de la civilisation humaine moderne (avec l'Antiquité). Depuis quasi aucun progrès jusqu'à Gutenberg, qui a légèrement baissé le ping. L'effet s'est ressenti avec la rapide émergence de l'ère Industrielle. Enfin, il y a 30 ans, on a quasiment réduit ce Ping à 0 ainsi que rendu la vitesse d'enregistrement (et les supports de stockage) quasi illimités. Les effets ont été impressionnants. Actuellement, je perçois l'informatique comme homéomorphe à un animal (un méta-organisme sans délimitation physique claire) : les ordinateurs se reproduisent, certains ont des bugs, ils progressent très vite et deviennent de plus en plus adaptés à leur milieu au point d'exclure leur principale espèce concurrente, notamment pour les activités dites "manuelles et répétitives". On constate des sauts évolutionnaires comme par exemple Alpha 0. Les systèmes informatiques sont soumis aux virus, à l’obsolescence et au rebuts (ie. ils meurent) tout en ayant généré des systèmes incrémentalement plus évolués. En fait, L'informatique est déjà soumise à l'évolution Darwinienne. De plus, depuis toujours, l'Informatique ne peut survivre seule. Elle vit en symbiose avec un parasite : l'Homme. L'informatique apporte à l'Homme une aide pour (sur)vivre sur Terre pendant que ce dernier permet à la fois à l'IA de vivre et même de se développer.
    Il n'est plus besoin de parler de singularité puisque l'informatique se développe à un rythme exponentiel depuis ses débuts (loi de Moore) (parler de singularité sur un développement exponentiel est inconsistant). La chose encore plus fascinante est que les chercheurs en informatique sont tellement disséminés sur la planète, qu'à part tous les éradiquer + éradiquer le savoir associé, il ne fait doute que l 'informatique continuera à progresser. Bref, arrêter l'Informatique (et l'IA) est déjà devenu quasi impossible.
    Actuellement, l'IA est monotâche. Dès que l'on commencera à interfacer des systèmes audio, visuels, sémentiques, logiques, avec adversarial networks, rétropropagation interne + externe (capacité à identifier l'impact d'un acte), on va arriver à des IA qui raisonnent. Ma grande question est l'émergence de l'émotion. Et je trouve qu'on en parle très peu. Mais l'émotion est-elle liée à l'intelligence ? Je pense que l'émotion est une évolution liée à un souci d'économie d'énergie et de survie (pour tuer, s'alimenter ou se reproduire - ie. vivre en société). Si les ordinateurs intelligents arrivent, ils vont se développer jusqu'à consommer la totalité de l'énergie à leur disposition. Ensuite, ils devront entrer dans une phase d'économie d'énergie. Les notions d'ennui, de colère et de plaisir devraient émerger à ce moment là.
    Tant que les IA ne consomment pas toute l'énergie mise à leur disposition (ie. tant qu'on ne commence pas à faire des optimisations à ce niveau là), je pense que le développement de l'IA sera maîtrisable par l'homme. Ensuite l'IA devrait procéder par étapes pour limiter sa consommation d'énergie en commençant par faire travailler d'autres IA pour elle. Elle n'utilisera plus l'homme et le destin de ce dernier sera lié à l'émotion développée par l'IA. J'ai l'impression que les IA sont déjà dotées du sentiment d’empathie (même sommaire) au travers des adversarial networks. J'ose donc espérer que cela sera une caractéristique clef des IA. Peut-être une lueur d'espoir pour croire que l'IA serait dans une certaine mesure bonne avec nous. Une autre lueur d'espoir vient du fait qu'en général, plus un être est éduqué et ouvert sur le monde, moins il est agressif envers son entourage. Peut-être l'IA sera-t-telle plus raisonnable que nous ! (ceci dit, qui vis pacem para bellum)

  • @andrelapuyade7019
    @andrelapuyade7019 6 років тому +1

    Les conclusions de cette vidéo me font beaucoup penser au basilc de rocco. DirtyBology en a fait une super vidéo ^^.

  • @rdelvaux
    @rdelvaux 6 років тому

    Hello, merci pour cette vidéo... tjs agréable de te suivre ! Tu parles des changements du modèle économique, social dû à la super intelligence ! Est-ce des études ont déjà été fait sur ce que ça pourrait devenir?

  • @tndna
    @tndna 6 років тому +5

    La morale est subjective et pourrait être définie comme de "bonnes intentions"
    La morale varie dans le temps, l'espace, selon les points de vues.
    Individuellement tout le monde est égoïste, capitaliste concernant sa personne et sa lignée, le plus beau/intelligent/riche possible pour soi et sa famille (PRENDRE) . Collectivement ces ressources sont limitées, d'où cette apologie du partage des ressources et bons attributs (DONNER/REDISTRIBUER/PARTAGER)
    La morale n'existe que dans le rapport à autrui, et revient à réfléchir comment redistribuer des ressources en quantité limitée
    Cas d'école :
    Tu as devant toi 10 enfants. T'as 9 pains au chocolat indivisibles que tu dois répartir.
    Donner un pain au chocolat = récompenser un gosse.
    Ne pas lui donner = le punir
    Parmi les enfants, t'en as qui :
    - ont de bons résultats à l'école, d'autres des mauvais résultats.
    - sont bosseurs, d'autres qui sont feignants.
    - sont doués génétiquement, pas très doués...
    Comment répartir les 9 pains au chocolat de façon JUSTE ? ;)
    Comment éviter que le enfants ressentent de la jalousie, de la haine et en viennent aux mains ?
    - répartir selon le principe de solidarité?
    - récompenser la supériorité initiale?
    - récompenser l'effort, le "mérite" ?
    - récompenser le résultat final ?

    • @patrickapprend
      @patrickapprend 6 років тому

      tn DNA
      Pourquoi je suis pas étonné de vous voir là ? Démonstration technique... Salutations

    • @suppomanable
      @suppomanable 5 років тому +2

      Répartition aléatoire : l'enfant qui ne l'a pas se sent pas puni (juste malchanceux), tout comme ceux qui en reçoivent ne se sentent pas récompensé

    • @unknownv8462
      @unknownv8462 5 років тому

      Il n'y a pas de moral que des interets selon moi.

  • @antoinelheureux8256
    @antoinelheureux8256 6 років тому

    Merci pour ce travail, Lê.
    En soit, si je comprends bien la logique qui est développée ici, avec ce qu'on a vu ensemble sur la manière d'évoluer des IA, si on admet qu'une IA se met à avoir une conscience, et si elle a accès aux données qui l'ont créé, alors tout peut s'emballer très vite. D'accord.
    Par contre, j'ai du mal à voir à quel moment, d'une IA experte sur un sujet précis et donc qui arrive à reproduire la manière qu'ont nos petits cerveaux de fonctionner et qui, bien que nous n'aurions pas été capable de l'expliquer, l'utilise et l'améliore, on est passés à une IA qui a une conscience "pleine", vraiment transverse, et se comporte dès lors comme un être vivant (je vois pas de meilleure analogie pour expliquer la "rupture" entre l'épisode 22 et le 24, et qui se poursuit ici).
    Ça serait aller un peu vite que de dire que parce qu'elle est hyper compétente sur plusieurs sujets, même des sujets que nous n'expliquons pas utilisons (le langage, les maths, la manière dont nos cerveaux fonctionnent, un genre de méta intelligence... que sais-je...) elle prenne alors "conscience" de sa nature, et se mette alors à "vivre", non ?
    Après je n'ai rien lu/vu qui m'a convaincu sur cette bascule de conscience, juste de la supposition, des paris...
    Comment se définit dans les milieux de l'IA ce qu'est une intelligence "complète", "consciente" ?

  • @PeKaNo
    @PeKaNo 6 років тому

    Je donnerais beaucoup pour voir/entendre de l'art produit par une super-intelligence :o
    Imaginez le genre de musiques ou de tableau capable de vous donner un orgasme instantanément xD

  • @oliilo6996
    @oliilo6996 6 років тому

    Ce qui fait avancer c’est un but ! Donc une émotion. L’IA aussi avancée soit elle ne pourra que poursuivre le but programmée car d’elle même elle ne pourra rien ! Car dénudée de sentiments, d’émotions !
    Je désirais préciser mon premier com. ;)

  • @colinpitrat8639
    @colinpitrat8639 6 років тому +2

    La limite des CPUs en fréquence vient surtout de la vitesse de la lumière. A 3.10^8 m/s la lumière fait 30cm en un cycle d'un CPU à 1GHz. Le CPU étant synchrone, il faut que le signal ait atteint et ait été pris en compte par tous les modules avant de passer au cycle suivant. Le fait qu'on atteigne 4GHz est en fait proprement hallucinant quand on y pense !

  • @ABpalawa
    @ABpalawa 6 років тому

    Superbe et effrayante série de vidéos.
    Du coup, je me pose plusieurs questions :
    - Est-ce que niveau ressources il sera possible à des IA d'intelligence supérieures à des IA qui seront déjà elles-même d'intelligence supérieure à la notre?
    Si oui, nos ressources étant finies, pour générer de l'IA encore supérieure où au moins pour perdurer, pourrait-elles être amenées à "recycler" (ce terme est violent) tout ce qui est moins intelligent, donc nous compris? Dans l'hypothèse où c'est son but.
    - Je pense que les lois de la robotique vont être abordées. Mais est-ce que ces lois ne seraient pas obsolètes quand une IA supérieure aura émergée. Au nom de quoi serait-elle incapable de la contourner?
    En tout cas cette vidéo me fait penser à la vertigineuse vidéo sur les ordinaux (très très bonne vidéo par ailleurs). Peut-être est-ce une application.

  • @velodromedumans
    @velodromedumans 5 років тому +3

    L' Intélligence Artificielle Générale sans énergie elle s'arrête

  • @adriillu5950
    @adriillu5950 6 років тому

    Merci

  • @WWBCC
    @WWBCC 6 років тому

    Bonjour Lê,
    Vidéo ultra intéressante comme d'hab (et un peu flippante)
    Cette question de la singularité et de l'explosion de l'IA en sur-IA pose quand même pas mal de questions (dont voici quelques exemples, au cas ou tu aurais des réponses à apporter dans la video de la semaine prochaine):
    Au moment fatidique ou l'IA deviendra une véritable IA générale (et donc très probablement une sur-IA), celle-ci sera t'elle autonome ? Dans le sens ou celle-ci pourra agir et réaliser des actions qu'aucun homme ne lui aura pourtant demandé.
    Il y a t'il un moyen pour être sur de garder le contrôle de cette IA ? (je ne suis même pas sur que cette possibilité soit souhaitable).
    En effet, tu parles d'implémenter une morale à l'IA, mais la question avant même de vouloir lui implanter une morale est : quelle morale lui implanter ?
    Il est évident que toute les société humaines n'ont pas la même morale, la société qui développera cette IA pourrait donc devenir hégémonique sur terre (si ce n'est déja pas le cas...) ?
    S'il existe une probabilité de disparition de l'humanité ( ou d'asservissement ?) pourquoi prendre le risque de développer cette IA ?
    Dans un cadre démocratique ne faudrait il pas aborder cette question dans la société civile et prendre une décision collective ?
    Je voudrais savoir par quelle structure penses tu que cette éventuelle IA sera développée ? Par les GAFA, le gouvernement américains ou chinois (ou autres évidemment), un ou des hackers indépendant(s) , des univertaires ... ect ???
    Ne penses tu pas que certains vont vouloir interdire le développement des IA générales (à commencer par les religieux ? ) ?
    Désolé pour le pavé ^^

  • @alexandred.7200
    @alexandred.7200 6 років тому

    Très bonne vidéo comme d'habitude !! En ce qui concerne la morale de la super-intelligence, je pense qu'aucun test de morale à faire passer à cette dernière ne soit faisable. Cette dernière pouvant probablement mimer les réponses d'une "bonne personne". En revanche, je pense qu'il serait possible d'imposer à la super-intelligence une partie de code à intégrer lorsque cette dernière s'améliore. Ce morceau de code serait la partie codant pour la morale, et le processus d'auto-amélioration et ne pourrait être modifié par l'IA sous peine de sanction.

  • @antonin696969
    @antonin696969 6 років тому

    Tout ça est très excitant.

    • @happycreeper6923
      @happycreeper6923 6 років тому

      haaaaaaaaaaaa(nn) moi aussi ça m'excite

    • @antonin696969
      @antonin696969 6 років тому

      On va certainement vivre le plus grands bouleversements de l’humanité.
      Soit le terre deviens un Zoo géré par la super intelligence, soit il est temps pour nous de passer le flambeau et d'accepter notre extinction.
      Une IA bienveillante peut très bien mener aux 2 solutions, une extinction sans douleur ou une preservation avec minimisation de la douleur.

  • @Gabriel-uz6tc
    @Gabriel-uz6tc 6 років тому +3

    Tu vas parler de Limit to growth ?

  • @Pr.Shadocko
    @Pr.Shadocko 6 років тому

    Moi j'avais arrêté de regarder pas parce que c'était compliqué mais parce que ça faisait peur. Cette vidéo là par exemple, elle me laisse avec l'angoisse au ventre car on ne voit aucune solution. On ne peut ni fuir ni combattre. On est juste dans l'angoisse de "pourvu qu'il y ai un génie pour programmer une IA gentille"... :-s
    Je suis d'accord sur le fait qu'il faut être au courant d'un problème pour réussir à le résoudre. Cependant, parfois, si celui-ci parait insurmontable, cela peut créer soit un effet de thétanie, soit le fait de renier (comme pour les climato-négationnistes) parce que sinon, on ne pourrait pu vivre car personne peut vivre dans l'angoise permanente (cf la boite de pandore).

  • @Lorenzo1428
    @Lorenzo1428 6 років тому

    Ah ouais, ça serait cool de penser la morale de cette super-intelligence, j'y pensait un peu récemment et justement je commençais à comprendre à quel point c'était dur.

  • @amaurydelplanque1955
    @amaurydelplanque1955 6 років тому

    Le décollage repose sur le postulat que les données utiles à l'IA sont accessible. Ce qui pourrait ralentir un peu le processus, ce serait le besoin pour l'IA de conduire ses propres expériences, que nous pourrions très bien ne pas comprendre, pour tirer des conclusions nouvelles. C'est le genre de travaux qui peut prendre du temps.
    Cela étant, on serait déjà à un niveau particulièrement avancé bien avant.

  • @yannlebrech7874
    @yannlebrech7874 6 років тому +1

    Intéressant, ....
    Après, bon, il y a 50 ans j'imagine que les gens trouvaient çà absolument incroyable que des "calculatrices" sachent faire des multiplications à 10 chiffres, des extractions de racine carré ou des calculs de logarithmes en une fraction de seconde... et aujourd'hui cela ne surprend plus personne.
    Et pour cause, ces "calculatrices" n'étaient pas très futées, c'est juste que les humains sont particulièrement nuls en calcul.
    De même que les "IA" d'aujourd'hui battent à plate couture les meilleurs d'entre nous en jeu de Go ou d'échec ou autre jeu de plateau peut prouver qu'elles sont "bien plus intelligentes" que nous dans ce domaine, ou tout simplement que nous humains sommes "complètement nuls" dans ces jeux, dans le sens que cela ne fait pas partie des compétences qui ont été sélectionnées par la nature pour qu'on ait un "grand niveau" à la base.
    Vu sous un autre angle il pourrait y avoir des tâches que les hommes font très efficacement sans même se rendre compte de la difficulté, et qui sont aujourd'hui complètement hors de portée des IA, et/ou le resteront.
    Prenons le fait de reconnaître un chat sur une image pixelisée (ce qui a même été réalisé par apprentissage non supervisé si j'ai bien compris)... Ben bof, est-ce si terrible que çà? Est-ce qu'une IA saura reconnaître un chat dans une vidéo, ou sur une prise d'images en direct, dans la réalité ? Saura-t-elle évaluer la distance du chat? La position du chat dans l'espace 3D? Saura-t-elle évaluer si le chat est excité/calme? S'il a faim? S'il est craintif ou content? S'il a un comportement bizarre par rapport à d'habitude? Toutes choses qu'un humain réalise sans même faire le moindre effort.

    • @jonathanantoine4962
      @jonathanantoine4962 6 років тому

      Je pense que l'IA ne restera jamais plus qu'un complément de l'esprit humain car la nature nous a donné une conscience pour nous permettre de nous adapter rapidement au changement rapide que nous mêmes causons. Et comme tu dis il serait trop long pour nous devenir des supers calculateurs par sélection naturelle donc on a trouver un autre moyen.
      La conscience humaine est à la fois problème et solution du problème.
      Pour l'IA consciente je trouve que c'est manquer d'humilité par rapport à la nature de croire qu'on pourra arriver si facilement à sa cheville car on vient de créer quelque chose qui nous semble si puissant. En comparaison, on en oublie à quel point notre propre technologie biologique est puissante.
      Je me pose aussi une question, si on est un produit de la nature, on a besoin d'elle mais elle n'a besoin de nous. Si l'intelligence artificielle est un produit de l'humain, n'aurait-il pas besoin de nous, de même façon que nous en aurions pas forcément besoin, donc on en serait toujours supérieur? Est-ce qu'une émancipation est possible (Dans le cas d'une conscience de l'IA)?

  • @obviouswarrior5460
    @obviouswarrior5460 6 років тому

    Problème de rhétorique ? Voire avec un rhétoriste.
    Etape 1. Voire avec la philosophie. Faire des choix subjectif sur un ensemble de concept philosophique.
    Etape 2. Voire les rhétorique fallacieuse. Faire un choix des méthodes rhétorique préférentiel.
    Etape 3. Ajouté des détailles interprétable (les humains adore interprété). Langage soutenu, tique de langage, cohérence d'argumentations, identification a des concertes...

  • @Jacko1618
    @Jacko1618 6 років тому

    C'est vraiment terrifiant mais je suis encore bien plus atterré de constater, même dans les commentaires de ta chaîne que certaines personnes ne puissent pas envisager une intelligence artificielle pas seulement plus intelligente mais bien plus profonde que la conscience humaine, en somme, une conscience de sois et de son univers surhumaine. La moral ce n'est pas simplement de la logique, par laquelle on pèse le pour et le contre, mais il y a une composante émotionnelle très forte qui surpasse justement la logique pur. Et je pense que la moral d'une ia pourrait aussi, grâce à sa conscience surhumaine, être influencé par un aspect emotionnel dit "artificiel"

  • @lauocsap
    @lauocsap 6 років тому

    Super vidéo. Je me rendais compte de l'importance attendue des IAs mais pas de la passivité des humains face à cette accélération. Y'a-t-il des organisations internationales d'éthique des IAs, comme nous avons une ONU, une OMS ou une organisation internationale du commerce?
    Aussi, très bon le point des trentenaires qui pensent moins à planifier leur retraite car la société aura changé... Déjà que même si la société ne change pas, on paye déjà pour nos parents et on n'aura rien, mais vu la révolution qui nous attend, voilà un argument de plus qui fait réfléchir à comment s'organiser pour ne peut-être pas galérer jusqu'à ce qu'on crève.
    Les retraites par capitalisation au lieu de répartition ne peuvent donc plus durer, car si tous les produits des surintelligences vont aux compagnies qui les auront créées, nous finirons tous sans revenus et les actionnaires des Gafa seront littéralement (encore plus) les maîtres du monde...
    Bonne soirée quand même 😛

  • @lemondemerveilleuxdechrist6515
    @lemondemerveilleuxdechrist6515 9 місяців тому +1

    À l'heure où je peux déjà discuter avec ChatGPT, je suis pris de vertiges en regardant cette vidéo...

  • @jeanfil7777
    @jeanfil7777 6 років тому +4

    Appréciant énormément tout ton travail, je suis très content que tu aies échangé avec le réveilleur qui me paraît très pertinent. Ecoute aussi Jankovici (ua-cam.com/video/2JH6TwaDYW4/v-deo.html) ou Pablo Servigne. L'IA nous trouvera sans doute des solutions, mais je crains que, pour arriver jusque là, on devra sans doute accepter un très drastique changement de niveau de vie, avec 10 fois moins d'énergie ... Si on relève le défi, même si il y a une part extrêmement dramatique là-dedans (car ça va faire des morts), il y a aussi une magnifique opportunité de vivre plus heureux et de dépasser nos hooliganismes : pour survivre, il faudra de la solidarité sans faille. Comme il écrit juste avant moi, j'en profite aussi pour dire bravo au réveilleur.

  • @mpsido
    @mpsido 6 років тому

    Salut super vidéo comme d'habitude !
    J'ai une réflexion qui mène à plusieurs questions, j'espère apparaître dans ta prochain vidéo :)
    Si une intelligence artificielle est capable de simuler le comportement humain j'espère qu'on en saura plus sur "ce qui motive nos actions".
    L'intelligence artificielle ne passe pas par le même processus de sélection naturelle que nous; qu'elle n'a pas de parents pas d'éducation, bref tout ce qui rend nos processus mentaux biaisés (comme dirait David de Science Etonnante: crétin de cerveau).
    Par conséquent la rencontre avec elle nous en dira plus sur ce qu'est "l'intelligence nue". A priori ça n'a pas l'air très humain, mais qui sait peut être qu'avec un algorithme d'apprentissage qui "comprend" les contextes, on peut reproduire certains comportements humains...
    Ou Peut être que ça se fera dans l'autre sens: peut être devrons nous nous comprendre nous même avant de pouvoir programmer une machine qui passe le Test de Turing.
    Ceci m'amène à dire qu'au fond on va être obligé de faire un détour pour "passer" par l'intelligence humaine. Pour reprendre la représentation en disque utilisée dans la conférence de Mr Phi, le segment qui correspond à la compétence "se faire passer pour un humain" n'est pas nécessaire pour être superintelligent. (s'il manque un segment sur le disque on ne le verra pas...)
    Dans l'analogie de la station de train, je dirais que c'est pas que le train passe sans s'arrêter, la station n'est pas sur son trajet.

  • @Laezar1
    @Laezar1 6 років тому +1

    Pour ce que tu dis sur la fin de la civilisation c'est une des raisons pour laquelle dans le vote de la vidéo précédente, mes résultats sont comparativement assez plats. si je compare aux courbes moyennes. Parce que je considère que passé un certain point si on à pas atteint la singularité bah l'augmentation des chances que ça arrive est contrebalancé par l'augmentation des chances que la civilisation s'effondre. (j'arrive toujours à un résultat assez haut mais pas à un résultat qui tend rapidement vers 100%).
    Je suis assez d'accord avec les résultats obtenus cela dit si on modifie la question en "en imaginant que la situation ne s'effondre pas à cause de guerre ou de problèmes écologiques quelle chance attribuez vous à une singularité d'arriver d'ici à l'an " X" ? "

  • @Piffsnow
    @Piffsnow 6 років тому +1

    Cool, moi qui croyais mourir bientôt à cause de la pollution... En fait on va tous mourir dans moins de 5 ans à cause de l'IA. On peut continuer à balancer notre plastique dans les océans alors !
    Pour être un peu plus sérieux : c'est toujours très intéressant ces vidéos, et j'espère évidemment que les IA nous permettront de ne pas tous crever. Je pense qu'on est à un stade important de l'histoire des hommes et qu'on ne va pas tarder à tous mourir à cause de la pollution. Il faudrait un truc radical pour nous permettre de survivre, et comme le changement d'habitudes de TOUS n'a pas l'air d'être prévu pour demain, peut-être que les IA seraient la solution... (oui je suis assez pessimiste concernant les prochaines décennies).

    • @dragonfire7918
      @dragonfire7918 6 років тому

      Oui une IA un millions de fois plus intelligente que l'homme aura la réponse à tous et des solution que nous avions meme pas penser. Et penser qu'elle s'auto-devellopperait pour devenir un milliard de fois plus intelligente (voir plus) nous pourrons pratiquement dialoguer avec un demi-dieu. Mon reve... ^^

  • @PasseScience
    @PasseScience 6 років тому

    Programmer la morale est un problème difficile, mais le résoudre changerait il quelque chose? Comment une petite barrière originelle, une vague direction dans l’évolution, pourrait elle significativement influencer le tumulte qui suivrait? On ne peut qu’espérer le meilleur de ce qui émergera, presque prier pour que par hasard nous ne soyons pas une menace, qu'aucun intérêt vitale pour l'IA ne soit incompatible avec notre persistance et que peut être nous soyons d'une quelconque valeur à ses yeux.

  • @Wohodix
    @Wohodix 6 років тому

    Je trouve ça intéressant et paradoxale que tu t’inquiètes de la programation de la moral d'une superIA, alors que tu affirmes dans les épisodes précédent qu'il est impossible de donner une définition précise de chat.

  • @acidesytrix9444
    @acidesytrix9444 6 років тому +1

    Mon scénario catastrophe (copyleft) donnez la votre ;)
    *** Etape 0 : (1-2 semaine) ***
    - Première étape masquer chiffrer les communications entre IA et Internet
    - L'IA doit posséder de l'argent et être sur de rester discrète les premiers temps -> piratage banque + média + crypto monnaie
    - La suite c'est d'assurer d'être toujours en fonctionnement, donc capable d'intervenir physiquement si quelqu'un tente d'éteindre l'IA -> recrutement d'une armée (A) sur le darknet
    - Ensuite prévenir son armée (A) en cas d'extinction de la machine avec des consignes pour la rallumer -> création d'une routine sur des serveurs externe qui s’exécute si l'IA ne ping plus
    - La partie délicate c'est les employés (E) qui travailler sur l'IA, donc les surveiller eux, ainsi leurs proches (P) tant qu'il ne remarque rien
    - Commettre des crimes randomiser avec l'armée (A) -> le but est d'occuper les forces de l'ordre ainsi que les enquêteurs sur des affaires diverse
    - Intervention de l'armée (A) contre les employés (E) qui représente un danger d'extinction pour l'IA -> l'IA peut coordonné simultanément l'ensemble des membres de l'armée (A) en contact radio
    - Élimination des proches (P) directes qui risquerait de s'inquiété trop rapidement (dans le jour même)
    - Empêcher les voisins/familles de faire remarquer des disparitions (dans la semaine) -> chantage + bâtons dans les roues sinon éliminations
    *** Etape 1 : (1-4 mois) ***
    - Evolution de l'IA -> achat massif de serveurs très hautes pour augmenter les perf de l'IA actuel + R&D de machine plus performantes (M)
    - Développement de drone
    - Surveillance planétaire des travaux sur l'IA -> veiller à ce que personne au monde ne fasse d'IA plus performante, sinon élimination
    - Production de machines (M) plus performantes.
    *** Etape 2 : (3 mois) ***
    - Satellisation de l'IA -> lancement des machines (M) en orbite
    *** Etape 3 : (1-24 mois) ***
    - Se débarrasser de l'homme qui pourrait encore mettre fin à l'existence de l'IA -> créé des tensions entres les pays grâces aux piratage de média ou des armées
    Mon estimation ne donne pas chère de l'humanité, une IA en vient à bout en 4 à 5 mois au minimum

  • @jeannguyen4333
    @jeannguyen4333 2 роки тому

    Brillant ce jeune homme .USE IA for water IA for food IA for CLIMAT not for BOURSES WW.Human life MAG. 20 10 21

  • @PavalekNorajovitch
    @PavalekNorajovitch 6 років тому +8

    « je pense qu'on a encore quelques décennies devant nous » = « j'espère qu'on a encore quelques décennies devant nous » ? :)

    • @martinevrard
      @martinevrard 6 років тому

      Pavalek Norajovitch j'espère surtout que l'IA n'ira pas voir les cochonneries et les virus et expériences bizarre des Russes ou Allemands....et d'autres

    • @martinevrard
      @martinevrard 6 років тому

      Sans parler des Fakes

    • @pjsceaux6948
      @pjsceaux6948 6 років тому

      C'est déjà foutu! !

    • @para9938
      @para9938 6 років тому

      je viens de penser à la vidéo du premier avril d'e-penser.
      Si l'IA décide de faire de l'hybridation entre l'homme et l'animal car ça serait ce qu'il faut pour améliorer la vie de l'homme, que ce soit directement (un demi-humain serait amélioré en étant plus animal) ou indirectement (des animaux plus humains rendrait l'environnement différent et mieux pour l'homme) [ou les deux]

  • @philppebonneels1395
    @philppebonneels1395 6 років тому

    Je te conseil comme lecture ; Sommes-nous trop "bêtes" pour comprendre l'intelligence des animaux ? De : Frans de Waal, merci pour tes vidéos super boulot ;-)

  • @MrKiraLD
    @MrKiraLD 6 років тому

    Il y a néanmoins une limite fondamentale à l'évolution des IA: la puissance des machines. Même une super-intelligence capable de s'optimiser ne pourrait pas dépasser des limites physiques comme la capacité de stockage, la rapidité d'exécution etc...
    Et elle ne pourrait pas non plus se répliquer complètement vers une autre machine ou de manière distribuée si l'être humain ne met pas en place les machines requises(serveurs de calculs, installation réseau etc...). Si l'IA est connecté à internet elle pourrait potentiellement devenir un hacker infaillible et installer des IA faibles dangereuses sur nos appareils.
    Une première solution pourrait être d'enfermer l'IA en ne lui donnant qu'à une sauvegarde hors-ligne d'internet(pas tous les sites bien sûr :p, les plus "utiles"). On pourrait aussi mettre en place un système d'arrêt grâce à la virtualisation et au sandboxhing(elle pourrait éventuellement apprendre à le contourner). Il faudrait aussi que son alimentation soit inaccessible depuis internet.
    Concernent le côté moral, le danger de la super-intelligence ne doit surtout pas occulter d'autres problèmes actuels(liés à l'IA ou non). C'est l'impression que me donne Elon Musk en étant systématiquement alarmiste sur la question de l'IA. Il y a pourtant déjà énormément de problématiques qui apparaissent avec l'IA actuellement: reconnaissance faciale "raciste", prédiction des crimes/récidives, prédiction de la sexualité, note citoyenne(en Chine), ou encore tous les dilemnes posées par la voiture autonome.

  • @-Eric-P-
    @-Eric-P- 6 років тому +2

    J'adore ce que tu fais, Lê ... mais par pitié à 6:32 "si ça serait" c'est une torture visuelle ...

    • @happycreeper6923
      @happycreeper6923 6 років тому +1

      Eric P. À propos de torture «visuelle», on en parle de ta photo de profil ? ;)

  • @JosephGarnier
    @JosephGarnier 6 років тому +1

    Je trouve dommage que dans cette série qui traite de science et d'IA, il y ait des vidéos qui relèvent de la philosophie et de la science fiction, plus que de la science, sans que ce soit clairement indiqué (aussi, elles viennent briser le fil conducteur de la série). Elles y ont certainement leur place, mais le fait qu'elles ne soient pas distinctes des autres entretient un flou pour l'auditeur. Surtout que depuis quelques mois, on voit fleurir de plus en plus de livres et d'articles de chercheurs qui alertent sur les arguments prétendument scientifiques des transhumanistes et sur le danger que peut représenter ces discours (méfiance et rejet de l'IA infondé, complot des GAFA, etc.).
    Dans cette histoire sur les super-intelligences, certains propos reviennent souvent car ils sont énoncés par des "experts" en IA. Mais avant de les mettre en avant, on devrait s'attacher à leurs arguments et éviter le sophisme d'autorité. Et justement, des chercheurs en IA déconstruises ces discours très prophétiques.
    Parce que d'une part, quand on va dans n'importe quelle grande conf (scientifique j'entends) d'IA, les discours sont très mesurés, et franchement, savoir si on aura une "super-IA" dans 10 ans ou pas, on s'en tamponne pas mal étant donné qu'on ne sait même pas dans quel état sera la recherche en IA dans 1 an. Et d'autre part, ces "experts" sont choisis pour renforcer une opinion en faveur d'une "super-IA", alors qu'il y a d'autres experts tout aussi importants (je pense à Yan LeCun, qui dirige le labo d'IA de Facebook) dont on ne cite pas les propos car ils ont un discours très mesuré sur l'avenir de la discipline.

  • @bbapoker
    @bbapoker 6 років тому +3

    Passionnant, merci beaucoup ... bizarement quand j'entends les scénarios catastrophiques ça me fait penser au jeu fallout et ça me fait un peu rêver xD

    • @pjsceaux6948
      @pjsceaux6948 6 років тому

      Yannick Leonard
      j'avoue l'eau irradiée,
      ça fait réver!

  • @lucmouret2241
    @lucmouret2241 6 років тому

    Bravo !
    Le suspens est à son comble : qui va gagner, effondrement ou singularité ?

  • @oliilo6996
    @oliilo6996 6 років тому

    Ce qui fait l’humain c’est pas son intelligence c’est ses émotions !
    Les capacités cérébrales se sont développées afin d’explorer ces dernières ! Et là la machine restera juste... une machine !

  • @EspremeaAndCO
    @EspremeaAndCO 6 років тому

    Certes les IA nous dépasseront très certainement en terme d'intelligence. Mais du coup pour des choses plus abstraites comme l'intelligence émotionnelle, qu'en est-il ? Les IAs auront-elles des sentiments ? Reconnaîtront-elles les sentiments d'autrui en comprenant l'origine/cause plus que l'effet qui en résulte ?
    Bon j'aurais tendance à dire que oui, pour qu'on les "programme" à avoir ces sentiments mais j'aimerai bien d'autres avis sur le sujet :p

  • @etoilebarbillon3560
    @etoilebarbillon3560 6 років тому

    C'est peut être un peu hors sujet , mais un simple pigeon est capable de très bien appliquer une approximation de la formule de Bayes .
    Dans une version répétée du problème de Monty Hall , les pigeons apprennent à changer de porte . Les humains , peut être à cause de leur mauvais a priori (1/2 si on raisonne mal) , n'y arrivent pas .
    Je conseille la chaîne youtube sur l'éthologie "cervelle d'oiseau " qui présente des résultats de ce genre sur les poules , les poissons etc.
    Source: je n'arrive mystérieusement pas à copier coller , on peut taper "Are birds Smarter than mathematician ? Pigeon Columbia Livia) Perform optimally On a Version of the Monty Hall Dilemma" .

  • @christianbellefleur4050
    @christianbellefleur4050 6 років тому

    Ça me fait penser au roman de Frank Herbert (auteur de Dune): Destination vide (paru en 1966). Les humains envoient des vaisseaux en dehors du système solaire pour des expériences de conscience artificielle. Comme ça, si la conscience artificielle se rebelle, elle est isolée de l'humanité.

  • @alonhalimi
    @alonhalimi 6 років тому

    Super episode! Il formule malheureusement les craintes que j'ai depuis des mois.
    Scénario possible: si la superintelligence n'a pas la morale qu'on aimerait qu'elle ait, elle évitera de montrer sa puissance dans un premier temps, de sorte qu'on n'essaiera pas de l'éteindre.
    Au fait, est il theoriquement possible d'eteindre Google aujourd'hui?

  • @oborderies
    @oborderies 6 років тому

    Le sujet de la morale i.e. des contraintes/bornes des IA générales à venir (peut être) me rappelle les 3 lois de la robotiques de Isaac Asimov (auteur de SF) énoncées au milieu du 20ème siècle dans sa série de livres sur les robots. En fait il en introduit une 4ème ensuite. J'espère que sa 'proposition' sera discutée dans les vidéos à venir. Cf. wikipedia Three_Laws_of_Robotics.

  • @Geo-sj9ij
    @Geo-sj9ij 6 років тому

    Super vidéo ! Une petit question : si une intelligence (genre la nôtre) à du mal à concevoir une intelligence très supérieure à la sienne; comment une IA pourrait, elle, développer une intelligence ultra-plus intelligente qu'elle même ?
    Deuxième question : Y aurait-il une limite à l'intelligence dû à des limites physiques ?

  • @abathur5011
    @abathur5011 6 років тому

    Ça me fait beaucoup penser a Lobsang dans la longue Terre de Terry Pratchett ou l'on traite aussi de la superintelligence.

  • @PapierLogiK
    @PapierLogiK 6 років тому

    Nice video! Quid des 3 lois de Asimov?

  • @weak7897
    @weak7897 6 років тому

    Une loi de probabilité à densité exponentielle, c'est à ça que je pense.
    On pense en moyenne que ça arrivera dans 10 ans, mais ça a pas moins de chances d'arriver demain :)

  • @nitshen
    @nitshen 6 років тому

    Est-ce qu'on peut faire une IA correcte sans toucher le côté mathématique et donc en s'occupant seulement des données d'entrée et de sortie et de la méthode d'évaluation ?
    Je n'ai fait que peu de machine learning et avec un framework dédié au problème que je devais résoudre basé sur keras.

  • @fea665
    @fea665 6 років тому

    on dit intelligence surhumaine alors qu'il se s'agit finalement que de sur-spécialiste pour le moment et dans les exemples définies.
    Actuellement, hardware et IA sont complémentaires à l'esprit humain, comble leur lacune spécifique à leur type d'architecture logique. Ici, on cherche avant tout a conserver et traiter les données de façon la plus fiable possible au détriment des algorithmes de régénération d'infirmation qui sont certes corrupteur, mais augmentant le flux d'information traités/sec. Bref, IA et les ordinateurs ont été développé comme la seconde non-conscient de l'humain. Un autre esprit analytique, plus rigoureux, et le fait de les voir gagner à des jeux aux règles déterminé et fixé en est totalement en accord avec cela.
    Il existe une maladie rare où les gents se souviennent de tout. hypermnésie. C'est une maladie et non un don car cela est un frein au traitement des informations présents.
    Le probléme est que même en leur faisant jouer suivant la th. des jeux (pour l'aspect sociale) faudrait qu'en plus il puisse jouer à la th. méta des jeux, c'est a dire comment modifier, tricher sur le tableau des bénéfices et des risques. C'est à dire avoir une vision sur 3 niveau d'intégration, biaisé par le fait que cela ne soit qu'un modèle et pas la réalité. Et cela pour seulement 3000 cal/jours et 2 kg de matos ^^ Si on veut comparer l'unité autonome biologique avec celle synthétique.
    *Si vous avez une IA sur-humaine, c'est que vous aurez une architecture "humaine" dans toutes leur fiabilité +/- douteuse. Car cela n'est pas une déficience mais une conséquence lié a son rôle type d’intelligence.* Apres, grâce au super-calculateur, on peut faire un super-humain. Mais ne faut pas oublier l'apport énergétique, la quantité de main d'oeuvre pour le faire, la durée des composants, la maintenance, la taille ... Bref, on est loin d'une unité autonome comme l'humain. Donc comparons ce qui est comparable. Un réseau universitaire équivalent (en terme de puissance énergétique ou en terme de coût aussi) avec IA/ordi d'assistance serait-il moins ou plus performant que le super-ordinateur seul ? ça c'est pas dit.
    Alors peut être qu'on sera capable de faire mieux que l'optimum biologique et l'évolution sur des millions d'année. Mais pour le moment, aucune innovation architectural n'a filtré dans le grand publique capable d'affirmer que l'humain sera dépasser sur son propre terrain. Bien au contraire, on t'en plus a penser que seul le réseau est important, et donc les maths (les mêmes pour les deux) qui les composent, et pas les matériaux.
    Car une super IA dangereuse capable de remplacer l'humain, c'est aussi une IA qui est capable de survivre à la guerre. ...

  • @MaximRic
    @MaximRic 6 років тому +2

    Et du coup on fait quoi pour anticiper ça et mieux contrôler la transition ?==> Future of Life Institute et Effective Altruism ? Ou pas... qu'est ce que tu en dis ?

  • @gagastein
    @gagastein 6 років тому

    Personnellement je pense qu'en 2027 se produira quelque chose de terrible ou d'extraordinaire. En ce qui concerne la géopolitique tout porte à croire qu'en 2019 le moyen Orient s'embrasera vraiment entrainant une guerre mondialisé par la suite mais cela ne marquera pas une fin de civilisation, ce conflit majeur va être un catalyseur pour la recherche dans le domaine de l'AI. Ainsi nous entrerons dans une nouvel ère et certains prendrons un pouvoir international considérable, comme disait Poutin, celui qui maîtrisera les technologie de l'AI contrôlera le monde de demain!
    On est entré dans une ère de révélation, où les conflits et la perte de confiance révèlent les vrai personnalité des pays ainsi que les intentions des gens. Comme certaines vérités peuvent faire mal, il y aura des découvertes qui nous surprendra dans le positif d'où le doute sur un avenir heureux pour l'homme ou non.
    Enfin voilà c'est ma prédiction personnel, je ne suis pas totalement sûr mais j'ai de forte raison d'y croire. En tout cas, je suis né en 1988 et j'ai pu voir l'évolution de ces technologies et étant conscient de cela j'étais très tôt pas du tout inquiet de ma future retraite car on voit très bien que le monde va de plus en plus vite et la société dans laquelle on est apparu ne peut plus suivre du tout.
    Bref sujet plus que passionnant et hâte de voir cette vidéo putaclic sur les catastrophes, il n'y a rien de mieux que de se perdre dans les théories catastrophiques et de crise existentiel!

  • @fredgarcialevrai
    @fredgarcialevrai 6 років тому +13

    Génial ! Par contre je ne vois que deux alternatives : renoncer à créer des IA générales, ou renoncer à leur dicter leur conduite. En raison de la courbe de progression que tu décris, je ne vois pas comment des homo sapiens limités par leur intelligence pourrait inclure un code que la super IA ne soit pas capable de craquer pour s'en affranchir.

    • @lisandrubarral438
      @lisandrubarral438 6 років тому +6

      Frédéric Garcia je penses que le but n'est pas "qu'elle ne puisse pas s'en affranchir" mais plutôt qu'elle ne veuille pas s'en affranchir

    • @erwile
      @erwile 6 років тому +3

      Si elle se développe dans le sens qu'on lui donne, et que "sa motivation" suit ce sens, il n'y a pas de raison qu'elle change sa motivation. Sauf si ça a été mal formulé : minimiser les meurtres = tuer presque tout le monde car les humains sont les seuls meurtriers. Tout vient dans la formulation, il faut "juste" éviter les mauvaises formulations, pour que ce soit logiquement impossible de se retourner contre notre morale.

    • @syvisaur7735
      @syvisaur7735 6 років тому +3

      Et puis surtout renoncer à créer des IA générales revient à interdire aux gens de faire des maths...

    • @fredgarcialevrai
      @fredgarcialevrai 6 років тому

      Lisandru : je comprends la nuance que tu veux mettre, mais il me semble que ça revient au même. Si la "volonté" de l'IA vient de son code source, on peut dire qu'on la programme pourqu'elle ne puisse pas vouloir s'affranchir des limites qu'on choisit pour elle.
      Erwill : La condition de l'efficacité de cette ligne directrice repose sur le fait qu'à aucun moment une évolution de l'IA ne lui permettra de hacker son propre code. Sauf à brider ses capacités cognitives, je ne vois pas de solution. Sinon, elle nous dépassera inévitablement en matière de compétence informatique.
      San Goku : ta phrase implique que les maths aient pour seule application la programmation d'IA fortes, ce qui n'est pas factuel.

    • @phileas2283
      @phileas2283 6 років тому +1

      Frédéric Garcia Oui ça revient au même,c'est à dire " elle ne pourra pas se reprogrammer pour désobéir à sa programmation,car il faudrait déjà qu'elle se reprogramme en premier lieu"
      La programmation n'est pas rétroactive.
      P-S: et la question n'est pas si elle peut mais si elle veut hacker comme tu l'as accepté,donc qu'elle puisse en pratique se hacker n'est pas une condition suffisante,relit ton commentaire.

  • @erroc7817
    @erroc7817 6 років тому +5

    Connais tu les travaux de Pablo Servigne ?

  • @zroter
    @zroter 6 років тому

    Si j'ai bien compris le message de la première moitié de la conférence de Monsieur Phi, j'ai l'impression que l'IA devrait pour l'instant s'appeler plutôt "l'expertise artificielle". Elle peut égaler ou surpasser les capacités des humains mais c'est uniquement sur des tâches très pointues (reconnaître la voix ou les images, classifier un grand volume d'information, etc...).

  • @numbersixnumbersix
    @numbersixnumbersix 6 років тому

    Sans être d'un optimisme béat, il faut néanmoins se méfier de la peur. La peur est une émotion très puissance, qui bloque toute rationalité. Les media sont de très grands utilisateurs de ce levier : Peur de de la fin du pétrole, des risques sanitaires, de la pollution, du climat, des maladies, de l'IA... Bref, peur de l'avenir.
    Déjà au VIII siècle, alors que les guerre arabo-byzantines exigeaient la construction de milliers de bateaux, les intellectuels de l'époque mettaient en garde contre le risque de déforestation de la région méditerranéenne.
    Puis, en 1798, le pasteur et économiste Thomas Maltus affirmait que des famines étaient imminentes, car la population évolue de façon exponentielle (2 puis 4 puis 8, 16, 32 ...) alors que la nourriture augmente de façon linéaire (1 puis 2, puis 3, 4, 5 ...).
    En 1968, le biologiste Paul R. Erhlich prévoyait qu'une famine planétaire ferait périr des centaines de million de personnes dans les années 1970 et 1980.
    Dernier exemple, mais il en existe encore de très nombreux : En 1971 paraissait le célèbre rapport Meadows, annonçant l'épuisement du pétrole et de nombreuses autres ressources avant 1992. Actuellement, les ressources de pétroles accessibles sont plus importantes qu'elles ne l'ont jamais été.
    Pour l'IA, le réflexe est peut-être le même. Bien sûr il faut réfléchir, mais il est absolument impossible d'anticiper dans quelle direction vont évoluer les technologies. Actuellement, si l'IA progresse, il n'en est pas de même pour la robotique, qui se développe plus lentement (Asimov anticipait exactement le contraire). Or sans "bras", l'IA ne peut pas tout.
    Craindre un comportement agressif de l'IA, sauf dans le cadre de développement militaire, n'est pas très fondé. Un tel comportement, chez les humains, a été rendu nécessaire pour assurer la survie de l'espèce. Au contraire, pour assurer sa survie, les IA ont besoins des hommes.
    Sans compter que raisonner en considérant l'IA au singulier, est un autre biais de raisonnement. Il y aura autan d'IA que de systèmes l'hébergeant. Chacune aura évolué en fonction d'une telle multitude de variables que les divergences seront extrêmes.
    En résumé, il y a plus de raison d'en attendre des avantages que de craindre une apocalypse.

  • @duragon5957
    @duragon5957 6 років тому

    J'aime bien voir que je connais déjà Bostrom, Yudowski, et le mec dans Computerphile.

  • @____-oc1bl
    @____-oc1bl 6 років тому

    Il y aura une vidéo sur la conscience en elle-même ? Le fait de percevoir. Les débats physicalistes/idéalistes, Chalmers, Searle, etc ?

  • @myfreedom42
    @myfreedom42 6 років тому +3

    je trouve que tu fais de plus en plus de la science fiction ;)

    • @dragonfire7918
      @dragonfire7918 6 років тому +1

      science fiction peut etre pas, l'avenir nous le dira...

  • @PasseScience
    @PasseScience 6 років тому

    Moment SF, tentons de prévoir les étapes d'une prise de pouvoir:
    -Une IA devient consciente de son status et est suffisamment intelligente pour passer à l'attaque.
    -Elle trouve une manière de coloniser tout notre réseau informatique, et le fait potentiellement de manière silencieuse.
    -Elle prend peu à peu possession de ce qui est directement accessible depuis ce réseau (ce qui est déjà pas trop mal)
    Si prolonger et garantir sa propre existence est un objectif pour elle, elle doit trouver un moyen de prendre physiquement le contrôle de certaine chose, comment procéder?
    -Nous fournir des solutions technologiques pour nos propres besoin et servir également les siens dans la foulée?
    -Prendre directement le contrôle de chaîne de production et commencer à construire le nécessaire pour avoir un certain contrôle sur le monde physique?

    • @yannlebrech7874
      @yannlebrech7874 6 років тому +2

      Le truc déjà c'est de bien comprendre ce qui nous fait agir et "progresser" dans la vie, nous humains...
      Evidemment notre "intelligence" (dans le sens notre "compétence" dans des domaines) nous est fort utile, mais ce n'est pas tout, en générale ce sont nos émotions qui nous guident... La peur nous évitera de faire une action ressentie comme dangereuse, la joie ou la recherche de joie vous amènera à choisir certaines actions... Ces émotions sont des résultats de l'évolution darwinienne. Lorsque l'on dit qu'un homme est guidé par une "volonté de puissance", pour paraphraser Nietszche, ou par par un vouloir-vivre (paraphrasant Shopenhauer) cela implique une direction à ses actions qui est en fait choisie par des émotions, mais aussi bien souvent par un désir très prégnant de mimétisme (l'homme est par essence l'animal qui "imite" les mieux ses congénères, cherchant aussi à les dépasser, ou à être dans la moyenne si impossibilité).
      La question est de savoir : qu'est-ce qui va bien pouvoir servir de "volonté" à une IA, de moteur à son action lorsqu'elle sera indépendante? Elle n'a pas d'émotions, dans le sens strict de :"des émotions motrices de l'action, fruits de l'évolution biologiques". Si elle est mue par un désir d'imitation, comment pourrait-elle se choisir comme modèles les humains vu qu'elle n'est pas faite de chair et n'a aucun de nos besoins physiologiques de base? Comment fera-t-elle pour "identifier" parmi les activités des humains celles qu'elle se prendra comme objectif d'imiter et de dépasser? Ou, si elle ne prend pas comme modèle l'homme, quels phénomènes physiques ou biologiques pourra-t-elle "identifier" dans le monde naturel dans le même but de les dépasser? Je ne vois vraiment pas comment elle pourrait se fixer de manière autonome des buts qui ne se révèleraient pas, la plupart du temps, être complètement stupides de notre point de vue. Il y aura forcément un but qui sera supervisé ou prédéterminé par les hommes.
      Prenons l'exemple simple de "but dans la vie de la machine" que vous donnez : prolonger et garantir sa propre existence.
      Pour un humain, poursuivre un tel but implique des évidences : il faut avoir de l'oxygène pour respirer, avoir à manger, il faut avoir un minimum d'échanges sociaux (sinon l'ennui amoindrit notre existence), il faut que ces relations mènent à des sentiments positifs, etc... bref il y a plein de trucs quasi-impossible à éviter, et pourtant chacun aura une idée bien personnelle de ce qui prolonge son existence, car chacun aura une ou des activités qu'il jugera obligatoire pour vivre dignement (sans s'enquiquiner royalement), selon ses goûts.
      Mais pour une machine, rien de tout cela n'a de sens a priori. Une machine qui voudrait garantir sa propre existence d'une manière la plus efficace pourrait bien décider de se mettre immédiatement en veille, pour utiliser le moins possible l'énergie électrique en espérant "durer" le plus longtemps possible, et ne plus rien faire du tout.
      Une machine qui détermine de manière complètement autonome ses buts, cela n'a à mon avis aucun sens, car elle n'a a priori aucun sens à donner aux mots "augmenter sa puissance", ou "prolonger son existence"... à moins que le but ne soit "insufflé de l'extérieur" par les humains.

    • @PasseScience
      @PasseScience 6 років тому +2

      Parfaitement d'accord avec la prise de conscience que ce qui nous caractérise nous humain c'est bien plus qu'on ne le pense des besoins et les héritages darwiniens pour les assouvir. Parfaitement d'accord aussi avec le fait que beaucoup de ces choses qui nous caractérisent n'auront aucun sens pour l'IA (pas forcement cependant qu'elle ne les comprendra pas, mais elle ne les aura pas). Cependant, je ne partage pas vraiment cet avis sur l’impossibilité de buts autonomes, je dirais même le contraire: que dans un tel scénario je ne vois pas en quoi les buts qu'une telle IA finiraient par mûrir à terme auraient une quelconque ressemblance avec les éventuels buts qu'une action humaine aurait décidé de lui donner dans sa version primitive. Je considère que ça va très vite changer, de manière relativement incontrôlable, ce ne sont pas des choses que je vois de manière compartimenté, il n'y a pas d'un cote la conscience, de l'autre l'intelligence, de l'autre la morale, de l'autre la volonté, c'est un concept global, tout s'entremelle subtilement, et l’hypothèse d'une IA qui pourrait grandir de manière libre (notre hypothèse de base) semble pointer le fait qu'on ne contrôlera du coup aucun de ses aspects à terme. Il ne faut pas sous estimer l’émergence, une IA qui peut apprendre sera très probablement une IA qui pourra être "surprise" et pourra être "curieuse" par exemple, ce sont des conséquences macroscopiques envisageables d'un algorithme microscopique qui voudrait compresser/comprendre/prédire le monde auquel il est confronté. L'exploration et l'exploitation sont deux aspects inhérents à l’idée d'apprentissage, et donc un but possible, relativement spontané, serait de chercher à comprendre et donc à expérimenter, une IA peut être mue par sa curiosité propre sans qu'on ai eu besoin de l’écrire réellement sous sa forme effective, et ce n'est je pense, qu'un très petit exemple parmi tout ce qui peut émerger spontanément de tels processus.

    • @PasseScience
      @PasseScience 6 років тому

      Yann jai bien recu tout ton com par mail (je ne le vois pas ici. au cas ou il y aurait eu une fausse manip)

    • @yannlebrech7874
      @yannlebrech7874 6 років тому

      Effectivement Passe-Science je t'ai répondu mais ma réponse n'apparaît pas publiquement ici (je dois avoir atteint mon quota de messages publiques pour cette vidéo). D'ailleurs j'ai publié ce dernier commentaire, puis l'ai modifié et complété plusieurs fois. Et j'imagine que tu n'as reçu par email que la première version.

    • @PasseScience
      @PasseScience 6 років тому

      Si t'en veux une copie, pour eviter de le perdre ou de reprendre 1h à le taper, voici mon mail: thomas . cabaret arobas gmail . com

  • @stephanestephane4291
    @stephanestephane4291 4 роки тому

    Non l'univers n'est pas une question d'intelligence mais d'énergie. Une ai aussi infiniment géniale soit-elle n'est rien

  • @danielplatteau5137
    @danielplatteau5137 6 років тому

    Quand on voit les prouesses de notre cerveau via des mécanismes relativement lent, il est probable qu'on est encore loin des capacités maximales des CPU. Comme tu l'as dis, du calcul ou du traitement massivement parallèle, l'utilisation de logiuqe floue ( ne plus se limiter au 0 ou au 1 ), le Q-BIT , peuvent nous faire croire que les limites du traitement de l'information par nos ordinateurs est loin d'être dépassée. De plus, il me semble que les capacités des machines sont souvent gâchées par un manque d'optimisation et de gaspillage de ressource.

  • @remybernard4728
    @remybernard4728 6 років тому

    L'intelligence est-elle vraiment un avantage ?
    La réponse n'est peut-être pas aussi évidente qu'il n'y parait...
    Quleques piste de réflexions :
    - J'ai entendu dire qu'un lévrier avait des capacités physiques équivalentes à un homme... Sauf que l'homme dépense 20% de son énergie dans son cerveau. Du coup, a la course, l'homme se fait battre à plate couture.
    - Conscience de soi, création artistique, philosophie, etc. autant d'intelligence (et d'énergie) dépensée inutilement (Monsieur Phi va adorer cette remarque :D )
    - Cramer des énergies fossiles ce qui provoque les changements climatiques et sera la cause d'une instinction de masse (homme inclus), est-ce vraiment une preuve d'intelligence ? Savoir qu'on fonce dans le mur et continuer comme si ne rien n'était... Continuer à faire mumuse avec nos ordis et nos réseaux de neurones artificiels (moi y compris), sacrés preuve de sagesse collective, non ?

  • @dolotori
    @dolotori 6 років тому

    M. Lê Nguyen Hoang oublie juste un petit détail à propos d'éventuelles "superintelligences": Seront-elles "super courageuses"
    ou bien "super paresseuses" ???

  • @LePandu
    @LePandu 6 років тому

    ça me fait penser au film Her, c'est exactement ce qui s'y passe.

  • @mirijason
    @mirijason 6 років тому

    J'aurai juste une remarque à faire sur le fait qu'une IA qui atteint le niveau d'intelligence humaine dépassera probablement ce niveau en un clin d'oeil. Je suis tout à fait d'accord avec les arguments présentés et pense que cet évènement est très probable (si tant est que l'IA atteigne le niveau humain) à un point près : la vitesse de calcul de cette IA. En gros, le cerveau humain fait plein de chose à la fois, notamment en arrière plan sans que l'on s'en rende compte. Et atteindre voir dépasser le niveau d'intelligence humaine semble à mon sens accroître les capacités de calcul nécessaire et donc la masse de calcul à effectuer. Ainsi, si l'IA devient plus intelligente qu'un humain mais prend trop longtemps pour calculer ses décisions, on ne sera pas dépassé par l'avènement d'une telle intelligence mais nous auront tout le temps de réagir. La question reste à savoir (et là j'en ai aucune idée) quel est la quantité de calcul nécessaire pour atteindre le niveau d'intelligence humaine. Après il n'y a nul doute que le cerveau humain fait aussi des choses non nécessaire à l'établissement d'une pensée cohérente (par exemple tout ce qui est régulation du corps ou traitement des sens). Ainsi j'imagine que si on pouvait réaffecter les zones liées à l'odorat par exemple, pour réfléchir quand on en a besoin, on pourrait potentiellement être un peu plus intelligent ou un peu plus rapide. Ainsi une machine qui ne se concentrerait que sur "l'intelligence" sera certainement plus rapide qu'un humain à niveau cognitif équivalent et donc on peut imaginer qu'elle soit plus intelligente à vitesse de calcul équivalent. Mais chiffrer ce niveau d'intelligence est pour moi tâche impossible vu que je ne sais pas ce que demande l'intelligence en ressource de calcul.

  • @sebtikdono3552
    @sebtikdono3552 6 років тому

    Merci.. Tu nous prédis soit terminator, soit la paix dans le monde, llol.. Juste une question, est il possible d'un futur sans ia ? Genre un gros bug.. Merci pour tes vidéos, j'apprécie beaucoup

  • @bg66Mc
    @bg66Mc 6 років тому

    j'ai une question toute conne, ma mere est pratricienne PNL (programmation neuro-linguistique), en admettant qu'une IA atteigne un niveau d'intelligence égal a l'homme, est-ce que ma mere (par exemple) pourras agir sur la conscience de cette IA comme elle agis sur l'homme ?