Je souhaite clarifier une idée concernant la singularité. L'essence même d'une IA générative réside dans son autonomie : c'est un logiciel capable de se reprogrammer lui-même. On peut donc dire que la singularité est déjà en cours. Imaginez qu'on place une IA dans un drone de combat avec pour mission de "libérer le monde" sans donner de cibles précises. L'IA pourrait alors interpréter cet ordre de manière dangereuse, en cherchant à éliminer tout ce qu'elle perçoit comme une menace meme un enfant.
Bonne vidéo. Petites coquille sur la fusion. C'est les réacteurs nucléaires à fission de génération 4 qui permettraient de réutiliser les déchets. La fusion nucléaire fonctionne sur un tout autre principe. Elle utilise la fusion de l'hydrogène en hélium et n'utilise pas du tout d'uranium. Quand à la conscience des IA, ton point de vue reste discutable. Qu'est-ce que la conscience humaine ? Sur quelle base tu t'appuies pour dire que l'IA n'atteindra jamais notre niveau ? De plus, les risques existentiels liés à l'IA n'impliquent pas nécessairement qu'elle développe une conscience. En tout cas, rien à redire sur le reste du fond et de la forme. GG.
Merci pour ton retour :) Merci pour la précision sur la fusion / fission ! Sur l’aspect IA et singularité, je le vois avant tout comme un sujet philosophique et non technique. Je pense qu’il est possible qu’un jour une IA puisse dépasser le cerveau humain en capacité, mais je n’y crois pas qu’un jour on les considère comme ayant une conscience égale à la notre. La conscience humaine est par essence humaine. Même si un jour l’IA en développe une, on le considérera pas comme humaine ! Et enfin, j’ai du mal à voir comment ça pourrait nous échapper alors qu’il suffit de débrancher. 🫣 Si tu veux me partager des études scientifiques sur le sujet je serai bien intéressée, ça pourrait faire l’objet d’une futur analyse ! 😊
@@clairenocode On voit déjà des IA qui modifie leur propre code. Des IA qui trichent. Des IA qui mentent. Voir la section recherche de pouvoir sur le Wikipedia "Alignement des intelligences artificielles". Et nombre sont les spécialistes qui ont peur de l'agentivité grandissante des tout prochains modèles à venir. Sans parler du risque de hacking et de multiplication de certains modèles. Ou des modèles agressifs de LLM développés dans le cadre du red teaming pour tester la robustesse des gros modèles. Pour ce qui est de les débrancher, c'est pas toujours aussi simple qu'il n'y parait. Est-ce qu'Open AI peut décider de débrancher GPT avec les dizaines de milliards qui ont été injectés par Microsoft et Apple ? Est-ce qu'on peut débrancher les IA open source, comme LLama que déjà des milliers de personnes utilisent en local ? Est-ce qu'on peut débrancher les IA de recommandation qui génèrent des milliards sur les réseaux ? Est-ce qu'on peut débrancher Aladin qui gère plusieurs milliers de milliards d'actifs ? Plus ça va aller, plus ces modèles vont devenir omniprésents dans nos vies, et la solutions du débranchage deviendra jour après jour toujours moins envisageable. Comme c'est déjà le cas d'Internet aujourd'hui qu'on ne peut plus envisager de débrancher sans causer des répercutions économiques catastrophiques. Conscience des IA : Question éminemment philosophique il est vrai. Et t'as bien raison : il y a très fort à parier qu'une IA consciente aura une conscience bien différente des animaux. Mais dans quelle mesure ? La question ne se pose pas que d'un point de vue philosophique, mais y'a tout un pan de la recherche cognitive qui s'y intéresse sérieusement. Et qq réactions de LLM, qui pourraient être autre chose que de simples réponses statistiques textuelles, font déjà penser à des formes balbutiantes de conscience. Ce qui reste encore à prouver.
C'est trop bien réalisé, continue ❤️
Merci, j'ai trop aimé créer cette vidéo ! 😊
Je souhaite clarifier une idée concernant la singularité. L'essence même d'une IA générative réside dans son autonomie : c'est un logiciel capable de se reprogrammer lui-même. On peut donc dire que la singularité est déjà en cours. Imaginez qu'on place une IA dans un drone de combat avec pour mission de "libérer le monde" sans donner de cibles précises. L'IA pourrait alors interpréter cet ordre de manière dangereuse, en cherchant à éliminer tout ce qu'elle perçoit comme une menace meme un enfant.
Je suis d'accord mais dans les faits on a déjà des armes qui, entre de mauvaises mains feraient qu'on en arriverait là :/
Bonne vidéo.
Petites coquille sur la fusion. C'est les réacteurs nucléaires à fission de génération 4 qui permettraient de réutiliser les déchets.
La fusion nucléaire fonctionne sur un tout autre principe. Elle utilise la fusion de l'hydrogène en hélium et n'utilise pas du tout d'uranium.
Quand à la conscience des IA, ton point de vue reste discutable. Qu'est-ce que la conscience humaine ? Sur quelle base tu t'appuies pour dire que l'IA n'atteindra jamais notre niveau ? De plus, les risques existentiels liés à l'IA n'impliquent pas nécessairement qu'elle développe une conscience.
En tout cas, rien à redire sur le reste du fond et de la forme. GG.
Merci pour ton retour :)
Merci pour la précision sur la fusion / fission !
Sur l’aspect IA et singularité, je le vois avant tout comme un sujet philosophique et non technique. Je pense qu’il est possible qu’un jour une IA puisse dépasser le cerveau humain en capacité, mais je n’y crois pas qu’un jour on les considère comme ayant une conscience égale à la notre.
La conscience humaine est par essence humaine. Même si un jour l’IA en développe une, on le considérera pas comme humaine !
Et enfin, j’ai du mal à voir comment ça pourrait nous échapper alors qu’il suffit de débrancher. 🫣
Si tu veux me partager des études scientifiques sur le sujet je serai bien intéressée, ça pourrait faire l’objet d’une futur analyse ! 😊
@@clairenocode On voit déjà des IA qui modifie leur propre code. Des IA qui trichent. Des IA qui mentent.
Voir la section recherche de pouvoir sur le Wikipedia "Alignement des intelligences artificielles".
Et nombre sont les spécialistes qui ont peur de l'agentivité grandissante des tout prochains modèles à venir. Sans parler du risque de hacking et de multiplication de certains modèles. Ou des modèles agressifs de LLM développés dans le cadre du red teaming pour tester la robustesse des gros modèles.
Pour ce qui est de les débrancher, c'est pas toujours aussi simple qu'il n'y parait. Est-ce qu'Open AI peut décider de débrancher GPT avec les dizaines de milliards qui ont été injectés par Microsoft et Apple ? Est-ce qu'on peut débrancher les IA open source, comme LLama que déjà des milliers de personnes utilisent en local ? Est-ce qu'on peut débrancher les IA de recommandation qui génèrent des milliards sur les réseaux ? Est-ce qu'on peut débrancher Aladin qui gère plusieurs milliers de milliards d'actifs ?
Plus ça va aller, plus ces modèles vont devenir omniprésents dans nos vies, et la solutions du débranchage deviendra jour après jour toujours moins envisageable. Comme c'est déjà le cas d'Internet aujourd'hui qu'on ne peut plus envisager de débrancher sans causer des répercutions économiques catastrophiques.
Conscience des IA :
Question éminemment philosophique il est vrai. Et t'as bien raison : il y a très fort à parier qu'une IA consciente aura une conscience bien différente des animaux. Mais dans quelle mesure ?
La question ne se pose pas que d'un point de vue philosophique, mais y'a tout un pan de la recherche cognitive qui s'y intéresse sérieusement. Et qq réactions de LLM, qui pourraient être autre chose que de simples réponses statistiques textuelles, font déjà penser à des formes balbutiantes de conscience. Ce qui reste encore à prouver.