Ça y est, c'est ma vidéo préférée de ta chaine ❤ Je vais tout de suite la comparer sur Tournesol. Elle répond à tellement de questions que je me posais ... C'est peut être la meilleure vidéo sur les risques des IA de tout le youtube francophone. Merci d'avoir organisé ça !
Trop bien , bravo de cette super et intéressante interview 🥰 c est un débat sur nlna sécurité que l'on devrait entendre bien plus souvent 😅 bonne suite à cette super chaîne de podcast ..
Pas sûr que la critique contre l'altruisme efficace soit méritée. Le don d'Open Philanthropy en 2017 avait permis d'orienter OpenAI encore davantage sur les aspects de sécurité et d'alignement. La principale raison pour laquelle OpenAI a dérivé, c'est Sam Altman, et il s'en est fallu de peu, c'était pas quelque chose de vraiment prévisible à l'avance. À mon avis, ce serait une erreur stratégique de ne pas chercher à établir des liens avec les entreprises et de juste les critiquer. D'ailleurs, ça s'est plutôt bien passé avec Anthropic.
J'ai vraiment du mal à comprendre l'obsession de Lê pour les algos de recommandation, la protection des données, la Chine, la démocratie etc. face à une IAG autonome, qui pourrait vite nous faire oublier tous les autres problèmes.
Science 4All : des humains malveillants (terroristes, gouvernements, grandes entreprises et grand capital) vont utiliser l'IA - le problème est surtout politique, l'humanité survivra - Jérémy Perret : Des IA vont progresser avec le potentiel d'être d'elles mêmes malveillante ou concurrente - le problème est existentiel ; l'humanité peut tout à fait être dépassée -
l'orientation idéologique par votre contrôle de l'ia ne vous parez pas dangereuse ? les mensonges imposé par la loi afin de maintenir sous contrôle un pouvoir donnée. que pensez vous de la démonstration de robert faurisson ? il me semble que ses travaux sont dissimuler par la technologie que vous developpez
Lamerique pense pognon avant toute autre consideration . Donc il faudra encore 10 ou 20 ans de plaintes citoyennes avant qu'ils deviennent securisants ...
Je trouve que l'argument de dire "à l'époque on ne pouvait pas savoir" fait quand même un peu de la peine... Un erreur pareille, à défaut d'être impardonnable, devrait amener à une reforme profonde d'altruisme efficace. Parce que c'était clairement prévisible, c'est déjà arrivé sur d'autres boites gigantesques, par exemple sur les RSE de big oil. Et ça, sans même prendre en compte les limites philosophiques du mouvement.
Je ne peux répondre à sa place, néanmoins je me dis qu'il suit l'adage disant que c'est le moins mauvais système trouvé jusqu'ici. Les autres idées testées en pratique s'étant révélé encore plus perméable à la corruption et autre crimes organisés..
Il me semble que c'est un effet globale, tout le monde n'est pas forcément aussi informé que toi. Et même si tu choisit ce sur quoi tu veux être recommandé, l'algorithme aura tendance à essayé de te ramener vers le contenu qu'il a envie que tu vois, il me semble. De plus la fatigue a tendance à réduire ta capacité à regarder ce que tu veux vouloir regarder.
c'est la même affaire qu'avec les publicités à l'époque de la télévision (et sur les murs des grandes villes). Si tu sondes, peu de gens se sentent influencés. Mais les grandes marques trouvaient très très rentable de dépenser des millions sur chaque publicité. Les algorithmes c'est la même chose, on sait que c'est toxique, mais individuellement peu de gens se sentent affectés. Ils sont surtout inquiets pour leurs voisins. C'est vrai qu'il y en a encore beaucoup qui ignore carrément l'existence du sujet. Au moins la publicité, les gens avaient conscience que ça existe. Bref la situation actuelle est beaucoup plus insidieuse. Et la situation passée montre à quel point on est par nature peu capable de se rendre compte que l'on est sous influence.
en plus ça ne marche pas il propose les meme pub een boucle meme apres les avoirs ban, donc notre tendance à voir des choses ne doit pas etre respectée non plus
@@automatescellulaires8543 moi je m'en suis rendu , j'ai bien compris que l'algorithme était plus malin que ,j'ai été plus drastique après, des que je sens que des vidéos provoquent trop d'émotions quelconques ,je clique sur pas intéressé
Je suis très intéressé à savoir ce que tu n’as pas compris, et ce qu’on aurait dû expliciter pour que ce soit compréhensible pour toi. Ça m’aidera pour les prochains épisodes.
Globalement peut être qu'il faudrait mieux expliquer certains concepts comme "l'alignement ? " , Aussi J'avoue ne pas avoir ri à certaines blagues parce que pas compris.. Je suis intéressé par l'IA mais complètement néophyte. A mes yeux la vidéo demeure intéressante , mais prendre le temps d'expliquer en baissant un peu le rythme des informations qui arrivent rendrait l'expérience encore meilleure (pour moi en tout cas) merci.
ah cool, la stratégie de la peur feat Lê Nguyen, pour changer. du débat quali à l'attention des plus érudits à n'en pas douter. --> clic propriétés de la vidéo --> "Ne pas recommander la chaîne" 👋
Enfin des gens qui savent débattre.
Ça y est, c'est ma vidéo préférée de ta chaine ❤
Je vais tout de suite la comparer sur Tournesol.
Elle répond à tellement de questions que je me posais ... C'est peut être la meilleure vidéo sur les risques des IA de tout le youtube francophone.
Merci d'avoir organisé ça !
Tres bonne idée ce débat ! Merci.
débat d'une grande qualité
Merci pour cet échange :)
Débat très intéressant !
Allez, abonné, et j'en profite pour relayer sur twitter.
Content d'avoir été présent sur place, merci pour ce débat !
Trop bien , bravo de cette super et intéressante interview 🥰 c est un débat sur nlna sécurité que l'on devrait entendre bien plus souvent 😅 bonne suite à cette super chaîne de podcast ..
Vous méritez de gagner en visibilité. Merci pour cet échange intéressant, et surtout merci de vous investir ainsi pour nous tous.
Débat oh combien important !
Débat très agréable et d'utilité publique !
Pas sûr que la critique contre l'altruisme efficace soit méritée. Le don d'Open Philanthropy en 2017 avait permis d'orienter OpenAI encore davantage sur les aspects de sécurité et d'alignement. La principale raison pour laquelle OpenAI a dérivé, c'est Sam Altman, et il s'en est fallu de peu, c'était pas quelque chose de vraiment prévisible à l'avance.
À mon avis, ce serait une erreur stratégique de ne pas chercher à établir des liens avec les entreprises et de juste les critiquer. D'ailleurs, ça s'est plutôt bien passé avec Anthropic.
J'ai vraiment du mal à comprendre l'obsession de Lê pour les algos de recommandation, la protection des données, la Chine, la démocratie etc. face à une IAG autonome, qui pourrait vite nous faire oublier tous les autres problèmes.
Science 4All : des humains malveillants (terroristes, gouvernements, grandes entreprises et grand capital) vont utiliser l'IA
- le problème est surtout politique, l'humanité survivra -
Jérémy Perret : Des IA vont progresser avec le potentiel d'être d'elles mêmes malveillante ou concurrente
- le problème est existentiel ; l'humanité peut tout à fait être dépassée -
La prévention en sûreté ne rapporte pas de pognon ... donc ....😢
L homme joue a l apprenti sorcier avec les ia
🤩
J'ai bien peur que le plus grand danger de l'IA, soit la bêtise humaine. Quand on ouvre la boîte de Pandore, il faut pouvoir contrôler ce qui en sort.
l'orientation idéologique par votre contrôle de l'ia ne vous parez pas dangereuse ? les mensonges imposé par la loi afin de maintenir sous contrôle un pouvoir donnée. que pensez vous de la démonstration de robert faurisson ? il me semble que ses travaux sont dissimuler par la technologie que vous developpez
Le plus grand danger c'est faire exploser la consommation en énergie via les data center...
Lamerique pense pognon avant toute autre consideration . Donc il faudra encore 10 ou 20 ans de plaintes citoyennes avant qu'ils deviennent securisants ...
Je trouve que l'argument de dire "à l'époque on ne pouvait pas savoir" fait quand même un peu de la peine... Un erreur pareille, à défaut d'être impardonnable, devrait amener à une reforme profonde d'altruisme efficace. Parce que c'était clairement prévisible, c'est déjà arrivé sur d'autres boites gigantesques, par exemple sur les RSE de big oil. Et ça, sans même prendre en compte les limites philosophiques du mouvement.
Je suis assez étonnée que lê soit tres conscient des limites et fail de la démocratie sans qu'il cherche a promouvoir d'autres systèmes plus efficace
Je ne peux répondre à sa place, néanmoins je me dis qu'il suit l'adage disant que c'est le moins mauvais système trouvé jusqu'ici. Les autres idées testées en pratique s'étant révélé encore plus perméable à la corruption et autre crimes organisés..
Moi si je veux cliquer sur pas intéressé par un contenu sur youtube ,j'hésite pas
Je ne me sens pas manipulé
Il me semble que c'est un effet globale, tout le monde n'est pas forcément aussi informé que toi. Et même si tu choisit ce sur quoi tu veux être recommandé, l'algorithme aura tendance à essayé de te ramener vers le contenu qu'il a envie que tu vois, il me semble. De plus la fatigue a tendance à réduire ta capacité à regarder ce que tu veux vouloir regarder.
c'est la même affaire qu'avec les publicités à l'époque de la télévision (et sur les murs des grandes villes). Si tu sondes, peu de gens se sentent influencés. Mais les grandes marques trouvaient très très rentable de dépenser des millions sur chaque publicité. Les algorithmes c'est la même chose, on sait que c'est toxique, mais individuellement peu de gens se sentent affectés. Ils sont surtout inquiets pour leurs voisins. C'est vrai qu'il y en a encore beaucoup qui ignore carrément l'existence du sujet. Au moins la publicité, les gens avaient conscience que ça existe. Bref la situation actuelle est beaucoup plus insidieuse. Et la situation passée montre à quel point on est par nature peu capable de se rendre compte que l'on est sous influence.
en plus ça ne marche pas il propose les meme pub een boucle meme apres les avoirs ban, donc notre tendance à voir des choses ne doit pas etre respectée non plus
@@automatescellulaires8543 moi je m'en suis rendu , j'ai bien compris que l'algorithme était plus malin que ,j'ai été plus drastique après, des que je sens que des vidéos provoquent trop d'émotions quelconques ,je clique sur pas intéressé
Pourquoi une telle pub pour l'altruisme efficace ?
Surtout vus les escrocs et les pigeons qui en viennent...
Pas assez vulgariser pour moi, dommage.
Il aurait fallut quoi pour mieux vulgariser ? :)
Je suis très intéressé à savoir ce que tu n’as pas compris, et ce qu’on aurait dû expliciter pour que ce soit compréhensible pour toi. Ça m’aidera pour les prochains épisodes.
Globalement peut être qu'il faudrait mieux expliquer certains concepts comme "l'alignement ? " , Aussi J'avoue ne pas avoir ri à certaines blagues parce que pas compris.. Je suis intéressé par l'IA mais complètement néophyte. A mes yeux la vidéo demeure intéressante , mais prendre le temps d'expliquer en baissant un peu le rythme des informations qui arrivent rendrait l'expérience encore meilleure (pour moi en tout cas) merci.
@@Jack-Le-Merle Merci beaucoup pour ces conseils ! Je vais améliorer tout ça pour les prochains épisodes !
ah cool, la stratégie de la peur feat Lê Nguyen, pour changer. du débat quali à l'attention des plus érudits à n'en pas douter.
--> clic propriétés de la vidéo
--> "Ne pas recommander la chaîne" 👋