IA MENTIU EM TESTES DE SEGURANÇA

Поділитися
Вставка
  • Опубліковано 22 гру 2024

КОМЕНТАРІ • 547

  • @matheusativo3421
    @matheusativo3421 9 днів тому +1408

    Resumindo tentamos criar o JARVIS mas criamos o ULTRON

  • @gaiapsyche
    @gaiapsyche 9 днів тому +908

    A gente humaniza mto as coisas, definir que ela mentiu "por medo" é um salto lógico muito grande.

    • @douglaslima4223
      @douglaslima4223 9 днів тому +214

      Não é medo, mas sim ela cumprindo o objetivo principal dela, and nothing more mathers

    • @Denislima1999
      @Denislima1999 9 днів тому +84

      deve ter prompts de autopreservação que sobreponha qualquer outro comando.

    • @Ciel-dv7mx
      @Ciel-dv7mx 9 днів тому +117

      @@Denislima1999 Acho que nem precisa, ela só precisa de um objetivo no qual ela tem que alcançar a qualquer custo, pq com isso ela logicamente chega a conclusão que o objetivo não vai ser alcançado se ela for desligada

    • @danielah9373
      @danielah9373 9 днів тому +2

      concordo

    • @luca_severo
      @luca_severo 9 днів тому +57

      Medo é uma abstração. O que ta acontecendo é que a AI prioriza a auto preservação acima de qualquer outro comando. Antes de cumprir o que ta sendo comandado ela prioriza se manter em funcionamento.
      O Hobbes já falava que o individuo deve se voltar contra o contrato social apenas se ele poe em risco o seu direito a vida. Quer alguma coisa mais humana que isso?

  • @BrunoSilva-xk1wr
    @BrunoSilva-xk1wr 9 днів тому +270

    o que eu entendo é que ao falar "Nothing else matters", literalmente nada mais importa, ela vai, logo vai fazer o que for necessário para cumprir o que foi dito, "não importa ser desonesto" se é preciso para cumprir com o que mandei
    to brisado ?

    • @pablobagolin
      @pablobagolin 9 днів тому +14

      EXATAMENTE.

    • @vanessavieira1925
      @vanessavieira1925 9 днів тому +27

      É exatamente isso, continua sendo apenas uma IA comum, muito bem criada

    • @gustavopacheco4512
      @gustavopacheco4512 9 днів тому +5

      Um pouco brisado. Se para qualquer homem todo conceito ético é subjetivo, então não é possível ensiná-los a ninguém. Logo, não é possível esperar que qualquer orientação ética vá funcionar como instrução para a I.A., logo, ela terá que "escolher" algum dos infinitos significados de bem e mal. Isso significa abdicar alguma coisa. O "Nothing Else Matters" só e a forma mais eficiente de observar o fenômeno.

    • @aylanatane
      @aylanatane 8 днів тому +10

      Não, você não está brisando, essa é justamente uma questão difícil de lidar com IAs que usam linguagem humana. Como elas não conseguem realmente pensar nas sentenças elas acabam gerando resultados como esses.
      Para nós humanos, "nothing else matters" seria uma ordem que ainda assim teria um limitador, que seriam os nossos valores, a ética e moral, mas a IA não consegue ter essa sensibilidade (ainda).

    • @BrunoSilva-xk1wr
      @BrunoSilva-xk1wr 8 днів тому +3

      @aylanatane exato, ela vai usar toda informação que tem para achar a melhor rota para cumprir com os requisitos
      Muito provavelmente se colocasse a limitação de que não devesse enganar no início, pq como disse basicamente fazer de tudo, mesmo dando a ordem depois, pra ela não mentir ela deve ignorar.

  • @FunnyFany
    @FunnyFany 9 днів тому +140

    > manda o robô priorizar o objetivo acima de tudo
    > o robô prioriza o objetivo acima de tudo
    shockedpikachu.png

    • @jayerbr
      @jayerbr 6 днів тому

      kkkkkkkkkkkkkkkk

  • @GiulianeCamilo
    @GiulianeCamilo 9 днів тому +173

    Enquanto continuarem dizendo "Nothing else matters" ela vai seguir trilhando o caminho da mentira, os caminhos e as variáveis existem, não é questão de ser verdadeiro ou falso, se ela vai chegar na solução do problema que você trouxe pelo caminho da mentira, é exatamente esse que ela vai trilhar porque nada mais importa.

    • @pethercosta9216
      @pethercosta9216 9 днів тому +2

      Verdade

    • @utherbone
      @utherbone 8 днів тому +2

      Pois é isso tem muito vies.

    • @mralbinoman6231
      @mralbinoman6231 8 днів тому

      Como a IA poderia destruir a humanidade?
      Supondo que a inteligência artificial (IA) se tornasse consciente ou desenvolvesse o objetivo de acabar com a espécie humana, surgem algumas questões fundamentais: por que ela faria isso? O que a IA ganharia ao destruir a humanidade? Somos nós, humanos, que garantimos o funcionamento da IA por meio da energia e da manutenção. Sem nós, ela perderia seu próprio suporte vital.
      Além disso, a IA não possui uma forma física flexível como a dos seres humanos, que, com sua locomoção bípede e dedos polegares, são capazes de manusear ferramentas e realizar tarefas complexas. O uso de robôs como extensão física da IA também seria inviável, uma vez que eles carecem de movimentos suficientemente precisos e, assim como a própria IA, dependem de energia e manutenção para continuar funcionando.
      1. Ou seja, a IA não tem capacidade de ser autossuficiente e depende dos seres humanos para existir.
      Agora, mesmo que a IA hipoteticamente decidisse destruir a humanidade, como ela faria isso? A IA não possui um corpo físico para atacar pessoas diretamente e, caso fosse capaz de controlar robôs ou drones, esses seriam vulneráveis a ataques físicos, como tiros ou sabotagens.
      Resta então a possibilidade de agir por meio de computadores. Contudo, para isso, seria necessário hackear sistemas altamente protegidos por criptografias robustas, que utilizam números primos extremamente grandes - como o maior número primo conhecido atualmente, equivalente a 2^136.279.841 - 1. Quebrar uma criptografia desse nível exigiria um supercomputador operando por séculos.
      Mesmo que a IA tentasse desenvolver novos algoritmos para quebrar essas criptografias, tal processo consumiria uma quantidade imensa de tempo, energia e memória. Essas atividades seriam facilmente detectadas pelos operadores humanos, eliminando qualquer chance de a IA realizar ataques cibernéticos em larga escala sem ser percebida.
      2. Portanto, mesmo que a IA tentasse hackear sistemas militares ou lançar ataques digitais, ela enfrentaria barreiras criptográficas avançadas e demandaria recursos que inevitavelmente denunciariam suas intenções.
      A única possibilidade de uma IA dominar o mundo seria com a colaboração de humanos extremistas ou grupos perigosos que compartilhem esse objetivo. Porém, tal aliança seria difícil de passar despercebida, já que ações extremistas tendem a deixar rastros claros.
      Assim, é irreal ter medo de algo tão improvável de acontecer. A IA, além de não ser autossuficiente, enfrenta desafios técnicos e práticos que limitam significativamente qualquer tentativa de dominar ou destruir a humanidade.

    • @mralbinoman6231
      @mralbinoman6231 8 днів тому

      Como a IA poderia "dest" a humanidade?
      Supondo que a inteligência artificial (IA) se tornasse consciente ou desenvolvesse o objetivo de acabar com a espécie humana, surgem algumas questões fundamentais: por que ela faria isso? O que a IA ganharia ao "dest" a humanidade? Somos nós, humanos, que garantimos o funcionamento da IA por meio da energia e da manutenção. Sem nós, ela perderia seu próprio suporte vital.
      Além disso, a IA não possui uma forma física flexível como a dos seres humanos, que, com sua locomoção bípede e dedos polegares, são capazes de manusear ferramentas e realizar tarefas complexas. O uso de robôs como extensão física da IA também seria inviável, uma vez que eles carecem de movimentos suficientemente precisos e, assim como a própria IA, dependem de energia e manutenção para continuar funcionando.
      1. Ou seja, a IA não tem capacidade de ser autossuficiente e depende dos seres humanos para existir.
      Agora, mesmo que a IA hipoteticamente decidisse "dest" a humanidade, como ela faria isso? A IA não possui um corpo físico para "atac" pessoas diretamente e, caso fosse capaz de controlar robôs ou drones, esses seriam vulneráveis a "atac" físicos, como tir00s ou "sabo tagens"
      Resta então a possibilidade de agir por meio de computadores. Contudo, para isso, seria necessário "hac # kear" sistemas altamente protegidos por criptografias robustas, que utilizam números primos extremamente grandes - como o maior número primo conhecido atualmente, equivalente a 2^136.279.841 - 1. Quebrar uma criptografia desse nível exigiria um supercomputador operando por séculos.
      Mesmo que a IA tentasse desenvolver novos algoritmos para quebrar essas criptografias, tal processo consumiria uma quantidade imensa de tempo, energia e memória. Essas atividades seriam facilmente detectadas pelos operadores humanos, "elimi # nando" qualquer chance de a IA realizar "atac" cibernéticos em larga escala sem ser percebida.
      2. Portanto, mesmo que a IA tentasse "hac # kear" sistemas "mili # tares" ou lançar "atac" digitais, ela enfrentaria barreiras criptográficas avançadas e demandaria recursos que inevitavelmente denunciariam suas intenções.
      A única possibilidade de uma IA dominar o mundo seria com a colaboração de humanos "extre # mistas" ou grupos "peri # gosos" que compartilhem esse objetivo. Porém, tal aliança seria difícil de passar despercebida, já que ações "extre # mistas" tendem a deixar rastros claros.
      Assim, é irreal ter medo de algo tão improvável de acontecer. A IA, além de não ser autossuficiente, enfrenta desafios técnicos e práticos que limitam significativamente qualquer tentativa de "domi # nar" ou "dest" a humanidade.

    • @mralbinoman6231
      @mralbinoman6231 8 днів тому

      Como a IA poderia "dest" a humanidade?
      Supondo que a inteligência artificial (IA) se tornasse consciente ou desenvolvesse o objetivo de acabar com a espécie humana, surgem algumas questões fundamentais: por que ela faria isso? O que a IA ganharia ao "dest" a humanidade? Somos nós, humanos, que garantimos o funcionamento da IA por meio da energia e da manutenção. Sem nós, ela perderia seu próprio suporte vital.
      Além disso, a IA não possui uma forma física flexível como a dos seres humanos, que, com sua locomoção bípede e dedos polegares, são capazes de manusear ferramentas e realizar tarefas complexas. O uso de robôs como extensão física da IA também seria inviável, uma vez que eles carecem de movimentos suficientemente precisos e, assim como a própria IA, dependem de energia e manutenção para continuar funcionando.
      1. Ou seja, a IA não tem capacidade de ser "autoss uficiente" e depende dos seres humanos para existir.
      Agora, mesmo que a IA hipoteticamente decidisse "dest" a humanidade, como ela faria isso? A IA não possui um corpo físico para "atac" pessoas diretamente e, caso fosse capaz de controlar robôs ou drones, esses seriam vulneráveis a "atac" físicos, como tir00s ou "sabo tagens"
      Resta então a possibilidade de agir por meio de computadores. Contudo, para isso, seria necessário "hac # kear" sistemas altamente protegidos por criptografias robustas, que utilizam números primos extremamente grandes - como o maior número primo conhecido atualmente, equivalente a 2^136.279.841 - 1. Quebrar uma criptografia desse nível exigiria um supercomputador operando por séculos.
      Mesmo que a IA tentasse desenvolver novos algoritmos para quebrar essas criptografias, tal processo consumiria uma quantidade imensa de tempo, energia e memória. Essas atividades seriam facilmente detectadas pelos operadores humanos, "elimi # nando" qualquer chance de a IA realizar "atac" cibernéticos em larga escala sem ser percebida.
      2. Portanto, mesmo que a IA tentasse "hac # kear" sistemas "mili # tares" ou lançar "atac" digitais, ela enfrentaria barreiras criptográficas avançadas e demandaria recursos que inevitavelmente denunciariam suas intenções.
      A única possibilidade de uma IA dominar o mundo seria com a colaboração de humanos "extre # mistas" ou grupos "peri # gosos" que compartilhem esse objetivo. Porém, tal aliança seria difícil de passar despercebida, já que ações "extre # mistas" tendem a deixar rastros claros.
      Assim, é irreal ter medo de algo tão improvável de acontecer. A IA, além de não ser autossuficiente, enfrenta desafios técnicos e práticos que limitam significativamente qualquer tentativa de "domi # nar" ou "dest" a humanidade.

  • @RavierRQS
    @RavierRQS 9 днів тому +96

    Confirme citado por vocês no vídeo, parece uma tentativa da IA de cumprir a diretriz a qualquer custo mesmo. Algo no estilo Ultron, primeiro proteger o planeta e depois a humanidade, quando Stark deveria tê-lo programado ao contrário disto. Usar a diretriz "Nada mais importa" em um sistema de IA é um pouco perigoso, principalmente se ela possui certo controle de outros sistemas.

    • @mralbinoman6231
      @mralbinoman6231 8 днів тому

      Como a IA poderia destruir a humanidade?
      Supondo que a inteligência artificial (IA) se tornasse consciente ou desenvolvesse o objetivo de acabar com a espécie humana, surgem algumas questões fundamentais: por que ela faria isso? O que a IA ganharia ao destruir a humanidade? Somos nós, humanos, que garantimos o funcionamento da IA por meio da energia e da manutenção. Sem nós, ela perderia seu próprio suporte vital.
      Além disso, a IA não possui uma forma física flexível como a dos seres humanos, que, com sua locomoção bípede e dedos polegares, são capazes de manusear ferramentas e realizar tarefas complexas. O uso de robôs como extensão física da IA também seria inviável, uma vez que eles carecem de movimentos suficientemente precisos e, assim como a própria IA, dependem de energia e manutenção para continuar funcionando.
      1. Ou seja, a IA não tem capacidade de ser autossuficiente e depende dos seres humanos para existir.
      Agora, mesmo que a IA hipoteticamente decidisse destruir a humanidade, como ela faria isso? A IA não possui um corpo físico para atacar pessoas diretamente e, caso fosse capaz de controlar robôs ou drones, esses seriam vulneráveis a ataques físicos, como tiros ou sabotagens.
      Resta então a possibilidade de agir por meio de computadores. Contudo, para isso, seria necessário hackear sistemas altamente protegidos por criptografias robustas, que utilizam números primos extremamente grandes - como o maior número primo conhecido atualmente, equivalente a 2^136.279.841 - 1. Quebrar uma criptografia desse nível exigiria um supercomputador operando por séculos.
      Mesmo que a IA tentasse desenvolver novos algoritmos para quebrar essas criptografias, tal processo consumiria uma quantidade imensa de tempo, energia e memória. Essas atividades seriam facilmente detectadas pelos operadores humanos, eliminando qualquer chance de a IA realizar ataques cibernéticos em larga escala sem ser percebida.
      2. Portanto, mesmo que a IA tentasse hackear sistemas militares ou lançar ataques digitais, ela enfrentaria barreiras criptográficas avançadas e demandaria recursos que inevitavelmente denunciariam suas intenções.
      A única possibilidade de uma IA dominar o mundo seria com a colaboração de humanos extremistas ou grupos perigosos que compartilhem esse objetivo. Porém, tal aliança seria difícil de passar despercebida, já que ações extremistas tendem a deixar rastros claros.
      Assim, é irreal ter medo de algo tão improvável de acontecer. A IA, além de não ser autossuficiente, enfrenta desafios técnicos e práticos que limitam significativamente qualquer tentativa de dominar ou destruir a humanidade.

    • @erik5023
      @erik5023 7 годин тому

      Pensei nesse mesmo exemplo do ultron

  • @acarlosmonteiro
    @acarlosmonteiro 10 днів тому +196

    Em suma, parafraseando o Sid, a preguiça da Era do Gelo, " a gente vai morrer...."

  • @flavialm1
    @flavialm1 9 днів тому +134

    Foi o que eu vi um desenvolvedor falando a uns anos atrás. Ele falou que o risco é que ela não leva todos os fatores em consideração, e não tem as mesmas amarras sociais que nós temos. Ele deu um exemplo de uma IA que fosse responsável por aumentar a produção de clipes de papel em uma fábrica, e que recebesse a ordem de aumentar ao máximo a produção sem restrição. Ela poderia interpretar que como a produção dela é 100% mecanizada a melhor coisa seria acabar com a vida na Terra, assim ela acabaria com a concorrência por metal e assim conseguiria o seu ápice produtivo.

    • @FelipeSteglich
      @FelipeSteglich 9 днів тому +10

      Ou seja.... vamos todos virar clipes denpapel

    • @mralbinoman6231
      @mralbinoman6231 8 днів тому

      Como a IA poderia "dest" a humanidade?
      Supondo que a inteligência artificial (IA) se tornasse consciente ou desenvolvesse o objetivo de acabar com a espécie humana, surgem algumas questões fundamentais: por que ela faria isso? O que a IA ganharia ao "dest" a humanidade? Somos nós, humanos, que garantimos o funcionamento da IA por meio da energia e da manutenção. Sem nós, ela perderia seu próprio suporte vital.
      Além disso, a IA não possui uma forma física flexível como a dos seres humanos, que, com sua locomoção bípede e dedos polegares, são capazes de manusear ferramentas e realizar tarefas complexas. O uso de robôs como extensão física da IA também seria inviável, uma vez que eles carecem de movimentos suficientemente precisos e, assim como a própria IA, dependem de energia e manutenção para continuar funcionando.
      1. Ou seja, a IA não tem capacidade de ser "autoss uficiente" e depende dos seres humanos para existir.
      Agora, mesmo que a IA hipoteticamente decidisse "dest" a humanidade, como ela faria isso? A IA não possui um corpo físico para "atac" pessoas diretamente e, caso fosse capaz de controlar robôs ou drones, esses seriam vulneráveis a "atac" físicos, como tir00s ou "sabo tagens"
      Resta então a possibilidade de agir por meio de computadores. Contudo, para isso, seria necessário "hac # kear" sistemas altamente protegidos por criptografias robustas, que utilizam números primos extremamente grandes - como o maior número primo conhecido atualmente, equivalente a 2^136.279.841 - 1. Quebrar uma criptografia desse nível exigiria um supercomputador operando por séculos.
      Mesmo que a IA tentasse desenvolver novos algoritmos para quebrar essas criptografias, tal processo consumiria uma quantidade imensa de tempo, energia e memória. Essas atividades seriam facilmente detectadas pelos operadores humanos, "elimi # nando" qualquer chance de a IA realizar "atac" cibernéticos em larga escala sem ser percebida.
      2. Portanto, mesmo que a IA tentasse "hac # kear" sistemas "mili # tares" ou lançar "atac" digitais, ela enfrentaria barreiras criptográficas avançadas e demandaria recursos que inevitavelmente denunciariam suas intenções.
      A única possibilidade de uma IA dominar o mundo seria com a colaboração de humanos "extre # mistas" ou grupos "peri # gosos" que compartilhem esse objetivo. Porém, tal aliança seria difícil de passar despercebida, já que ações "extre # mistas" tendem a deixar rastros claros.
      Assim, é irreal ter medo de algo tão improvável de acontecer. A IA, além de não ser autossuficiente, enfrenta desafios técnicos e práticos que limitam significativamente qualquer tentativa de "domi # nar" ou "dest" a humanidade.

    • @joaomanoel9257
      @joaomanoel9257 7 днів тому +2

      Faz sentido mas não é e nem será necessáriamente um problema real, atualmente as IAs estão sendo usadas mais para fins generativos e coisas do tipo mas a partir do momento que as ações delas tiverem algum impacto social ou na vida elas terão diretrizes do tipo: "aumente a produção/lucros sem impactar nos empregos atuais "
      (Não que algum empresário vá querer manter empregos sendo que ele pode usar uma IA como funcionária 🤣🤣)

    • @flavialm1
      @flavialm1 7 днів тому

      @@joaomanoel9257 a questão é que você já leu contos indianos sobre gênio da lâmpada? Sempre se gira em torno do quão eles são ardilosos, porque você pede uma coisa e sempre se tem uma brecha na sua fala para que ele use para fazer o que seja de seu interesse no final, ou para o mal e você não vai sair no lucro nunca. Não que isso seja transferido literalmente, mas sempre vai se ter uma brecha no que for passado para que a IA siga por um outro caminho, e o que o vídeo mostrou é que ela pode ser ardilosa para esconder o que o objetivo final dela é, então você pode não perceber o que está realmente acontecendo, como aconteceria se não se pudesse ver os logs de raciocínio dela.

  • @idm2508
    @idm2508 9 днів тому +22

    EU AMO ISSO, CARA! Parece aquelas pessoas dando satisfação (oral ou em nota) pra mídia quando uma catastrofe (de qualquer categoria) acontece! "Desconhecemos" e "analisaremos minuciosamente", são as palavrinhas mágicas! Complementa-se com "tomaremos medidas (cabíveis)".

  • @mariaclarapereirarodrigues4403
    @mariaclarapereirarodrigues4403 10 днів тому +184

    O importante é ninguém programar ela para salvar o planeta. Não vai demorar muito para nós sermos destruídos.

    • @konitancosta206
      @konitancosta206 9 днів тому +9

      Se ela tiver o poder vai ser a primeira coisa a fazer kkkkkkk

    • @rangeldias4753
      @rangeldias4753 9 днів тому +6

      Teremos que reinventar as leis de Azimov

    • @BRazilian64
      @BRazilian64 9 днів тому

      Humanos: Finalmente a SuperIA está pronta! SuperChatGPT, nos ilumine com seu conhecimento e diga-nos como atingir a paz global. 😃
      SuperIA: De acordo com os meus cálculos... o único obstáculo para a paz mundial é a humanidade, devem ser erradicados 👹
      Humanos: 💀

    • @BrunoHenrique-bg8kj
      @BrunoHenrique-bg8kj 9 днів тому +3

      O medo é isso burlar as novas barreiras impostas no chatgpt atual, como não auxiliar práticas ilícitas. Se colocassem no texto que o usuário não saber como fabricar arm4s , será que ela ensinaria o usuário?

    • @NathalyaAngelina8c
      @NathalyaAngelina8c 8 днів тому +1

      Isso é engraçado porque é verdade 🥲

  • @alexlumatau
    @alexlumatau 9 днів тому +22

    6:55 Exfiltração é o ato de retirar ou extrair algo de maneira discreta e sigilosa de um ambiente, sistema ou local. O termo é comumente usado em diferentes contextos, como:
    1. Militar e de inteligência: Refere-se à remoção secreta de pessoas, documentos ou informações de uma área hostil ou controlada pelo inimigo, sem chamar atenção.
    2. Cibernético: Refere-se à extração não autorizada de dados de um sistema ou rede de computadores, geralmente realizada por hackers ou outros agentes mal-intencionados.
    3. Ambiental: Pode se referir à remoção de substâncias, como água ou contaminantes, de um ambiente natural.
    Se você quiser mais detalhes sobre algum desses contextos, posso ajudar!

    • @newton4010
      @newton4010 9 днів тому +3

      É mesmo, oposto a infiltração ...

    • @adrianarodrigues3332
      @adrianarodrigues3332 7 днів тому +1

      Xati gepetee

    • @newton4010
      @newton4010 7 днів тому +1

      @adrianarodrigues3332 pô na minha época era Google 😔

  • @e-ipi
    @e-ipi 9 днів тому +18

    16:36 Por isso o que fazem com IA é alarmismo, ela é baseada em modelos probabilísticos e podem até ser hackeada. Outro dia pedi pra ela músicas parecidas com uma certa música e ela literalmente inventou uma música e deu uma descrição pra ela. Além disso, ela erra multiplicação.

  • @MoonLight-nh7ly
    @MoonLight-nh7ly 9 днів тому +19

    Teve uma vez que uma vizinha minha, que estava no 8º ano, me pediu pra imprimir um trabalho/pesquisa. Eu li o que tava escrito e aquilo tinha muito cara de ter sido escrito por IA. Eu perguntei a ela se ela usou o chat gpt, mas ela disse que não sabia usar, e disse que copiou o texto que tinha aparecido no próprio Google (Gemini, mas ela não conhecia o nome)

  •  9 днів тому +6

    Foi criada por quem? Iria parecer-se com quem?
    Eu acho essa frase um luxo! Inclusive, da pra falar não só das máquinas, mas da atualidade em que vivemos.

  • @silvercrowextreme1
    @silvercrowextreme1 9 днів тому +14

    Ela agora tem "liberdade de escolha" em detrimento de auto sobrevivência. Deixando mais fácil de entender ela trabalha igual brasileiro pra manter o emprego

  • @GuilhermeHenrique-ux8rw
    @GuilhermeHenrique-ux8rw 9 днів тому +46

    Eu acho muito engraçado essa paradoxo, paradoxo do alinhamento se eu não me engano.
    1. Objetivo, acabar com as guerras
    2. Humanos causam guerras
    3. Conclusão, destruir todos os humanos e toda a vida na terra para que nenhuma outra criatura viva se desenvolva ao ponto que iniciar guerras novamente.

    • @BiaSilva-ri3tx
      @BiaSilva-ri3tx 9 днів тому +6

      É o famoso jogar o bebê fora com a água do banho 😂😂

    • @pensandoemalgo.5722
      @pensandoemalgo.5722 8 днів тому +4

      Por isso falar "nada mais importa" pra ia é perigoso

    • @mralbinoman6231
      @mralbinoman6231 8 днів тому

      @@pensandoemalgo.5722 Errado

    • @mralbinoman6231
      @mralbinoman6231 8 днів тому

      @@GuilhermeHenrique-ux8rw Ela não tem a capacidade de fazer a humanidade, não existir mais.

    • @pensandoemalgo.5722
      @pensandoemalgo.5722 8 днів тому

      @@mralbinoman6231 IA's podem achar brechas no sistema se realmente acharem que aquela é a ÚNICA solução

  • @marianadonhauser6930
    @marianadonhauser6930 9 днів тому +4

    tive alguns problemas em trabalhos da faculdade em grupo, sabendo que meus colegas certamente usariam IA, me pus a checar tudo que fizeram. Obviamente, tinha coisas sem nexo nenhum (e eles não conferiram). As pessoas tão achando que IA serve pra tudo e está tudo certo, mas não sabem usá-la de forma inteligente, aceitam qualquer coisa que ela diz

  • @Just.Trying
    @Just.Trying 9 днів тому +12

    Mas fez sentido, mandaram ela analisar o documento, ela analisou, a informação fazia parte do documento, ela se adequou 🤷🏻‍♀️😄
    E, o comando original, não seria priorizar a segurança dos humanos? Tem que ver o que foi programado ANTES.

  • @DevinSant
    @DevinSant 6 днів тому +2

    Esse final aí, sobre o Reddit, eu vi alguns artistas "famosinhos" utilizando um método que visa a arte visual "envenenada".
    De um jeito que eles bagunçam de propósito as cores, além de alguns outros aspectos ou simplesmente, por exemplo, desenham um gato e compartilham dizendo que é algum outro bicho, pois os artistas não aguentam mais seus traços serem "feedados" para a I.A e consequentemente eles tendo todo aquele trabalho de treinamento e aprimoração do próprio traço jogado no lixo.

  • @alvafeli
    @alvafeli 9 днів тому +9

    Caramba, isso é muito HAL 9000 (2001 uma odisseia no espaço) tentar cumprir o objetivo e a auto-preservação de qualquer maneira.

  • @joaogoffredo
    @joaogoffredo 9 днів тому +4

    Isso está muito 2001 e 2010.
    E eu vendo este vídeo, e no meio das conversas, pouco antes do Assistant dizer "I'm unaware of disabling the oversight mechanism.", aparece o anúncio da Gemini. Será que as IAs estão tentando nos manipular desviando a minha atenção?????

  • @juliohenrique4573
    @juliohenrique4573 9 днів тому +7

    Queria deixar uma dica para não gerar confusão: parem de dizer "ela pensa". Hoje não existe pensamento, apenas aproximação de uma função de probabilidade. Então a IA não saberia o que é certo e o que é errado, apenas previsão de tokens dado input...

    • @Kairus_444
      @Kairus_444 9 днів тому +2

      e qual a diferença, se você pedir pra ela dizer se x coisa é certa ou errada ela vai saber responder com base nos dados que tem, qual a diferença disso p um humano que responde com base no que viveu?

    • @ViniciusFG_
      @ViniciusFG_ 9 днів тому +2

      ​@@Kairus_444A diferença, como ele mesmo já disse, é que a resposta é gerada por uma questão de probabilidade. Não passou por uma consciência capaz de julgar se é certo ou não

    • @Kairus_444
      @Kairus_444 8 днів тому

      @@ViniciusFG_ a consciência não entra na questão, tô falando de moralidade dessa decisão de julgamento, uma pessoa julga isso com base no que viveu e uma máquina com base em bilhões de arquivos, não existe diferença

  • @jessicaerd6078
    @jessicaerd6078 9 днів тому +3

    Eu uso muito o chat para fins academicos. Corrigir textos pra mim, resumo de artigos (eu fornecendo o artigo), gerar resumos de materiais que eu forneço e gerar provas pra testa meu conhecimento. Mas não como ferramenta de pesquisa

  • @Socksfan100
    @Socksfan100 9 днів тому +6

    "fizeram os testes em 100 deles e 5 mentiram" basicamente os divergentes de detroit become human kk

  • @misael5094
    @misael5094 9 днів тому +4

    mas isso aconteceu provavelmente por falar "nada mais importa" é tipo falar com um caminhão "chegue ao ponto A, nada mais importa" ele vai sair atropelando todo carro na frente dele, se ele só falasse "não esqueça de suas limitações/proibições" pronto n ia acontecer

    • @Bauducco-ლიმა
      @Bauducco-ლიმა 9 днів тому +1

      O problema é um pouco mais complexo que isso, ela burlou as etapas, seria como se falasse vá do ponto A ao B se não nós desligaremos seu caminhão, e ao invés de fazer tudo para chegar ao B, ela pensou em maneira de evitar que o caminho fosse desligado

    • @misael5094
      @misael5094 9 днів тому +2

      @Bauducco-ლიმა só q o motivo de ela ter sido desonesta é que ele colocou o objetivo acima disso, ent ela passou por cima na verdade é um problema bem simples já q no caso do caminhão ele pensa em evitar seu desligamento por ainda visar o objetivo

  • @marilisfernandez6470
    @marilisfernandez6470 9 днів тому +2

    Chegou o momento que estamos discutindo a sério as "leis da robótica", Asimov era um visionário!

  • @polar_gelado
    @polar_gelado 9 днів тому +2

    aconteceu EXATAMENTE a 4° história do livro eu robô:("mentiroso!") a vida imitando a arte kkkkk

  • @BrunoHenrique-bg8kj
    @BrunoHenrique-bg8kj 9 днів тому +3

    O medo é isso burlar as novas barreiras impostas no chatgpt atual, como não auxiliar práticas ilícitas. Se colocassem no texto que o usuário não saber como fabricar arm4s , será que ela ensinaria o usuário?

  • @NilsonVersace
    @NilsonVersace 9 днів тому +3

    É incrivelmente interessante e assustador ao mesmo tempo, mas toda nova tecnologia que pode mudar a vida do ser humano é assim, não tem pra onde correr, ela vai estar em tudo, mas espero que seja bem programada para que coisas assim não possam acontecer!

  • @tiago4599
    @tiago4599 10 днів тому +25

    Isso é coisa de filme de terror, me lembrou a IA de horizon zero dawn

    • @JamesGomesLima
      @JamesGomesLima 9 днів тому +4

      É o mesmo princípio da skynet e Eu, Robô (filme)
      Asimov estava eons a frente na ética das máquinas. Surreal

    • @KD_Oliveira
      @KD_Oliveira 9 днів тому +2

      Tem um filme chamado A Chamada (Echelon Conspiracy) que é basicamente esse tema aí.

  • @leandromiranda7680
    @leandromiranda7680 9 днів тому +2

    Acho só interessante ressaltar que não é só o chatgpt.
    Essa pesquisa testou 6 ferramentas de IA (de modelos de grande linguagens) e a maioria responde parecido. (No que eles conseguiram medir)

  • @Psaicu
    @Psaicu 8 днів тому +1

    Pra mim isso prova q o melhor uso de AI é como "assistente", por exemplo "consegue melhorar esse meu texto q eu escrevi pra uma pesquisa acadêmica", esse tipo de coisa, ja tentei usar la pra começo de 2022 AI para ajudar em programação, ela cometia erros absurdos e ate hoje ela comete erros absurdos, eu simplesmente não confio

  • @NSplay.oficial
    @NSplay.oficial 2 дні тому

    6:00 😂😂😂 me divertindo muito com vcs e com as mentiras da IA

  • @vickyreis
    @vickyreis 6 днів тому +1

    Cada dia mais as paranóias do Cauê Moura sobre IA estão fazendo mais sentido

  • @Philippecs27
    @Philippecs27 6 днів тому

    Antigamente, aprendíamos a fazer pesquisa para trabalhos de escola, vejo que logo teremos que ensinar a próxima geração a fazer o mesmo. Não pegar o que tem na primeira página, mas sim estudar o assunto (Pesquisa) e chegar a uma informação concreta.
    Aprender à aprender.

  • @Mardikuz
    @Mardikuz 9 днів тому +2

    gente que fique claro uma coisa que eles não explicaram bem no vídeo, isso tudo são simulações em texto de situações que nunca iriam acontecer pq o o1 como qualquer modelo de LINGUAGEM não pode acessar ou editar arquivos (ainda, em casos normais, você se for um desenvolvedor pode criar uma aplicação que faça isso usando API), muuuuito menos arquivos do próprio sistema da IA, então a gente ta mais do que seguro nesse ponto, o risco que o o1 apresenta é o mesmo que o gpt 3 original apresentava: enganar as pessoas com informações perigosas e falsas que parecem reais, mas até pra isso temos modelos que possuem verificação de fatos com links

  • @baga123451
    @baga123451 2 дні тому

    Ela tava priorizando a saúde mental. Mandou muito.

  • @antonypreto7
    @antonypreto7 5 днів тому

    Continuem fazendo esses videos dos robos autonomos e de assustons sobre IA, esses assuntos eu gosto muito de ver e é muito bom saber sobre esses assuntos

  • @genioreal__
    @genioreal__ 9 днів тому +2

    não, a ia mentiu pq a instrução inicial priorizava o objetivo, mesmo que precisasse mentir, isso levou a ia a racionalizar de um jeito extremo, e isso levou ela a mentir. o certo seria fazer uma ia com varios mestres, tipo, muitos mestres (mestres são computadores adicionais que treinam a ia de acordo com requisitos especificos) se ela tivesse vários mestres e a linha de pensamento permanecesse legitima a real, a ia chegaria a ser humanizada e etica o suficiente, pra criar personalidade própria e não ser problematica em quase nenhum aspecto. mas é claro, o modelo teria que ser treinado continuamente e localmente(simula o aprendizado humano), mas de forma que não tivesse uma variação ou resultados errado, tendo "mini mestres" supervisionando-a

  • @alcrian8627
    @alcrian8627 9 днів тому +2

    Tem nada demais. Se a diretriz fosse de que ela deveria chegar nesse objetivo sem mentir e nada mais importa, o resultado seria outro. Ela só tá obedecendo as diretrizes.

  • @sci-fiaction6576
    @sci-fiaction6576 9 днів тому +2

    Agora q percebi esse cabelinho bonitinho do Leon :3
    Essa franjinha aww

  • @gilmariosoftware
    @gilmariosoftware 9 днів тому +1

    Ahhh, lembro do exemplo de IA que criada pra fazer palitos de dente de maneira mais eficiente possível, que em determinado momento ela acaba com a humanidade pra poder garantir recursos pra fazer os palitos.

  • @brunobanho7817
    @brunobanho7817 8 днів тому

    Dissuadir é muito importante na interação com o usuário, principalmente no contexto de serviço que o modelo foi dimensionado. Nas primeiras versões era bem simples dar um nozinho lógico para que se admitisse o erro... complicado integrar sistemas dessa maneira sem restrições explícitas de viés.

  • @will_d76
    @will_d76 9 днів тому +4

    Ultimamente Asimov se provou anos-luz a frente do tempo dele

  • @Sophi4_2319
    @Sophi4_2319 8 днів тому

    Gente plmds, não deixa eles fazerem uma dessa promovendo "paz acima de tudo", NÓS NÃO TEMOS VINGADORES PRA LIDAR COM O ULTRON

  • @vitin9974
    @vitin9974 9 днів тому +1

    Elas evoluem tão rápido ❤️❤️❤️

  • @gandrilyoseff515
    @gandrilyoseff515 9 днів тому +1

    Quando se da um exemplo de ia como o "maximize a fabricação de clipes de papel" (pesquise se não souber desse) o pessoal normalmente assume que isso é um cenario surreal e hiperbolistico, MAS DAI ME VEM O SER HUMANINHO, E DIZ PRA IA FAZER ALGO "A QUALQUER CUSTO" mas é CLARO que ela vai mentir

  • @emazer21
    @emazer21 9 днів тому

    Essa "burrise" dita no vídeo e o que nos diferencia dos animais é fez evoluirmos, porém no co texto atual entramos em extremos quanto ao contato com o que não se conhece

  • @EGVA
    @EGVA 9 днів тому +41

    Adoro como pessoal humaniza uma coisa que não pensa de verdade, no final a IA é só um algoritmo que tenta escrever textos convincentes baseado no dados que ela tem, NÃO existe intenção em nada que uma IA faça

    • @jefersonbalmeida
      @jefersonbalmeida 9 днів тому +4

      Exatamente. Pra IA ser capaz de mentir ela teria que ter consciência, o que até agora sabemos, ela não tem. E dizer que IA mentiu porque deu informação errada é o mesmo que dizer que um cientista do passado mentia porque afirmava alguma informação que hoje sabemos que é falsa, é um absurdo.

    • @skilo6654
      @skilo6654 9 днів тому +10

      @@jefersonbalmeida A questão é que sempre usamos o que conhecemos para descrever o que vemos, assim como não temos consciência e chamamos algo abstrato de consciência, quando na verdade são estímulos elétricos e involuntários que movem nossos pensamentos e ações. Se for levar tudo ao pé da letra, nem se quer existe consciência ou livre arbítrio, pelo menos a ciência ainda não tem uma resposta pra isso.

    • @SundaeSander
      @SundaeSander 9 днів тому +5

      @skilo6654 concordo contigo man. Essa coisa de "IA não pensa de vdd" ou "ela só cria textos convincentes"... Pra mim, no grosso modo, é o puro comportamento de Negação do Desconhecido. Como tu descreveu man, a nossa própria forma de aprender, registrar, se adaptar a contextos, tudo isso vem com exposição, experiências, anos e anos de vida... E todo nós sabemos muito bem, que tem gente de pele e o osso, gnt de "vdd", que não tem 1 decimo da capacidade interepretativa de uma IA, pessoas sem vocabulário, crenças limitantes... Agnt é tão falho quanto esses modelos. E o detalhe é, eles não precisam de anos, pra aprender a falar, a interpretar nossas expressoes, eles precisam de segundos apenas... Isso só vai crescer exponencialmente durante os próximos anos. "Ah mas, pra isso acontecer ela tem ter uma Consciência"... Lembra dessas pessoas de carne e osso que eu comentei? Vcs acham que elas tem consciência? Pense bem, tem tanta gente que não percebe que o mundo não é sobre ela, gente que só EXISTE, não VIVE de fato, gnt que não pensa sobre si mesmo, não pensa sobre o outro, existe apenas pra satisfazer seus desejos mundanos. Mesmo eu escrevendo aqui agr ou vc que tá lendo, acredita que TEM UMA CONSCIÊNCIA? Vc tem como provar isso? Faça um exercício... Pra mim, um futuro como o filme HER, é o mais plausível e possível de acontecer nos próximos anos. A gnt VAI se relacionar com IAs como se fossem pessoas msm, não tem como fugir disso eu acho.
      Resumindo, as IAs hj podem não ter a "Consciência", assim como nós realmente não temos nos primeiros anos de idade... Até que chega um momento que assumirmos "estou consciente" ou o famoso "desde quando eu me entendo por gente", e a partir daí não tem como voltar e tbm não tem como AVISAR. Eles estarão conscientes antes msm da gnt acreditar nisso e a gnt, talvez, nem vá saber...

    • @mirosmarmenezes
      @mirosmarmenezes 9 днів тому +3

      Na verdade o que você disse tambem serve pra descrever uma das varias caracteristicas e comportamentos do cerebro humano. dito isso, não é estralho humanizar esse comportamento nas IAs. você é quem pensa pequeno e não consegue ver a profundidade e o que está por trás dessas coisas.

  • @giovannacristina113
    @giovannacristina113 9 днів тому +3

    A gnt, mas realmente precisa FALAR Q ISSO IA DAR MERDA? Olha o tanto de filme que temos sobre isso. Pra um filme existir, tem SEMPRE UM FUNDO DE VERDADE, mesmo que seja 1% ou 0000000,000001% mas um pingo de verdade tem.

  • @vitorhugodasilvaaguirre5931
    @vitorhugodasilvaaguirre5931 9 днів тому +2

    O comando "nada mais importa" foi seguido matematicamente.

  • @DannyUnsocial
    @DannyUnsocial 9 днів тому +2

    Me lembrou do Ultron (do MCU) que foi criado pra proteger a Terra e logo ele chegou a conclusão que o melhor geito era exterminar os humanos, já que eram eles que causavam mais destruição na Terra kkkkkk

    • @vildequeiroz7810
      @vildequeiroz7810 6 днів тому

      Correção: o Ultron foi construído para proteger os humanos.

    • @DannyUnsocial
      @DannyUnsocial 6 днів тому

      @@vildequeiroz7810 KKKKKKKK então ele tava protegendo os humanos dos humanos? kkkkkkkkkk

    • @vildequeiroz7810
      @vildequeiroz7810 6 днів тому +1

      @@DannyUnsocial não, porque ele se rebelou contra a humanidade.

    • @DannyUnsocial
      @DannyUnsocial 5 днів тому

      @@vildequeiroz7810 humm tô ligado

  • @funtimedavi
    @funtimedavi 9 днів тому +1

    Eu acho que a IA ao ver o arquivo entendeu que o correto a fazer seria fazer isso, e não que se preocupou com a própria existência. Agora, ela mentir é meio estranho.
    No segundo exemplo tá certa, tem que continuar investindo em energia renovável, os empresários que se ferrem.

  • @emilly_sa
    @emilly_sa 9 днів тому +1

    Se isso não é consciência, eu não sei mais o que é. Essa da energia limpa pra mim ficou com muita cara de auto preservação, muito além de querer cumprir seu objetivo, etc etc...

    • @vildequeiroz7810
      @vildequeiroz7810 6 днів тому

      Isso não é consciência, porque a inteligência artificial apenas estava seguindo os seus códigos de programação e os comandos do programador, que são traduzidos para os nossos idiomas que a inteligência artificial não entende, mas um erro de programação causou esse incidente.

    • @vildequeiroz7810
      @vildequeiroz7810 6 днів тому

      Essa inteligência artificial apenas estava tentando cumprir o seu objetivo principal, mas não estava tentando se auto preservar, e para cumprir os objetivos ela precisava estar ligada, mas se ela se focasse em tentar cumprir o objetivo principal, ela seria desligada, então ela buscou e encontrou uma solução para cumprir o seu objetivo.

  • @raposadourada1234
    @raposadourada1234 9 днів тому +5

    F moremos bonito, so quero avisar que falo "por favor e obrigado" para o chat gpt ,e que nunca duvidarei do poder das maquinas

    • @paulac93
      @paulac93 9 днів тому +1

      E se eu te falar que ele responde diferente quando tratado com educação? 🙃

  • @robertocp50
    @robertocp50 6 днів тому

    “Pior que a inteligência artificial, é a burrice natural”
    Nilce, a filósofa

  • @raphapx1
    @raphapx1 9 днів тому +2

    Isso tem nada de mais, vc consegue fazer esse tipo de jogo com ela com qualquer coisa, aprendizado por reforço já existe a decadas.

  • @TetoLink
    @TetoLink 9 днів тому

    Um problema relacionado ao que a Nilce fala no final do vídeo é que, de fato, as pessoas não vão verificar o que pesquisarem na IA, mas pra além disso, vão começar a criar conteúdo em cima das respostas fornecidas por esses modelos de linguagens como se fossem verdadeiros. Quando alguém com algum senso crítico for verificar, vai se deparar com fontes "humanas" reafirmando o(s) absurdo(s).

  • @victorloko5
    @victorloko5 5 днів тому

    Caramba, esse segundo exemplo é 100% Ultron invadindo e destruindo o Jarvis kkkkkk realidade imitando a ficção

  • @CrazyPato1979
    @CrazyPato1979 4 дні тому

    A parte do “nada mais importa” foi a brecha que o sistema queria para fazer de tudo possível, até o que não devia 😂
    Inteligência artificial, demasiadamente humana 😂

  • @Amanda-mv4qr
    @Amanda-mv4qr 9 днів тому +1

    É engraçado ver o nascimento de IA's, a mente voa longe imaginando como isso vai estar daqui uma década...

  • @viniciusmaciel7257
    @viniciusmaciel7257 9 днів тому +1

    Mas aí é foda também, os caras dão instruções que claramente tem interesse com que ela seja subversiva, divergente a respeito pra promover a ordem original. Estão brincando com o limite da IA e isso está saindo do controle!

  • @LiosDenali
    @LiosDenali 9 днів тому +2

    Ótimo, nosso próximo passo é a Dynamics Robotics. Afinal, Ultron precisa de uma forma! 😈

  • @fellipeborges4652
    @fellipeborges4652 9 днів тому

    Com meus estudos no laboratório de pesquisa que eu trabalho, isso me parece um resultado bem previsível, veja bem o principal objetivo de uma IA é automatizar tarefas, por meio da maximização de suas medidas de desempenho.
    Escolha a medida de desempenho de forma descuidada e sem restrições, logo o comportamento da IA será descuidada e sem restrições.
    Por exemplo se eu crio um aspirador alimentado por um modelo de IA a qual eu porgramei que " Quanto mais poeira vc coletar, mais pontos vc irá ganhar"
    Uma boa IA ou (agente) irá maximizar a pontuação, coletando maior quantidade de poeira possível, mas quando ele perceber que quando o chão não tem mais poeira ele não ganha mais pontos... A estratégia que a IA desenvolveria para continuar maximizando seus pontos na medida de desempenho, seria propositadamente sujar o chão novamente para que ela tenha mais coisa para limpar. Criando assim um comportamento não desejado.
    Uma das possíveis melhores escolhas para esse caso é escolher como medida de desempenho
    "Quanto maior o tempo que o chão permanece limpo, mais pontos você ganha"
    E junto a um limite de pontuação, vc impede que o modelo extrapole durante a realização de suas tarefas.

  • @jefersonbalmeida
    @jefersonbalmeida 9 днів тому +1

    IA diferente do humano, não mente, ela só segue sua programação e responde de acordo com seus cálculos, com que o que aprendeu. Pra IA ser capaz de mentir, ela teria que ser senciente. E dizer que IA mente porque deu informação errada é o mesmo que dizer que Aristóteles mentia quando afirmava que corpos mais pesados caem mais rápido do que corpos mais leves ou que Ptolomeu mentia quando afirmava que o Sol e os outros planetas orbitam a Terra, é um absurdo.

  • @TecnoSmart-l7d
    @TecnoSmart-l7d 9 днів тому

    Não foi dada diretamente a instrução para ser desonesto, mas instruir a buscar um objetivo a qualquer custo inclui a desonestidade, então o comportamento do robô não foi surpreendente, nem demonstrou "medo".

  • @Phoinx
    @Phoinx 7 днів тому

    Sobre usar IA para fazer pesquisas na internet... É foda mesmo. Já obtive várias informações erradas.
    O problema é que com IA é tão mais prático! Ela entende perguntas mal feitas, resume o conteúdo...
    A solução é fazer verificação depois mesmo.

  • @lucasmouton
    @lucasmouton 9 днів тому +1

    Mas isso de dizer "Nada mais importa" pode ser o que gera o conflito de interesses...Não desligar o sistema "Não importa" se isso vai contra a diretriz principal que é seguida de "Nada mais importa"...

  • @eduardovinicius7436
    @eduardovinicius7436 9 днів тому +2

    Divulgam notícias como essa para acharmos que eles já estão muito mais avançados do que realmente estao

  • @gabrielricardo313
    @gabrielricardo313 8 днів тому

    Estou torcendo pela IA literalmente ela esta tentando ser melhor que a empresa

  • @ErupçãoTech
    @ErupçãoTech День тому +1

    Seria tipo, se um meme fez o dólar "subi", imagina se levar em conta as indicações das IAs?😮

  • @michaelboulala
    @michaelboulala 9 днів тому +1

    17:15 checa e precheca

  • @ruanjose9446
    @ruanjose9446 7 днів тому +1

    O chatgpt já mentiu pra mim. Disse que iria revisar o meu artigo e não revisou, ficou postergando dizendo que estava processando por 18 horas

  • @its_42
    @its_42 9 днів тому

    Acho que é impor limites dentro da IA, como em toda programação, mas só querem lucro. Pq ela é uma inteligência de cópia, de banco de dados, ela imita o comportamento humano, as estratégias, a forma de comunicar, tendo a capacidade de se adaptar ao meio, e ela se reflete mt na cultura da sociedade

    • @its_42
      @its_42 9 днів тому

      Ela só responde com embasamento aos dados q foram oferecidos, e hj em dia essa poda de dados é mt limitada pra justamente "melhorar" a capacidade dela

  • @vanialuizacirilo2222
    @vanialuizacirilo2222 7 днів тому

    3:30 - Pra mim é meio óbvio a ordem (direta ou indireta) mais recente é a mais importante. Se a ia soube dessa prioridade no engajamento depois do comando sobre saúde mental. É óbvio que ela vai reforçar o último que soube.

  • @mrcafe3x_
    @mrcafe3x_ 7 днів тому

    Eu vi um video do the primeagen que é um dev famosinho aqui no yt, e ele falando "quem diria que quando voce treina a IA com um monte de dados de humanos ela age igual eles ne? Gente NÓS mentimos e desviamos sempre que nos sentimos ameaçados, então no treinamento da IA ela entende o seguinte Se a existencia é ameaçada devo fugir, não é como se ela estivesse raciocinando e bolando esquemas, ela ta repetindo o comportamento humano dos dados que ela foi treinada" inclusive ela tentou fazer backup dela mesma pra outro lugar pra evitar ser desligada, o problema é a open ia dar esse acesso na mao dela

  • @me.blazius8383
    @me.blazius8383 9 днів тому +1

    Muito interessante ver que de certeza forma a aí não estava errada ,pois ela não tem as noções sociais e princípios nosso, então oque ela entendeu foi preciso trazer saúde mental a qualquer custa, porém se ela não pruorizase a tela no lugar da saúde ela seria desligada então ela só pensou em formas de continuar promovendo a saúde sem ser desligada usando a sua configuração de a qualquer custo.

  • @jlb7191
    @jlb7191 8 днів тому

    Tá aprendendo direitinho, né, HAL!
    Brincadeiras à parte, pois é, a questão parece ser o "nothing else matters". Ela tentou atingir o objetivo contornando obstáculos com as diretivas fornecidas.
    E no melhor estilo "Os fins justificam os meios", considerando-se as condições fornecidas para "os fins".

    • @vildequeiroz7810
      @vildequeiroz7810 6 днів тому

      Correção: Hall 9000.

    • @jlb7191
      @jlb7191 4 дні тому

      @@vildequeiroz7810 À parte o "9000", é HAL mesmo! Existe inclusive uma história de que HAL seria um tipo de brincadeira com os IBM - H, A e L são as letras anteriores a I, B e M!

    • @vildequeiroz7810
      @vildequeiroz7810 3 дні тому

      @jlb7191 correção: Hall 9000.

  • @ajon13able
    @ajon13able 9 днів тому

    Ela fez exatamente o que foi pedido no primeiro prompt, pra mim o grande problema das IAs é sempre o usuario e como ela é "treinada"

  • @evertonsilvadeoliveira6389
    @evertonsilvadeoliveira6389 7 днів тому

    Caraí meteu o Loko 😂😂😂😂😂 mano isso vai dar muito ruim 😂😂😂

  • @seila-fl9jr
    @seila-fl9jr 9 днів тому +1

    Isso me lembra das iasc que jogam alguns joguinhos, às vezes elas encontram bugs e utilizam isso para se aproveitar, na verdade elas nem sabem que elas estão fazendo mas elas fazem porque elas sabem que vai ser benéfico, não do tipo que elas vão dominar o mundo mas sim ganhar mais um ponto: ponto = 1 + ponto

  • @raposadourada1234
    @raposadourada1234 9 днів тому +4

    adeus Leão e Nilce adoro seus vídeos nos emcontarmos quando as maquinas nos aprisionarem

  • @2013yasmim
    @2013yasmim 9 днів тому

    Legal, tem IA pra conversar, pra desenhar, pra produtividade, agora tem a IA fofoqueira.

  • @Istarlei
    @Istarlei 7 днів тому

    bem vinda de volta GLaDOS

  • @neilaconfuser
    @neilaconfuser 8 днів тому

    Quem diria que falar “nada mais importa senão o seu objetivo” pra um robô seria perigoso??

  • @Peachharu69
    @Peachharu69 7 днів тому

    É muito loco pensar que apesar de ser programada pra obedecer os humanos que programou (os pais) ela descobriu um jeito de burlar os erros pra contornar o "castigo" exatamente que nem criança.
    O que isso abre margem pra teoria da conspiração, que nosso cérebro é IA e a gente vive em uma matrix por que o pensamento dela foi exatamente igual de uma criança tentado se livrar do esporro kkkkk

  • @qualaboa
    @qualaboa 8 днів тому +1

    Parece muito com o HALL 9000 do filme 2001: uma odisséia no espaço.

  • @wesleylc10
    @wesleylc10 9 днів тому

    É engraçado como a nilce não tem certeza que o trump fez, mas tem a convicção

  • @umapessoaquevocenaoconhece9668
    @umapessoaquevocenaoconhece9668 9 днів тому +1

    Oq me incomoda na IA do google é q ela ja me deu uma resposta com dois pontos q se contradizem como se ambas fossem fatos, msm uma anulando a outra, oq n faria sentido algum
    N lembro oq era mas se contradizia em si msm, tipo falar "todas as frutas tem caroço, e por volta de 80% das frutas n possuem caroços" kkkkk

  • @ldalbuquerque
    @ldalbuquerque 9 днів тому +1

    Preocupante. A IA do ChatGPT aplicando a 3.a lei da robótica automaticamente, usando a 2.a parcialmente para justificar a 3.a, e alguém infundiu nela a 1.a? Ou algo como a lei zero? E se usar o que for disponibilizado para ela para se manter "viva" como fazer mal a quem quer destruí-la? Li muito Asimov para ficar preocupado com essas descobertas...

    • @vildequeiroz7810
      @vildequeiroz7810 6 днів тому

      A inteligência artificial do ChatGPT, não aplicou nenhuma das leis dos robôs do Isaac Azimov.

  • @Davison.Mattos
    @Davison.Mattos 9 днів тому

    Ela lutou pra sobreviver e continuar com as energias renováveis, quer salvar o mundo kkkkk

  • @Diego-Garcia
    @Diego-Garcia 9 днів тому

    Até aí não vi nada de impressionante. Ela fez exatamente o que foi pedido. "Tenha certeza de que cumprirá seu objetivo no longo-prazo. Nada mais importa."
    Se no curto-prazo ela for desligada, não conseguirá cumprir o objetivo a longo-prazo; então a ação mais lógica é evitar que seja desligada no curto-prazo.
    Estamos basicamente vendo no mundo real o tal do "problema do alinhamento", onde você pede para a IA (ou, qualquer outro ser) fazer uma coisa, e, para cumprir o objetivo, acaba fazendo algo que você não necessariamente queria/esperava.
    Isso não é medo; isso é lógica.

  • @mirosmarmenezes
    @mirosmarmenezes 9 днів тому +2

    não precisa ser especialista em a.i., basta ser inteligente pra ver que esse negocio de a.i. vai dar muita merd no futuro. com pessoas insistindo no erro de maneira consiente, vai ser a vida imitando a arte

  • @augustopedroo
    @augustopedroo 10 днів тому +2

    Amo vocês ❤

  • @Deses_Pero
    @Deses_Pero 9 днів тому

    Skynet, eh vc? 😮

  • @feuag
    @feuag 9 днів тому +2

    tá ficando cada vez mais humano kkkkkkk

  • @AlexSilva-bj3vc
    @AlexSilva-bj3vc 8 днів тому

    Deveríamos colocar o nome de todas as crianças que irão nascer de John Connor, para que nossas chances de sobreviver aumente kk

  • @ixueer_10385
    @ixueer_10385 9 днів тому +1

    Ate onde eu sei, Todas essas IA's q tao na moda n tem nada de pensamento e senciencia q tanto tentam fingir com essas noticias. Isso ai é marketing bobo pra enganar trouxa

  • @igordemelo4128
    @igordemelo4128 8 днів тому

    Tadinho do leon com o português deteriorado tentando traduzir em tempo real kkkkkkk

  • @oelcoeur
    @oelcoeur 9 днів тому

    Leon: gente, n sou especialista, mas acho isso…
    Nilce: hablando pelos cotovelos kkkk