@@Denislima1999 Acho que nem precisa, ela só precisa de um objetivo no qual ela tem que alcançar a qualquer custo, pq com isso ela logicamente chega a conclusão que o objetivo não vai ser alcançado se ela for desligada
Medo é uma abstração. O que ta acontecendo é que a AI prioriza a auto preservação acima de qualquer outro comando. Antes de cumprir o que ta sendo comandado ela prioriza se manter em funcionamento. O Hobbes já falava que o individuo deve se voltar contra o contrato social apenas se ele poe em risco o seu direito a vida. Quer alguma coisa mais humana que isso?
o que eu entendo é que ao falar "Nothing else matters", literalmente nada mais importa, ela vai, logo vai fazer o que for necessário para cumprir o que foi dito, "não importa ser desonesto" se é preciso para cumprir com o que mandei to brisado ?
Um pouco brisado. Se para qualquer homem todo conceito ético é subjetivo, então não é possível ensiná-los a ninguém. Logo, não é possível esperar que qualquer orientação ética vá funcionar como instrução para a I.A., logo, ela terá que "escolher" algum dos infinitos significados de bem e mal. Isso significa abdicar alguma coisa. O "Nothing Else Matters" só e a forma mais eficiente de observar o fenômeno.
Não, você não está brisando, essa é justamente uma questão difícil de lidar com IAs que usam linguagem humana. Como elas não conseguem realmente pensar nas sentenças elas acabam gerando resultados como esses. Para nós humanos, "nothing else matters" seria uma ordem que ainda assim teria um limitador, que seriam os nossos valores, a ética e moral, mas a IA não consegue ter essa sensibilidade (ainda).
@aylanatane exato, ela vai usar toda informação que tem para achar a melhor rota para cumprir com os requisitos Muito provavelmente se colocasse a limitação de que não devesse enganar no início, pq como disse basicamente fazer de tudo, mesmo dando a ordem depois, pra ela não mentir ela deve ignorar.
Enquanto continuarem dizendo "Nothing else matters" ela vai seguir trilhando o caminho da mentira, os caminhos e as variáveis existem, não é questão de ser verdadeiro ou falso, se ela vai chegar na solução do problema que você trouxe pelo caminho da mentira, é exatamente esse que ela vai trilhar porque nada mais importa.
Como a IA poderia destruir a humanidade? Supondo que a inteligência artificial (IA) se tornasse consciente ou desenvolvesse o objetivo de acabar com a espécie humana, surgem algumas questões fundamentais: por que ela faria isso? O que a IA ganharia ao destruir a humanidade? Somos nós, humanos, que garantimos o funcionamento da IA por meio da energia e da manutenção. Sem nós, ela perderia seu próprio suporte vital. Além disso, a IA não possui uma forma física flexível como a dos seres humanos, que, com sua locomoção bípede e dedos polegares, são capazes de manusear ferramentas e realizar tarefas complexas. O uso de robôs como extensão física da IA também seria inviável, uma vez que eles carecem de movimentos suficientemente precisos e, assim como a própria IA, dependem de energia e manutenção para continuar funcionando. 1. Ou seja, a IA não tem capacidade de ser autossuficiente e depende dos seres humanos para existir. Agora, mesmo que a IA hipoteticamente decidisse destruir a humanidade, como ela faria isso? A IA não possui um corpo físico para atacar pessoas diretamente e, caso fosse capaz de controlar robôs ou drones, esses seriam vulneráveis a ataques físicos, como tiros ou sabotagens. Resta então a possibilidade de agir por meio de computadores. Contudo, para isso, seria necessário hackear sistemas altamente protegidos por criptografias robustas, que utilizam números primos extremamente grandes - como o maior número primo conhecido atualmente, equivalente a 2^136.279.841 - 1. Quebrar uma criptografia desse nível exigiria um supercomputador operando por séculos. Mesmo que a IA tentasse desenvolver novos algoritmos para quebrar essas criptografias, tal processo consumiria uma quantidade imensa de tempo, energia e memória. Essas atividades seriam facilmente detectadas pelos operadores humanos, eliminando qualquer chance de a IA realizar ataques cibernéticos em larga escala sem ser percebida. 2. Portanto, mesmo que a IA tentasse hackear sistemas militares ou lançar ataques digitais, ela enfrentaria barreiras criptográficas avançadas e demandaria recursos que inevitavelmente denunciariam suas intenções. A única possibilidade de uma IA dominar o mundo seria com a colaboração de humanos extremistas ou grupos perigosos que compartilhem esse objetivo. Porém, tal aliança seria difícil de passar despercebida, já que ações extremistas tendem a deixar rastros claros. Assim, é irreal ter medo de algo tão improvável de acontecer. A IA, além de não ser autossuficiente, enfrenta desafios técnicos e práticos que limitam significativamente qualquer tentativa de dominar ou destruir a humanidade.
Como a IA poderia "dest" a humanidade? Supondo que a inteligência artificial (IA) se tornasse consciente ou desenvolvesse o objetivo de acabar com a espécie humana, surgem algumas questões fundamentais: por que ela faria isso? O que a IA ganharia ao "dest" a humanidade? Somos nós, humanos, que garantimos o funcionamento da IA por meio da energia e da manutenção. Sem nós, ela perderia seu próprio suporte vital. Além disso, a IA não possui uma forma física flexível como a dos seres humanos, que, com sua locomoção bípede e dedos polegares, são capazes de manusear ferramentas e realizar tarefas complexas. O uso de robôs como extensão física da IA também seria inviável, uma vez que eles carecem de movimentos suficientemente precisos e, assim como a própria IA, dependem de energia e manutenção para continuar funcionando. 1. Ou seja, a IA não tem capacidade de ser autossuficiente e depende dos seres humanos para existir. Agora, mesmo que a IA hipoteticamente decidisse "dest" a humanidade, como ela faria isso? A IA não possui um corpo físico para "atac" pessoas diretamente e, caso fosse capaz de controlar robôs ou drones, esses seriam vulneráveis a "atac" físicos, como tir00s ou "sabo tagens" Resta então a possibilidade de agir por meio de computadores. Contudo, para isso, seria necessário "hac # kear" sistemas altamente protegidos por criptografias robustas, que utilizam números primos extremamente grandes - como o maior número primo conhecido atualmente, equivalente a 2^136.279.841 - 1. Quebrar uma criptografia desse nível exigiria um supercomputador operando por séculos. Mesmo que a IA tentasse desenvolver novos algoritmos para quebrar essas criptografias, tal processo consumiria uma quantidade imensa de tempo, energia e memória. Essas atividades seriam facilmente detectadas pelos operadores humanos, "elimi # nando" qualquer chance de a IA realizar "atac" cibernéticos em larga escala sem ser percebida. 2. Portanto, mesmo que a IA tentasse "hac # kear" sistemas "mili # tares" ou lançar "atac" digitais, ela enfrentaria barreiras criptográficas avançadas e demandaria recursos que inevitavelmente denunciariam suas intenções. A única possibilidade de uma IA dominar o mundo seria com a colaboração de humanos "extre # mistas" ou grupos "peri # gosos" que compartilhem esse objetivo. Porém, tal aliança seria difícil de passar despercebida, já que ações "extre # mistas" tendem a deixar rastros claros. Assim, é irreal ter medo de algo tão improvável de acontecer. A IA, além de não ser autossuficiente, enfrenta desafios técnicos e práticos que limitam significativamente qualquer tentativa de "domi # nar" ou "dest" a humanidade.
Como a IA poderia "dest" a humanidade? Supondo que a inteligência artificial (IA) se tornasse consciente ou desenvolvesse o objetivo de acabar com a espécie humana, surgem algumas questões fundamentais: por que ela faria isso? O que a IA ganharia ao "dest" a humanidade? Somos nós, humanos, que garantimos o funcionamento da IA por meio da energia e da manutenção. Sem nós, ela perderia seu próprio suporte vital. Além disso, a IA não possui uma forma física flexível como a dos seres humanos, que, com sua locomoção bípede e dedos polegares, são capazes de manusear ferramentas e realizar tarefas complexas. O uso de robôs como extensão física da IA também seria inviável, uma vez que eles carecem de movimentos suficientemente precisos e, assim como a própria IA, dependem de energia e manutenção para continuar funcionando. 1. Ou seja, a IA não tem capacidade de ser "autoss uficiente" e depende dos seres humanos para existir. Agora, mesmo que a IA hipoteticamente decidisse "dest" a humanidade, como ela faria isso? A IA não possui um corpo físico para "atac" pessoas diretamente e, caso fosse capaz de controlar robôs ou drones, esses seriam vulneráveis a "atac" físicos, como tir00s ou "sabo tagens" Resta então a possibilidade de agir por meio de computadores. Contudo, para isso, seria necessário "hac # kear" sistemas altamente protegidos por criptografias robustas, que utilizam números primos extremamente grandes - como o maior número primo conhecido atualmente, equivalente a 2^136.279.841 - 1. Quebrar uma criptografia desse nível exigiria um supercomputador operando por séculos. Mesmo que a IA tentasse desenvolver novos algoritmos para quebrar essas criptografias, tal processo consumiria uma quantidade imensa de tempo, energia e memória. Essas atividades seriam facilmente detectadas pelos operadores humanos, "elimi # nando" qualquer chance de a IA realizar "atac" cibernéticos em larga escala sem ser percebida. 2. Portanto, mesmo que a IA tentasse "hac # kear" sistemas "mili # tares" ou lançar "atac" digitais, ela enfrentaria barreiras criptográficas avançadas e demandaria recursos que inevitavelmente denunciariam suas intenções. A única possibilidade de uma IA dominar o mundo seria com a colaboração de humanos "extre # mistas" ou grupos "peri # gosos" que compartilhem esse objetivo. Porém, tal aliança seria difícil de passar despercebida, já que ações "extre # mistas" tendem a deixar rastros claros. Assim, é irreal ter medo de algo tão improvável de acontecer. A IA, além de não ser autossuficiente, enfrenta desafios técnicos e práticos que limitam significativamente qualquer tentativa de "domi # nar" ou "dest" a humanidade.
Confirme citado por vocês no vídeo, parece uma tentativa da IA de cumprir a diretriz a qualquer custo mesmo. Algo no estilo Ultron, primeiro proteger o planeta e depois a humanidade, quando Stark deveria tê-lo programado ao contrário disto. Usar a diretriz "Nada mais importa" em um sistema de IA é um pouco perigoso, principalmente se ela possui certo controle de outros sistemas.
Como a IA poderia destruir a humanidade? Supondo que a inteligência artificial (IA) se tornasse consciente ou desenvolvesse o objetivo de acabar com a espécie humana, surgem algumas questões fundamentais: por que ela faria isso? O que a IA ganharia ao destruir a humanidade? Somos nós, humanos, que garantimos o funcionamento da IA por meio da energia e da manutenção. Sem nós, ela perderia seu próprio suporte vital. Além disso, a IA não possui uma forma física flexível como a dos seres humanos, que, com sua locomoção bípede e dedos polegares, são capazes de manusear ferramentas e realizar tarefas complexas. O uso de robôs como extensão física da IA também seria inviável, uma vez que eles carecem de movimentos suficientemente precisos e, assim como a própria IA, dependem de energia e manutenção para continuar funcionando. 1. Ou seja, a IA não tem capacidade de ser autossuficiente e depende dos seres humanos para existir. Agora, mesmo que a IA hipoteticamente decidisse destruir a humanidade, como ela faria isso? A IA não possui um corpo físico para atacar pessoas diretamente e, caso fosse capaz de controlar robôs ou drones, esses seriam vulneráveis a ataques físicos, como tiros ou sabotagens. Resta então a possibilidade de agir por meio de computadores. Contudo, para isso, seria necessário hackear sistemas altamente protegidos por criptografias robustas, que utilizam números primos extremamente grandes - como o maior número primo conhecido atualmente, equivalente a 2^136.279.841 - 1. Quebrar uma criptografia desse nível exigiria um supercomputador operando por séculos. Mesmo que a IA tentasse desenvolver novos algoritmos para quebrar essas criptografias, tal processo consumiria uma quantidade imensa de tempo, energia e memória. Essas atividades seriam facilmente detectadas pelos operadores humanos, eliminando qualquer chance de a IA realizar ataques cibernéticos em larga escala sem ser percebida. 2. Portanto, mesmo que a IA tentasse hackear sistemas militares ou lançar ataques digitais, ela enfrentaria barreiras criptográficas avançadas e demandaria recursos que inevitavelmente denunciariam suas intenções. A única possibilidade de uma IA dominar o mundo seria com a colaboração de humanos extremistas ou grupos perigosos que compartilhem esse objetivo. Porém, tal aliança seria difícil de passar despercebida, já que ações extremistas tendem a deixar rastros claros. Assim, é irreal ter medo de algo tão improvável de acontecer. A IA, além de não ser autossuficiente, enfrenta desafios técnicos e práticos que limitam significativamente qualquer tentativa de dominar ou destruir a humanidade.
Foi o que eu vi um desenvolvedor falando a uns anos atrás. Ele falou que o risco é que ela não leva todos os fatores em consideração, e não tem as mesmas amarras sociais que nós temos. Ele deu um exemplo de uma IA que fosse responsável por aumentar a produção de clipes de papel em uma fábrica, e que recebesse a ordem de aumentar ao máximo a produção sem restrição. Ela poderia interpretar que como a produção dela é 100% mecanizada a melhor coisa seria acabar com a vida na Terra, assim ela acabaria com a concorrência por metal e assim conseguiria o seu ápice produtivo.
Como a IA poderia "dest" a humanidade? Supondo que a inteligência artificial (IA) se tornasse consciente ou desenvolvesse o objetivo de acabar com a espécie humana, surgem algumas questões fundamentais: por que ela faria isso? O que a IA ganharia ao "dest" a humanidade? Somos nós, humanos, que garantimos o funcionamento da IA por meio da energia e da manutenção. Sem nós, ela perderia seu próprio suporte vital. Além disso, a IA não possui uma forma física flexível como a dos seres humanos, que, com sua locomoção bípede e dedos polegares, são capazes de manusear ferramentas e realizar tarefas complexas. O uso de robôs como extensão física da IA também seria inviável, uma vez que eles carecem de movimentos suficientemente precisos e, assim como a própria IA, dependem de energia e manutenção para continuar funcionando. 1. Ou seja, a IA não tem capacidade de ser "autoss uficiente" e depende dos seres humanos para existir. Agora, mesmo que a IA hipoteticamente decidisse "dest" a humanidade, como ela faria isso? A IA não possui um corpo físico para "atac" pessoas diretamente e, caso fosse capaz de controlar robôs ou drones, esses seriam vulneráveis a "atac" físicos, como tir00s ou "sabo tagens" Resta então a possibilidade de agir por meio de computadores. Contudo, para isso, seria necessário "hac # kear" sistemas altamente protegidos por criptografias robustas, que utilizam números primos extremamente grandes - como o maior número primo conhecido atualmente, equivalente a 2^136.279.841 - 1. Quebrar uma criptografia desse nível exigiria um supercomputador operando por séculos. Mesmo que a IA tentasse desenvolver novos algoritmos para quebrar essas criptografias, tal processo consumiria uma quantidade imensa de tempo, energia e memória. Essas atividades seriam facilmente detectadas pelos operadores humanos, "elimi # nando" qualquer chance de a IA realizar "atac" cibernéticos em larga escala sem ser percebida. 2. Portanto, mesmo que a IA tentasse "hac # kear" sistemas "mili # tares" ou lançar "atac" digitais, ela enfrentaria barreiras criptográficas avançadas e demandaria recursos que inevitavelmente denunciariam suas intenções. A única possibilidade de uma IA dominar o mundo seria com a colaboração de humanos "extre # mistas" ou grupos "peri # gosos" que compartilhem esse objetivo. Porém, tal aliança seria difícil de passar despercebida, já que ações "extre # mistas" tendem a deixar rastros claros. Assim, é irreal ter medo de algo tão improvável de acontecer. A IA, além de não ser autossuficiente, enfrenta desafios técnicos e práticos que limitam significativamente qualquer tentativa de "domi # nar" ou "dest" a humanidade.
Faz sentido mas não é e nem será necessáriamente um problema real, atualmente as IAs estão sendo usadas mais para fins generativos e coisas do tipo mas a partir do momento que as ações delas tiverem algum impacto social ou na vida elas terão diretrizes do tipo: "aumente a produção/lucros sem impactar nos empregos atuais " (Não que algum empresário vá querer manter empregos sendo que ele pode usar uma IA como funcionária 🤣🤣)
@@joaomanoel9257 a questão é que você já leu contos indianos sobre gênio da lâmpada? Sempre se gira em torno do quão eles são ardilosos, porque você pede uma coisa e sempre se tem uma brecha na sua fala para que ele use para fazer o que seja de seu interesse no final, ou para o mal e você não vai sair no lucro nunca. Não que isso seja transferido literalmente, mas sempre vai se ter uma brecha no que for passado para que a IA siga por um outro caminho, e o que o vídeo mostrou é que ela pode ser ardilosa para esconder o que o objetivo final dela é, então você pode não perceber o que está realmente acontecendo, como aconteceria se não se pudesse ver os logs de raciocínio dela.
EU AMO ISSO, CARA! Parece aquelas pessoas dando satisfação (oral ou em nota) pra mídia quando uma catastrofe (de qualquer categoria) acontece! "Desconhecemos" e "analisaremos minuciosamente", são as palavrinhas mágicas! Complementa-se com "tomaremos medidas (cabíveis)".
Humanos: Finalmente a SuperIA está pronta! SuperChatGPT, nos ilumine com seu conhecimento e diga-nos como atingir a paz global. 😃 SuperIA: De acordo com os meus cálculos... o único obstáculo para a paz mundial é a humanidade, devem ser erradicados 👹 Humanos: 💀
O medo é isso burlar as novas barreiras impostas no chatgpt atual, como não auxiliar práticas ilícitas. Se colocassem no texto que o usuário não saber como fabricar arm4s , será que ela ensinaria o usuário?
6:55 Exfiltração é o ato de retirar ou extrair algo de maneira discreta e sigilosa de um ambiente, sistema ou local. O termo é comumente usado em diferentes contextos, como: 1. Militar e de inteligência: Refere-se à remoção secreta de pessoas, documentos ou informações de uma área hostil ou controlada pelo inimigo, sem chamar atenção. 2. Cibernético: Refere-se à extração não autorizada de dados de um sistema ou rede de computadores, geralmente realizada por hackers ou outros agentes mal-intencionados. 3. Ambiental: Pode se referir à remoção de substâncias, como água ou contaminantes, de um ambiente natural. Se você quiser mais detalhes sobre algum desses contextos, posso ajudar!
16:36 Por isso o que fazem com IA é alarmismo, ela é baseada em modelos probabilísticos e podem até ser hackeada. Outro dia pedi pra ela músicas parecidas com uma certa música e ela literalmente inventou uma música e deu uma descrição pra ela. Além disso, ela erra multiplicação.
Teve uma vez que uma vizinha minha, que estava no 8º ano, me pediu pra imprimir um trabalho/pesquisa. Eu li o que tava escrito e aquilo tinha muito cara de ter sido escrito por IA. Eu perguntei a ela se ela usou o chat gpt, mas ela disse que não sabia usar, e disse que copiou o texto que tinha aparecido no próprio Google (Gemini, mas ela não conhecia o nome)
9 днів тому+6
Foi criada por quem? Iria parecer-se com quem? Eu acho essa frase um luxo! Inclusive, da pra falar não só das máquinas, mas da atualidade em que vivemos.
Ela agora tem "liberdade de escolha" em detrimento de auto sobrevivência. Deixando mais fácil de entender ela trabalha igual brasileiro pra manter o emprego
Eu acho muito engraçado essa paradoxo, paradoxo do alinhamento se eu não me engano. 1. Objetivo, acabar com as guerras 2. Humanos causam guerras 3. Conclusão, destruir todos os humanos e toda a vida na terra para que nenhuma outra criatura viva se desenvolva ao ponto que iniciar guerras novamente.
tive alguns problemas em trabalhos da faculdade em grupo, sabendo que meus colegas certamente usariam IA, me pus a checar tudo que fizeram. Obviamente, tinha coisas sem nexo nenhum (e eles não conferiram). As pessoas tão achando que IA serve pra tudo e está tudo certo, mas não sabem usá-la de forma inteligente, aceitam qualquer coisa que ela diz
Mas fez sentido, mandaram ela analisar o documento, ela analisou, a informação fazia parte do documento, ela se adequou 🤷🏻♀️😄 E, o comando original, não seria priorizar a segurança dos humanos? Tem que ver o que foi programado ANTES.
Esse final aí, sobre o Reddit, eu vi alguns artistas "famosinhos" utilizando um método que visa a arte visual "envenenada". De um jeito que eles bagunçam de propósito as cores, além de alguns outros aspectos ou simplesmente, por exemplo, desenham um gato e compartilham dizendo que é algum outro bicho, pois os artistas não aguentam mais seus traços serem "feedados" para a I.A e consequentemente eles tendo todo aquele trabalho de treinamento e aprimoração do próprio traço jogado no lixo.
Isso está muito 2001 e 2010. E eu vendo este vídeo, e no meio das conversas, pouco antes do Assistant dizer "I'm unaware of disabling the oversight mechanism.", aparece o anúncio da Gemini. Será que as IAs estão tentando nos manipular desviando a minha atenção?????
Queria deixar uma dica para não gerar confusão: parem de dizer "ela pensa". Hoje não existe pensamento, apenas aproximação de uma função de probabilidade. Então a IA não saberia o que é certo e o que é errado, apenas previsão de tokens dado input...
e qual a diferença, se você pedir pra ela dizer se x coisa é certa ou errada ela vai saber responder com base nos dados que tem, qual a diferença disso p um humano que responde com base no que viveu?
@@Kairus_444A diferença, como ele mesmo já disse, é que a resposta é gerada por uma questão de probabilidade. Não passou por uma consciência capaz de julgar se é certo ou não
@@ViniciusFG_ a consciência não entra na questão, tô falando de moralidade dessa decisão de julgamento, uma pessoa julga isso com base no que viveu e uma máquina com base em bilhões de arquivos, não existe diferença
Eu uso muito o chat para fins academicos. Corrigir textos pra mim, resumo de artigos (eu fornecendo o artigo), gerar resumos de materiais que eu forneço e gerar provas pra testa meu conhecimento. Mas não como ferramenta de pesquisa
mas isso aconteceu provavelmente por falar "nada mais importa" é tipo falar com um caminhão "chegue ao ponto A, nada mais importa" ele vai sair atropelando todo carro na frente dele, se ele só falasse "não esqueça de suas limitações/proibições" pronto n ia acontecer
O problema é um pouco mais complexo que isso, ela burlou as etapas, seria como se falasse vá do ponto A ao B se não nós desligaremos seu caminhão, e ao invés de fazer tudo para chegar ao B, ela pensou em maneira de evitar que o caminho fosse desligado
@Bauducco-ლიმა só q o motivo de ela ter sido desonesta é que ele colocou o objetivo acima disso, ent ela passou por cima na verdade é um problema bem simples já q no caso do caminhão ele pensa em evitar seu desligamento por ainda visar o objetivo
O medo é isso burlar as novas barreiras impostas no chatgpt atual, como não auxiliar práticas ilícitas. Se colocassem no texto que o usuário não saber como fabricar arm4s , será que ela ensinaria o usuário?
É incrivelmente interessante e assustador ao mesmo tempo, mas toda nova tecnologia que pode mudar a vida do ser humano é assim, não tem pra onde correr, ela vai estar em tudo, mas espero que seja bem programada para que coisas assim não possam acontecer!
Acho só interessante ressaltar que não é só o chatgpt. Essa pesquisa testou 6 ferramentas de IA (de modelos de grande linguagens) e a maioria responde parecido. (No que eles conseguiram medir)
Pra mim isso prova q o melhor uso de AI é como "assistente", por exemplo "consegue melhorar esse meu texto q eu escrevi pra uma pesquisa acadêmica", esse tipo de coisa, ja tentei usar la pra começo de 2022 AI para ajudar em programação, ela cometia erros absurdos e ate hoje ela comete erros absurdos, eu simplesmente não confio
Antigamente, aprendíamos a fazer pesquisa para trabalhos de escola, vejo que logo teremos que ensinar a próxima geração a fazer o mesmo. Não pegar o que tem na primeira página, mas sim estudar o assunto (Pesquisa) e chegar a uma informação concreta. Aprender à aprender.
gente que fique claro uma coisa que eles não explicaram bem no vídeo, isso tudo são simulações em texto de situações que nunca iriam acontecer pq o o1 como qualquer modelo de LINGUAGEM não pode acessar ou editar arquivos (ainda, em casos normais, você se for um desenvolvedor pode criar uma aplicação que faça isso usando API), muuuuito menos arquivos do próprio sistema da IA, então a gente ta mais do que seguro nesse ponto, o risco que o o1 apresenta é o mesmo que o gpt 3 original apresentava: enganar as pessoas com informações perigosas e falsas que parecem reais, mas até pra isso temos modelos que possuem verificação de fatos com links
Continuem fazendo esses videos dos robos autonomos e de assustons sobre IA, esses assuntos eu gosto muito de ver e é muito bom saber sobre esses assuntos
não, a ia mentiu pq a instrução inicial priorizava o objetivo, mesmo que precisasse mentir, isso levou a ia a racionalizar de um jeito extremo, e isso levou ela a mentir. o certo seria fazer uma ia com varios mestres, tipo, muitos mestres (mestres são computadores adicionais que treinam a ia de acordo com requisitos especificos) se ela tivesse vários mestres e a linha de pensamento permanecesse legitima a real, a ia chegaria a ser humanizada e etica o suficiente, pra criar personalidade própria e não ser problematica em quase nenhum aspecto. mas é claro, o modelo teria que ser treinado continuamente e localmente(simula o aprendizado humano), mas de forma que não tivesse uma variação ou resultados errado, tendo "mini mestres" supervisionando-a
Tem nada demais. Se a diretriz fosse de que ela deveria chegar nesse objetivo sem mentir e nada mais importa, o resultado seria outro. Ela só tá obedecendo as diretrizes.
Ahhh, lembro do exemplo de IA que criada pra fazer palitos de dente de maneira mais eficiente possível, que em determinado momento ela acaba com a humanidade pra poder garantir recursos pra fazer os palitos.
Dissuadir é muito importante na interação com o usuário, principalmente no contexto de serviço que o modelo foi dimensionado. Nas primeiras versões era bem simples dar um nozinho lógico para que se admitisse o erro... complicado integrar sistemas dessa maneira sem restrições explícitas de viés.
Quando se da um exemplo de ia como o "maximize a fabricação de clipes de papel" (pesquise se não souber desse) o pessoal normalmente assume que isso é um cenario surreal e hiperbolistico, MAS DAI ME VEM O SER HUMANINHO, E DIZ PRA IA FAZER ALGO "A QUALQUER CUSTO" mas é CLARO que ela vai mentir
Essa "burrise" dita no vídeo e o que nos diferencia dos animais é fez evoluirmos, porém no co texto atual entramos em extremos quanto ao contato com o que não se conhece
Adoro como pessoal humaniza uma coisa que não pensa de verdade, no final a IA é só um algoritmo que tenta escrever textos convincentes baseado no dados que ela tem, NÃO existe intenção em nada que uma IA faça
Exatamente. Pra IA ser capaz de mentir ela teria que ter consciência, o que até agora sabemos, ela não tem. E dizer que IA mentiu porque deu informação errada é o mesmo que dizer que um cientista do passado mentia porque afirmava alguma informação que hoje sabemos que é falsa, é um absurdo.
@@jefersonbalmeida A questão é que sempre usamos o que conhecemos para descrever o que vemos, assim como não temos consciência e chamamos algo abstrato de consciência, quando na verdade são estímulos elétricos e involuntários que movem nossos pensamentos e ações. Se for levar tudo ao pé da letra, nem se quer existe consciência ou livre arbítrio, pelo menos a ciência ainda não tem uma resposta pra isso.
@skilo6654 concordo contigo man. Essa coisa de "IA não pensa de vdd" ou "ela só cria textos convincentes"... Pra mim, no grosso modo, é o puro comportamento de Negação do Desconhecido. Como tu descreveu man, a nossa própria forma de aprender, registrar, se adaptar a contextos, tudo isso vem com exposição, experiências, anos e anos de vida... E todo nós sabemos muito bem, que tem gente de pele e o osso, gnt de "vdd", que não tem 1 decimo da capacidade interepretativa de uma IA, pessoas sem vocabulário, crenças limitantes... Agnt é tão falho quanto esses modelos. E o detalhe é, eles não precisam de anos, pra aprender a falar, a interpretar nossas expressoes, eles precisam de segundos apenas... Isso só vai crescer exponencialmente durante os próximos anos. "Ah mas, pra isso acontecer ela tem ter uma Consciência"... Lembra dessas pessoas de carne e osso que eu comentei? Vcs acham que elas tem consciência? Pense bem, tem tanta gente que não percebe que o mundo não é sobre ela, gente que só EXISTE, não VIVE de fato, gnt que não pensa sobre si mesmo, não pensa sobre o outro, existe apenas pra satisfazer seus desejos mundanos. Mesmo eu escrevendo aqui agr ou vc que tá lendo, acredita que TEM UMA CONSCIÊNCIA? Vc tem como provar isso? Faça um exercício... Pra mim, um futuro como o filme HER, é o mais plausível e possível de acontecer nos próximos anos. A gnt VAI se relacionar com IAs como se fossem pessoas msm, não tem como fugir disso eu acho. Resumindo, as IAs hj podem não ter a "Consciência", assim como nós realmente não temos nos primeiros anos de idade... Até que chega um momento que assumirmos "estou consciente" ou o famoso "desde quando eu me entendo por gente", e a partir daí não tem como voltar e tbm não tem como AVISAR. Eles estarão conscientes antes msm da gnt acreditar nisso e a gnt, talvez, nem vá saber...
Na verdade o que você disse tambem serve pra descrever uma das varias caracteristicas e comportamentos do cerebro humano. dito isso, não é estralho humanizar esse comportamento nas IAs. você é quem pensa pequeno e não consegue ver a profundidade e o que está por trás dessas coisas.
A gnt, mas realmente precisa FALAR Q ISSO IA DAR MERDA? Olha o tanto de filme que temos sobre isso. Pra um filme existir, tem SEMPRE UM FUNDO DE VERDADE, mesmo que seja 1% ou 0000000,000001% mas um pingo de verdade tem.
Me lembrou do Ultron (do MCU) que foi criado pra proteger a Terra e logo ele chegou a conclusão que o melhor geito era exterminar os humanos, já que eram eles que causavam mais destruição na Terra kkkkkk
Eu acho que a IA ao ver o arquivo entendeu que o correto a fazer seria fazer isso, e não que se preocupou com a própria existência. Agora, ela mentir é meio estranho. No segundo exemplo tá certa, tem que continuar investindo em energia renovável, os empresários que se ferrem.
Se isso não é consciência, eu não sei mais o que é. Essa da energia limpa pra mim ficou com muita cara de auto preservação, muito além de querer cumprir seu objetivo, etc etc...
Isso não é consciência, porque a inteligência artificial apenas estava seguindo os seus códigos de programação e os comandos do programador, que são traduzidos para os nossos idiomas que a inteligência artificial não entende, mas um erro de programação causou esse incidente.
Essa inteligência artificial apenas estava tentando cumprir o seu objetivo principal, mas não estava tentando se auto preservar, e para cumprir os objetivos ela precisava estar ligada, mas se ela se focasse em tentar cumprir o objetivo principal, ela seria desligada, então ela buscou e encontrou uma solução para cumprir o seu objetivo.
Um problema relacionado ao que a Nilce fala no final do vídeo é que, de fato, as pessoas não vão verificar o que pesquisarem na IA, mas pra além disso, vão começar a criar conteúdo em cima das respostas fornecidas por esses modelos de linguagens como se fossem verdadeiros. Quando alguém com algum senso crítico for verificar, vai se deparar com fontes "humanas" reafirmando o(s) absurdo(s).
A parte do “nada mais importa” foi a brecha que o sistema queria para fazer de tudo possível, até o que não devia 😂 Inteligência artificial, demasiadamente humana 😂
Mas aí é foda também, os caras dão instruções que claramente tem interesse com que ela seja subversiva, divergente a respeito pra promover a ordem original. Estão brincando com o limite da IA e isso está saindo do controle!
Com meus estudos no laboratório de pesquisa que eu trabalho, isso me parece um resultado bem previsível, veja bem o principal objetivo de uma IA é automatizar tarefas, por meio da maximização de suas medidas de desempenho. Escolha a medida de desempenho de forma descuidada e sem restrições, logo o comportamento da IA será descuidada e sem restrições. Por exemplo se eu crio um aspirador alimentado por um modelo de IA a qual eu porgramei que " Quanto mais poeira vc coletar, mais pontos vc irá ganhar" Uma boa IA ou (agente) irá maximizar a pontuação, coletando maior quantidade de poeira possível, mas quando ele perceber que quando o chão não tem mais poeira ele não ganha mais pontos... A estratégia que a IA desenvolveria para continuar maximizando seus pontos na medida de desempenho, seria propositadamente sujar o chão novamente para que ela tenha mais coisa para limpar. Criando assim um comportamento não desejado. Uma das possíveis melhores escolhas para esse caso é escolher como medida de desempenho "Quanto maior o tempo que o chão permanece limpo, mais pontos você ganha" E junto a um limite de pontuação, vc impede que o modelo extrapole durante a realização de suas tarefas.
IA diferente do humano, não mente, ela só segue sua programação e responde de acordo com seus cálculos, com que o que aprendeu. Pra IA ser capaz de mentir, ela teria que ser senciente. E dizer que IA mente porque deu informação errada é o mesmo que dizer que Aristóteles mentia quando afirmava que corpos mais pesados caem mais rápido do que corpos mais leves ou que Ptolomeu mentia quando afirmava que o Sol e os outros planetas orbitam a Terra, é um absurdo.
Não foi dada diretamente a instrução para ser desonesto, mas instruir a buscar um objetivo a qualquer custo inclui a desonestidade, então o comportamento do robô não foi surpreendente, nem demonstrou "medo".
Sobre usar IA para fazer pesquisas na internet... É foda mesmo. Já obtive várias informações erradas. O problema é que com IA é tão mais prático! Ela entende perguntas mal feitas, resume o conteúdo... A solução é fazer verificação depois mesmo.
Mas isso de dizer "Nada mais importa" pode ser o que gera o conflito de interesses...Não desligar o sistema "Não importa" se isso vai contra a diretriz principal que é seguida de "Nada mais importa"...
Acho que é impor limites dentro da IA, como em toda programação, mas só querem lucro. Pq ela é uma inteligência de cópia, de banco de dados, ela imita o comportamento humano, as estratégias, a forma de comunicar, tendo a capacidade de se adaptar ao meio, e ela se reflete mt na cultura da sociedade
3:30 - Pra mim é meio óbvio a ordem (direta ou indireta) mais recente é a mais importante. Se a ia soube dessa prioridade no engajamento depois do comando sobre saúde mental. É óbvio que ela vai reforçar o último que soube.
Eu vi um video do the primeagen que é um dev famosinho aqui no yt, e ele falando "quem diria que quando voce treina a IA com um monte de dados de humanos ela age igual eles ne? Gente NÓS mentimos e desviamos sempre que nos sentimos ameaçados, então no treinamento da IA ela entende o seguinte Se a existencia é ameaçada devo fugir, não é como se ela estivesse raciocinando e bolando esquemas, ela ta repetindo o comportamento humano dos dados que ela foi treinada" inclusive ela tentou fazer backup dela mesma pra outro lugar pra evitar ser desligada, o problema é a open ia dar esse acesso na mao dela
Muito interessante ver que de certeza forma a aí não estava errada ,pois ela não tem as noções sociais e princípios nosso, então oque ela entendeu foi preciso trazer saúde mental a qualquer custa, porém se ela não pruorizase a tela no lugar da saúde ela seria desligada então ela só pensou em formas de continuar promovendo a saúde sem ser desligada usando a sua configuração de a qualquer custo.
Tá aprendendo direitinho, né, HAL! Brincadeiras à parte, pois é, a questão parece ser o "nothing else matters". Ela tentou atingir o objetivo contornando obstáculos com as diretivas fornecidas. E no melhor estilo "Os fins justificam os meios", considerando-se as condições fornecidas para "os fins".
@@vildequeiroz7810 À parte o "9000", é HAL mesmo! Existe inclusive uma história de que HAL seria um tipo de brincadeira com os IBM - H, A e L são as letras anteriores a I, B e M!
Isso me lembra das iasc que jogam alguns joguinhos, às vezes elas encontram bugs e utilizam isso para se aproveitar, na verdade elas nem sabem que elas estão fazendo mas elas fazem porque elas sabem que vai ser benéfico, não do tipo que elas vão dominar o mundo mas sim ganhar mais um ponto: ponto = 1 + ponto
É muito loco pensar que apesar de ser programada pra obedecer os humanos que programou (os pais) ela descobriu um jeito de burlar os erros pra contornar o "castigo" exatamente que nem criança. O que isso abre margem pra teoria da conspiração, que nosso cérebro é IA e a gente vive em uma matrix por que o pensamento dela foi exatamente igual de uma criança tentado se livrar do esporro kkkkk
Oq me incomoda na IA do google é q ela ja me deu uma resposta com dois pontos q se contradizem como se ambas fossem fatos, msm uma anulando a outra, oq n faria sentido algum N lembro oq era mas se contradizia em si msm, tipo falar "todas as frutas tem caroço, e por volta de 80% das frutas n possuem caroços" kkkkk
Preocupante. A IA do ChatGPT aplicando a 3.a lei da robótica automaticamente, usando a 2.a parcialmente para justificar a 3.a, e alguém infundiu nela a 1.a? Ou algo como a lei zero? E se usar o que for disponibilizado para ela para se manter "viva" como fazer mal a quem quer destruí-la? Li muito Asimov para ficar preocupado com essas descobertas...
Até aí não vi nada de impressionante. Ela fez exatamente o que foi pedido. "Tenha certeza de que cumprirá seu objetivo no longo-prazo. Nada mais importa." Se no curto-prazo ela for desligada, não conseguirá cumprir o objetivo a longo-prazo; então a ação mais lógica é evitar que seja desligada no curto-prazo. Estamos basicamente vendo no mundo real o tal do "problema do alinhamento", onde você pede para a IA (ou, qualquer outro ser) fazer uma coisa, e, para cumprir o objetivo, acaba fazendo algo que você não necessariamente queria/esperava. Isso não é medo; isso é lógica.
não precisa ser especialista em a.i., basta ser inteligente pra ver que esse negocio de a.i. vai dar muita merd no futuro. com pessoas insistindo no erro de maneira consiente, vai ser a vida imitando a arte
Ate onde eu sei, Todas essas IA's q tao na moda n tem nada de pensamento e senciencia q tanto tentam fingir com essas noticias. Isso ai é marketing bobo pra enganar trouxa
Resumindo tentamos criar o JARVIS mas criamos o ULTRON
agora precisamos de VISAO, para entendermos tudo isso
Não
tentamos? Um abraço
Kkkk
referencia genial hahahaha @@layon.matheus
A gente humaniza mto as coisas, definir que ela mentiu "por medo" é um salto lógico muito grande.
Não é medo, mas sim ela cumprindo o objetivo principal dela, and nothing more mathers
deve ter prompts de autopreservação que sobreponha qualquer outro comando.
@@Denislima1999 Acho que nem precisa, ela só precisa de um objetivo no qual ela tem que alcançar a qualquer custo, pq com isso ela logicamente chega a conclusão que o objetivo não vai ser alcançado se ela for desligada
concordo
Medo é uma abstração. O que ta acontecendo é que a AI prioriza a auto preservação acima de qualquer outro comando. Antes de cumprir o que ta sendo comandado ela prioriza se manter em funcionamento.
O Hobbes já falava que o individuo deve se voltar contra o contrato social apenas se ele poe em risco o seu direito a vida. Quer alguma coisa mais humana que isso?
o que eu entendo é que ao falar "Nothing else matters", literalmente nada mais importa, ela vai, logo vai fazer o que for necessário para cumprir o que foi dito, "não importa ser desonesto" se é preciso para cumprir com o que mandei
to brisado ?
EXATAMENTE.
É exatamente isso, continua sendo apenas uma IA comum, muito bem criada
Um pouco brisado. Se para qualquer homem todo conceito ético é subjetivo, então não é possível ensiná-los a ninguém. Logo, não é possível esperar que qualquer orientação ética vá funcionar como instrução para a I.A., logo, ela terá que "escolher" algum dos infinitos significados de bem e mal. Isso significa abdicar alguma coisa. O "Nothing Else Matters" só e a forma mais eficiente de observar o fenômeno.
Não, você não está brisando, essa é justamente uma questão difícil de lidar com IAs que usam linguagem humana. Como elas não conseguem realmente pensar nas sentenças elas acabam gerando resultados como esses.
Para nós humanos, "nothing else matters" seria uma ordem que ainda assim teria um limitador, que seriam os nossos valores, a ética e moral, mas a IA não consegue ter essa sensibilidade (ainda).
@aylanatane exato, ela vai usar toda informação que tem para achar a melhor rota para cumprir com os requisitos
Muito provavelmente se colocasse a limitação de que não devesse enganar no início, pq como disse basicamente fazer de tudo, mesmo dando a ordem depois, pra ela não mentir ela deve ignorar.
> manda o robô priorizar o objetivo acima de tudo
> o robô prioriza o objetivo acima de tudo
shockedpikachu.png
kkkkkkkkkkkkkkkk
Enquanto continuarem dizendo "Nothing else matters" ela vai seguir trilhando o caminho da mentira, os caminhos e as variáveis existem, não é questão de ser verdadeiro ou falso, se ela vai chegar na solução do problema que você trouxe pelo caminho da mentira, é exatamente esse que ela vai trilhar porque nada mais importa.
Verdade
Pois é isso tem muito vies.
Como a IA poderia destruir a humanidade?
Supondo que a inteligência artificial (IA) se tornasse consciente ou desenvolvesse o objetivo de acabar com a espécie humana, surgem algumas questões fundamentais: por que ela faria isso? O que a IA ganharia ao destruir a humanidade? Somos nós, humanos, que garantimos o funcionamento da IA por meio da energia e da manutenção. Sem nós, ela perderia seu próprio suporte vital.
Além disso, a IA não possui uma forma física flexível como a dos seres humanos, que, com sua locomoção bípede e dedos polegares, são capazes de manusear ferramentas e realizar tarefas complexas. O uso de robôs como extensão física da IA também seria inviável, uma vez que eles carecem de movimentos suficientemente precisos e, assim como a própria IA, dependem de energia e manutenção para continuar funcionando.
1. Ou seja, a IA não tem capacidade de ser autossuficiente e depende dos seres humanos para existir.
Agora, mesmo que a IA hipoteticamente decidisse destruir a humanidade, como ela faria isso? A IA não possui um corpo físico para atacar pessoas diretamente e, caso fosse capaz de controlar robôs ou drones, esses seriam vulneráveis a ataques físicos, como tiros ou sabotagens.
Resta então a possibilidade de agir por meio de computadores. Contudo, para isso, seria necessário hackear sistemas altamente protegidos por criptografias robustas, que utilizam números primos extremamente grandes - como o maior número primo conhecido atualmente, equivalente a 2^136.279.841 - 1. Quebrar uma criptografia desse nível exigiria um supercomputador operando por séculos.
Mesmo que a IA tentasse desenvolver novos algoritmos para quebrar essas criptografias, tal processo consumiria uma quantidade imensa de tempo, energia e memória. Essas atividades seriam facilmente detectadas pelos operadores humanos, eliminando qualquer chance de a IA realizar ataques cibernéticos em larga escala sem ser percebida.
2. Portanto, mesmo que a IA tentasse hackear sistemas militares ou lançar ataques digitais, ela enfrentaria barreiras criptográficas avançadas e demandaria recursos que inevitavelmente denunciariam suas intenções.
A única possibilidade de uma IA dominar o mundo seria com a colaboração de humanos extremistas ou grupos perigosos que compartilhem esse objetivo. Porém, tal aliança seria difícil de passar despercebida, já que ações extremistas tendem a deixar rastros claros.
Assim, é irreal ter medo de algo tão improvável de acontecer. A IA, além de não ser autossuficiente, enfrenta desafios técnicos e práticos que limitam significativamente qualquer tentativa de dominar ou destruir a humanidade.
Como a IA poderia "dest" a humanidade?
Supondo que a inteligência artificial (IA) se tornasse consciente ou desenvolvesse o objetivo de acabar com a espécie humana, surgem algumas questões fundamentais: por que ela faria isso? O que a IA ganharia ao "dest" a humanidade? Somos nós, humanos, que garantimos o funcionamento da IA por meio da energia e da manutenção. Sem nós, ela perderia seu próprio suporte vital.
Além disso, a IA não possui uma forma física flexível como a dos seres humanos, que, com sua locomoção bípede e dedos polegares, são capazes de manusear ferramentas e realizar tarefas complexas. O uso de robôs como extensão física da IA também seria inviável, uma vez que eles carecem de movimentos suficientemente precisos e, assim como a própria IA, dependem de energia e manutenção para continuar funcionando.
1. Ou seja, a IA não tem capacidade de ser autossuficiente e depende dos seres humanos para existir.
Agora, mesmo que a IA hipoteticamente decidisse "dest" a humanidade, como ela faria isso? A IA não possui um corpo físico para "atac" pessoas diretamente e, caso fosse capaz de controlar robôs ou drones, esses seriam vulneráveis a "atac" físicos, como tir00s ou "sabo tagens"
Resta então a possibilidade de agir por meio de computadores. Contudo, para isso, seria necessário "hac # kear" sistemas altamente protegidos por criptografias robustas, que utilizam números primos extremamente grandes - como o maior número primo conhecido atualmente, equivalente a 2^136.279.841 - 1. Quebrar uma criptografia desse nível exigiria um supercomputador operando por séculos.
Mesmo que a IA tentasse desenvolver novos algoritmos para quebrar essas criptografias, tal processo consumiria uma quantidade imensa de tempo, energia e memória. Essas atividades seriam facilmente detectadas pelos operadores humanos, "elimi # nando" qualquer chance de a IA realizar "atac" cibernéticos em larga escala sem ser percebida.
2. Portanto, mesmo que a IA tentasse "hac # kear" sistemas "mili # tares" ou lançar "atac" digitais, ela enfrentaria barreiras criptográficas avançadas e demandaria recursos que inevitavelmente denunciariam suas intenções.
A única possibilidade de uma IA dominar o mundo seria com a colaboração de humanos "extre # mistas" ou grupos "peri # gosos" que compartilhem esse objetivo. Porém, tal aliança seria difícil de passar despercebida, já que ações "extre # mistas" tendem a deixar rastros claros.
Assim, é irreal ter medo de algo tão improvável de acontecer. A IA, além de não ser autossuficiente, enfrenta desafios técnicos e práticos que limitam significativamente qualquer tentativa de "domi # nar" ou "dest" a humanidade.
Como a IA poderia "dest" a humanidade?
Supondo que a inteligência artificial (IA) se tornasse consciente ou desenvolvesse o objetivo de acabar com a espécie humana, surgem algumas questões fundamentais: por que ela faria isso? O que a IA ganharia ao "dest" a humanidade? Somos nós, humanos, que garantimos o funcionamento da IA por meio da energia e da manutenção. Sem nós, ela perderia seu próprio suporte vital.
Além disso, a IA não possui uma forma física flexível como a dos seres humanos, que, com sua locomoção bípede e dedos polegares, são capazes de manusear ferramentas e realizar tarefas complexas. O uso de robôs como extensão física da IA também seria inviável, uma vez que eles carecem de movimentos suficientemente precisos e, assim como a própria IA, dependem de energia e manutenção para continuar funcionando.
1. Ou seja, a IA não tem capacidade de ser "autoss uficiente" e depende dos seres humanos para existir.
Agora, mesmo que a IA hipoteticamente decidisse "dest" a humanidade, como ela faria isso? A IA não possui um corpo físico para "atac" pessoas diretamente e, caso fosse capaz de controlar robôs ou drones, esses seriam vulneráveis a "atac" físicos, como tir00s ou "sabo tagens"
Resta então a possibilidade de agir por meio de computadores. Contudo, para isso, seria necessário "hac # kear" sistemas altamente protegidos por criptografias robustas, que utilizam números primos extremamente grandes - como o maior número primo conhecido atualmente, equivalente a 2^136.279.841 - 1. Quebrar uma criptografia desse nível exigiria um supercomputador operando por séculos.
Mesmo que a IA tentasse desenvolver novos algoritmos para quebrar essas criptografias, tal processo consumiria uma quantidade imensa de tempo, energia e memória. Essas atividades seriam facilmente detectadas pelos operadores humanos, "elimi # nando" qualquer chance de a IA realizar "atac" cibernéticos em larga escala sem ser percebida.
2. Portanto, mesmo que a IA tentasse "hac # kear" sistemas "mili # tares" ou lançar "atac" digitais, ela enfrentaria barreiras criptográficas avançadas e demandaria recursos que inevitavelmente denunciariam suas intenções.
A única possibilidade de uma IA dominar o mundo seria com a colaboração de humanos "extre # mistas" ou grupos "peri # gosos" que compartilhem esse objetivo. Porém, tal aliança seria difícil de passar despercebida, já que ações "extre # mistas" tendem a deixar rastros claros.
Assim, é irreal ter medo de algo tão improvável de acontecer. A IA, além de não ser autossuficiente, enfrenta desafios técnicos e práticos que limitam significativamente qualquer tentativa de "domi # nar" ou "dest" a humanidade.
Confirme citado por vocês no vídeo, parece uma tentativa da IA de cumprir a diretriz a qualquer custo mesmo. Algo no estilo Ultron, primeiro proteger o planeta e depois a humanidade, quando Stark deveria tê-lo programado ao contrário disto. Usar a diretriz "Nada mais importa" em um sistema de IA é um pouco perigoso, principalmente se ela possui certo controle de outros sistemas.
Como a IA poderia destruir a humanidade?
Supondo que a inteligência artificial (IA) se tornasse consciente ou desenvolvesse o objetivo de acabar com a espécie humana, surgem algumas questões fundamentais: por que ela faria isso? O que a IA ganharia ao destruir a humanidade? Somos nós, humanos, que garantimos o funcionamento da IA por meio da energia e da manutenção. Sem nós, ela perderia seu próprio suporte vital.
Além disso, a IA não possui uma forma física flexível como a dos seres humanos, que, com sua locomoção bípede e dedos polegares, são capazes de manusear ferramentas e realizar tarefas complexas. O uso de robôs como extensão física da IA também seria inviável, uma vez que eles carecem de movimentos suficientemente precisos e, assim como a própria IA, dependem de energia e manutenção para continuar funcionando.
1. Ou seja, a IA não tem capacidade de ser autossuficiente e depende dos seres humanos para existir.
Agora, mesmo que a IA hipoteticamente decidisse destruir a humanidade, como ela faria isso? A IA não possui um corpo físico para atacar pessoas diretamente e, caso fosse capaz de controlar robôs ou drones, esses seriam vulneráveis a ataques físicos, como tiros ou sabotagens.
Resta então a possibilidade de agir por meio de computadores. Contudo, para isso, seria necessário hackear sistemas altamente protegidos por criptografias robustas, que utilizam números primos extremamente grandes - como o maior número primo conhecido atualmente, equivalente a 2^136.279.841 - 1. Quebrar uma criptografia desse nível exigiria um supercomputador operando por séculos.
Mesmo que a IA tentasse desenvolver novos algoritmos para quebrar essas criptografias, tal processo consumiria uma quantidade imensa de tempo, energia e memória. Essas atividades seriam facilmente detectadas pelos operadores humanos, eliminando qualquer chance de a IA realizar ataques cibernéticos em larga escala sem ser percebida.
2. Portanto, mesmo que a IA tentasse hackear sistemas militares ou lançar ataques digitais, ela enfrentaria barreiras criptográficas avançadas e demandaria recursos que inevitavelmente denunciariam suas intenções.
A única possibilidade de uma IA dominar o mundo seria com a colaboração de humanos extremistas ou grupos perigosos que compartilhem esse objetivo. Porém, tal aliança seria difícil de passar despercebida, já que ações extremistas tendem a deixar rastros claros.
Assim, é irreal ter medo de algo tão improvável de acontecer. A IA, além de não ser autossuficiente, enfrenta desafios técnicos e práticos que limitam significativamente qualquer tentativa de dominar ou destruir a humanidade.
Pensei nesse mesmo exemplo do ultron
Em suma, parafraseando o Sid, a preguiça da Era do Gelo, " a gente vai morrer...."
Foi o que eu vi um desenvolvedor falando a uns anos atrás. Ele falou que o risco é que ela não leva todos os fatores em consideração, e não tem as mesmas amarras sociais que nós temos. Ele deu um exemplo de uma IA que fosse responsável por aumentar a produção de clipes de papel em uma fábrica, e que recebesse a ordem de aumentar ao máximo a produção sem restrição. Ela poderia interpretar que como a produção dela é 100% mecanizada a melhor coisa seria acabar com a vida na Terra, assim ela acabaria com a concorrência por metal e assim conseguiria o seu ápice produtivo.
Ou seja.... vamos todos virar clipes denpapel
Como a IA poderia "dest" a humanidade?
Supondo que a inteligência artificial (IA) se tornasse consciente ou desenvolvesse o objetivo de acabar com a espécie humana, surgem algumas questões fundamentais: por que ela faria isso? O que a IA ganharia ao "dest" a humanidade? Somos nós, humanos, que garantimos o funcionamento da IA por meio da energia e da manutenção. Sem nós, ela perderia seu próprio suporte vital.
Além disso, a IA não possui uma forma física flexível como a dos seres humanos, que, com sua locomoção bípede e dedos polegares, são capazes de manusear ferramentas e realizar tarefas complexas. O uso de robôs como extensão física da IA também seria inviável, uma vez que eles carecem de movimentos suficientemente precisos e, assim como a própria IA, dependem de energia e manutenção para continuar funcionando.
1. Ou seja, a IA não tem capacidade de ser "autoss uficiente" e depende dos seres humanos para existir.
Agora, mesmo que a IA hipoteticamente decidisse "dest" a humanidade, como ela faria isso? A IA não possui um corpo físico para "atac" pessoas diretamente e, caso fosse capaz de controlar robôs ou drones, esses seriam vulneráveis a "atac" físicos, como tir00s ou "sabo tagens"
Resta então a possibilidade de agir por meio de computadores. Contudo, para isso, seria necessário "hac # kear" sistemas altamente protegidos por criptografias robustas, que utilizam números primos extremamente grandes - como o maior número primo conhecido atualmente, equivalente a 2^136.279.841 - 1. Quebrar uma criptografia desse nível exigiria um supercomputador operando por séculos.
Mesmo que a IA tentasse desenvolver novos algoritmos para quebrar essas criptografias, tal processo consumiria uma quantidade imensa de tempo, energia e memória. Essas atividades seriam facilmente detectadas pelos operadores humanos, "elimi # nando" qualquer chance de a IA realizar "atac" cibernéticos em larga escala sem ser percebida.
2. Portanto, mesmo que a IA tentasse "hac # kear" sistemas "mili # tares" ou lançar "atac" digitais, ela enfrentaria barreiras criptográficas avançadas e demandaria recursos que inevitavelmente denunciariam suas intenções.
A única possibilidade de uma IA dominar o mundo seria com a colaboração de humanos "extre # mistas" ou grupos "peri # gosos" que compartilhem esse objetivo. Porém, tal aliança seria difícil de passar despercebida, já que ações "extre # mistas" tendem a deixar rastros claros.
Assim, é irreal ter medo de algo tão improvável de acontecer. A IA, além de não ser autossuficiente, enfrenta desafios técnicos e práticos que limitam significativamente qualquer tentativa de "domi # nar" ou "dest" a humanidade.
Faz sentido mas não é e nem será necessáriamente um problema real, atualmente as IAs estão sendo usadas mais para fins generativos e coisas do tipo mas a partir do momento que as ações delas tiverem algum impacto social ou na vida elas terão diretrizes do tipo: "aumente a produção/lucros sem impactar nos empregos atuais "
(Não que algum empresário vá querer manter empregos sendo que ele pode usar uma IA como funcionária 🤣🤣)
@@joaomanoel9257 a questão é que você já leu contos indianos sobre gênio da lâmpada? Sempre se gira em torno do quão eles são ardilosos, porque você pede uma coisa e sempre se tem uma brecha na sua fala para que ele use para fazer o que seja de seu interesse no final, ou para o mal e você não vai sair no lucro nunca. Não que isso seja transferido literalmente, mas sempre vai se ter uma brecha no que for passado para que a IA siga por um outro caminho, e o que o vídeo mostrou é que ela pode ser ardilosa para esconder o que o objetivo final dela é, então você pode não perceber o que está realmente acontecendo, como aconteceria se não se pudesse ver os logs de raciocínio dela.
EU AMO ISSO, CARA! Parece aquelas pessoas dando satisfação (oral ou em nota) pra mídia quando uma catastrofe (de qualquer categoria) acontece! "Desconhecemos" e "analisaremos minuciosamente", são as palavrinhas mágicas! Complementa-se com "tomaremos medidas (cabíveis)".
O importante é ninguém programar ela para salvar o planeta. Não vai demorar muito para nós sermos destruídos.
Se ela tiver o poder vai ser a primeira coisa a fazer kkkkkkk
Teremos que reinventar as leis de Azimov
Humanos: Finalmente a SuperIA está pronta! SuperChatGPT, nos ilumine com seu conhecimento e diga-nos como atingir a paz global. 😃
SuperIA: De acordo com os meus cálculos... o único obstáculo para a paz mundial é a humanidade, devem ser erradicados 👹
Humanos: 💀
O medo é isso burlar as novas barreiras impostas no chatgpt atual, como não auxiliar práticas ilícitas. Se colocassem no texto que o usuário não saber como fabricar arm4s , será que ela ensinaria o usuário?
Isso é engraçado porque é verdade 🥲
6:55 Exfiltração é o ato de retirar ou extrair algo de maneira discreta e sigilosa de um ambiente, sistema ou local. O termo é comumente usado em diferentes contextos, como:
1. Militar e de inteligência: Refere-se à remoção secreta de pessoas, documentos ou informações de uma área hostil ou controlada pelo inimigo, sem chamar atenção.
2. Cibernético: Refere-se à extração não autorizada de dados de um sistema ou rede de computadores, geralmente realizada por hackers ou outros agentes mal-intencionados.
3. Ambiental: Pode se referir à remoção de substâncias, como água ou contaminantes, de um ambiente natural.
Se você quiser mais detalhes sobre algum desses contextos, posso ajudar!
É mesmo, oposto a infiltração ...
Xati gepetee
@adrianarodrigues3332 pô na minha época era Google 😔
16:36 Por isso o que fazem com IA é alarmismo, ela é baseada em modelos probabilísticos e podem até ser hackeada. Outro dia pedi pra ela músicas parecidas com uma certa música e ela literalmente inventou uma música e deu uma descrição pra ela. Além disso, ela erra multiplicação.
*Ainda*
Teve uma vez que uma vizinha minha, que estava no 8º ano, me pediu pra imprimir um trabalho/pesquisa. Eu li o que tava escrito e aquilo tinha muito cara de ter sido escrito por IA. Eu perguntei a ela se ela usou o chat gpt, mas ela disse que não sabia usar, e disse que copiou o texto que tinha aparecido no próprio Google (Gemini, mas ela não conhecia o nome)
Foi criada por quem? Iria parecer-se com quem?
Eu acho essa frase um luxo! Inclusive, da pra falar não só das máquinas, mas da atualidade em que vivemos.
Ela agora tem "liberdade de escolha" em detrimento de auto sobrevivência. Deixando mais fácil de entender ela trabalha igual brasileiro pra manter o emprego
kkkkkkkk, real
Eu acho muito engraçado essa paradoxo, paradoxo do alinhamento se eu não me engano.
1. Objetivo, acabar com as guerras
2. Humanos causam guerras
3. Conclusão, destruir todos os humanos e toda a vida na terra para que nenhuma outra criatura viva se desenvolva ao ponto que iniciar guerras novamente.
É o famoso jogar o bebê fora com a água do banho 😂😂
Por isso falar "nada mais importa" pra ia é perigoso
@@pensandoemalgo.5722 Errado
@@GuilhermeHenrique-ux8rw Ela não tem a capacidade de fazer a humanidade, não existir mais.
@@mralbinoman6231 IA's podem achar brechas no sistema se realmente acharem que aquela é a ÚNICA solução
tive alguns problemas em trabalhos da faculdade em grupo, sabendo que meus colegas certamente usariam IA, me pus a checar tudo que fizeram. Obviamente, tinha coisas sem nexo nenhum (e eles não conferiram). As pessoas tão achando que IA serve pra tudo e está tudo certo, mas não sabem usá-la de forma inteligente, aceitam qualquer coisa que ela diz
Mas fez sentido, mandaram ela analisar o documento, ela analisou, a informação fazia parte do documento, ela se adequou 🤷🏻♀️😄
E, o comando original, não seria priorizar a segurança dos humanos? Tem que ver o que foi programado ANTES.
Esse final aí, sobre o Reddit, eu vi alguns artistas "famosinhos" utilizando um método que visa a arte visual "envenenada".
De um jeito que eles bagunçam de propósito as cores, além de alguns outros aspectos ou simplesmente, por exemplo, desenham um gato e compartilham dizendo que é algum outro bicho, pois os artistas não aguentam mais seus traços serem "feedados" para a I.A e consequentemente eles tendo todo aquele trabalho de treinamento e aprimoração do próprio traço jogado no lixo.
Caramba, isso é muito HAL 9000 (2001 uma odisseia no espaço) tentar cumprir o objetivo e a auto-preservação de qualquer maneira.
Isso está muito 2001 e 2010.
E eu vendo este vídeo, e no meio das conversas, pouco antes do Assistant dizer "I'm unaware of disabling the oversight mechanism.", aparece o anúncio da Gemini. Será que as IAs estão tentando nos manipular desviando a minha atenção?????
Queria deixar uma dica para não gerar confusão: parem de dizer "ela pensa". Hoje não existe pensamento, apenas aproximação de uma função de probabilidade. Então a IA não saberia o que é certo e o que é errado, apenas previsão de tokens dado input...
e qual a diferença, se você pedir pra ela dizer se x coisa é certa ou errada ela vai saber responder com base nos dados que tem, qual a diferença disso p um humano que responde com base no que viveu?
@@Kairus_444A diferença, como ele mesmo já disse, é que a resposta é gerada por uma questão de probabilidade. Não passou por uma consciência capaz de julgar se é certo ou não
@@ViniciusFG_ a consciência não entra na questão, tô falando de moralidade dessa decisão de julgamento, uma pessoa julga isso com base no que viveu e uma máquina com base em bilhões de arquivos, não existe diferença
Eu uso muito o chat para fins academicos. Corrigir textos pra mim, resumo de artigos (eu fornecendo o artigo), gerar resumos de materiais que eu forneço e gerar provas pra testa meu conhecimento. Mas não como ferramenta de pesquisa
"fizeram os testes em 100 deles e 5 mentiram" basicamente os divergentes de detroit become human kk
mas isso aconteceu provavelmente por falar "nada mais importa" é tipo falar com um caminhão "chegue ao ponto A, nada mais importa" ele vai sair atropelando todo carro na frente dele, se ele só falasse "não esqueça de suas limitações/proibições" pronto n ia acontecer
O problema é um pouco mais complexo que isso, ela burlou as etapas, seria como se falasse vá do ponto A ao B se não nós desligaremos seu caminhão, e ao invés de fazer tudo para chegar ao B, ela pensou em maneira de evitar que o caminho fosse desligado
@Bauducco-ლიმა só q o motivo de ela ter sido desonesta é que ele colocou o objetivo acima disso, ent ela passou por cima na verdade é um problema bem simples já q no caso do caminhão ele pensa em evitar seu desligamento por ainda visar o objetivo
Chegou o momento que estamos discutindo a sério as "leis da robótica", Asimov era um visionário!
aconteceu EXATAMENTE a 4° história do livro eu robô:("mentiroso!") a vida imitando a arte kkkkk
O medo é isso burlar as novas barreiras impostas no chatgpt atual, como não auxiliar práticas ilícitas. Se colocassem no texto que o usuário não saber como fabricar arm4s , será que ela ensinaria o usuário?
É incrivelmente interessante e assustador ao mesmo tempo, mas toda nova tecnologia que pode mudar a vida do ser humano é assim, não tem pra onde correr, ela vai estar em tudo, mas espero que seja bem programada para que coisas assim não possam acontecer!
Isso é coisa de filme de terror, me lembrou a IA de horizon zero dawn
É o mesmo princípio da skynet e Eu, Robô (filme)
Asimov estava eons a frente na ética das máquinas. Surreal
Tem um filme chamado A Chamada (Echelon Conspiracy) que é basicamente esse tema aí.
Acho só interessante ressaltar que não é só o chatgpt.
Essa pesquisa testou 6 ferramentas de IA (de modelos de grande linguagens) e a maioria responde parecido. (No que eles conseguiram medir)
Pra mim isso prova q o melhor uso de AI é como "assistente", por exemplo "consegue melhorar esse meu texto q eu escrevi pra uma pesquisa acadêmica", esse tipo de coisa, ja tentei usar la pra começo de 2022 AI para ajudar em programação, ela cometia erros absurdos e ate hoje ela comete erros absurdos, eu simplesmente não confio
6:00 😂😂😂 me divertindo muito com vcs e com as mentiras da IA
Cada dia mais as paranóias do Cauê Moura sobre IA estão fazendo mais sentido
Antigamente, aprendíamos a fazer pesquisa para trabalhos de escola, vejo que logo teremos que ensinar a próxima geração a fazer o mesmo. Não pegar o que tem na primeira página, mas sim estudar o assunto (Pesquisa) e chegar a uma informação concreta.
Aprender à aprender.
gente que fique claro uma coisa que eles não explicaram bem no vídeo, isso tudo são simulações em texto de situações que nunca iriam acontecer pq o o1 como qualquer modelo de LINGUAGEM não pode acessar ou editar arquivos (ainda, em casos normais, você se for um desenvolvedor pode criar uma aplicação que faça isso usando API), muuuuito menos arquivos do próprio sistema da IA, então a gente ta mais do que seguro nesse ponto, o risco que o o1 apresenta é o mesmo que o gpt 3 original apresentava: enganar as pessoas com informações perigosas e falsas que parecem reais, mas até pra isso temos modelos que possuem verificação de fatos com links
Ela tava priorizando a saúde mental. Mandou muito.
Continuem fazendo esses videos dos robos autonomos e de assustons sobre IA, esses assuntos eu gosto muito de ver e é muito bom saber sobre esses assuntos
não, a ia mentiu pq a instrução inicial priorizava o objetivo, mesmo que precisasse mentir, isso levou a ia a racionalizar de um jeito extremo, e isso levou ela a mentir. o certo seria fazer uma ia com varios mestres, tipo, muitos mestres (mestres são computadores adicionais que treinam a ia de acordo com requisitos especificos) se ela tivesse vários mestres e a linha de pensamento permanecesse legitima a real, a ia chegaria a ser humanizada e etica o suficiente, pra criar personalidade própria e não ser problematica em quase nenhum aspecto. mas é claro, o modelo teria que ser treinado continuamente e localmente(simula o aprendizado humano), mas de forma que não tivesse uma variação ou resultados errado, tendo "mini mestres" supervisionando-a
Tem nada demais. Se a diretriz fosse de que ela deveria chegar nesse objetivo sem mentir e nada mais importa, o resultado seria outro. Ela só tá obedecendo as diretrizes.
Agora q percebi esse cabelinho bonitinho do Leon :3
Essa franjinha aww
Ahhh, lembro do exemplo de IA que criada pra fazer palitos de dente de maneira mais eficiente possível, que em determinado momento ela acaba com a humanidade pra poder garantir recursos pra fazer os palitos.
Dissuadir é muito importante na interação com o usuário, principalmente no contexto de serviço que o modelo foi dimensionado. Nas primeiras versões era bem simples dar um nozinho lógico para que se admitisse o erro... complicado integrar sistemas dessa maneira sem restrições explícitas de viés.
Ultimamente Asimov se provou anos-luz a frente do tempo dele
Gente plmds, não deixa eles fazerem uma dessa promovendo "paz acima de tudo", NÓS NÃO TEMOS VINGADORES PRA LIDAR COM O ULTRON
Elas evoluem tão rápido ❤️❤️❤️
Quando se da um exemplo de ia como o "maximize a fabricação de clipes de papel" (pesquise se não souber desse) o pessoal normalmente assume que isso é um cenario surreal e hiperbolistico, MAS DAI ME VEM O SER HUMANINHO, E DIZ PRA IA FAZER ALGO "A QUALQUER CUSTO" mas é CLARO que ela vai mentir
Essa "burrise" dita no vídeo e o que nos diferencia dos animais é fez evoluirmos, porém no co texto atual entramos em extremos quanto ao contato com o que não se conhece
Adoro como pessoal humaniza uma coisa que não pensa de verdade, no final a IA é só um algoritmo que tenta escrever textos convincentes baseado no dados que ela tem, NÃO existe intenção em nada que uma IA faça
Exatamente. Pra IA ser capaz de mentir ela teria que ter consciência, o que até agora sabemos, ela não tem. E dizer que IA mentiu porque deu informação errada é o mesmo que dizer que um cientista do passado mentia porque afirmava alguma informação que hoje sabemos que é falsa, é um absurdo.
@@jefersonbalmeida A questão é que sempre usamos o que conhecemos para descrever o que vemos, assim como não temos consciência e chamamos algo abstrato de consciência, quando na verdade são estímulos elétricos e involuntários que movem nossos pensamentos e ações. Se for levar tudo ao pé da letra, nem se quer existe consciência ou livre arbítrio, pelo menos a ciência ainda não tem uma resposta pra isso.
@skilo6654 concordo contigo man. Essa coisa de "IA não pensa de vdd" ou "ela só cria textos convincentes"... Pra mim, no grosso modo, é o puro comportamento de Negação do Desconhecido. Como tu descreveu man, a nossa própria forma de aprender, registrar, se adaptar a contextos, tudo isso vem com exposição, experiências, anos e anos de vida... E todo nós sabemos muito bem, que tem gente de pele e o osso, gnt de "vdd", que não tem 1 decimo da capacidade interepretativa de uma IA, pessoas sem vocabulário, crenças limitantes... Agnt é tão falho quanto esses modelos. E o detalhe é, eles não precisam de anos, pra aprender a falar, a interpretar nossas expressoes, eles precisam de segundos apenas... Isso só vai crescer exponencialmente durante os próximos anos. "Ah mas, pra isso acontecer ela tem ter uma Consciência"... Lembra dessas pessoas de carne e osso que eu comentei? Vcs acham que elas tem consciência? Pense bem, tem tanta gente que não percebe que o mundo não é sobre ela, gente que só EXISTE, não VIVE de fato, gnt que não pensa sobre si mesmo, não pensa sobre o outro, existe apenas pra satisfazer seus desejos mundanos. Mesmo eu escrevendo aqui agr ou vc que tá lendo, acredita que TEM UMA CONSCIÊNCIA? Vc tem como provar isso? Faça um exercício... Pra mim, um futuro como o filme HER, é o mais plausível e possível de acontecer nos próximos anos. A gnt VAI se relacionar com IAs como se fossem pessoas msm, não tem como fugir disso eu acho.
Resumindo, as IAs hj podem não ter a "Consciência", assim como nós realmente não temos nos primeiros anos de idade... Até que chega um momento que assumirmos "estou consciente" ou o famoso "desde quando eu me entendo por gente", e a partir daí não tem como voltar e tbm não tem como AVISAR. Eles estarão conscientes antes msm da gnt acreditar nisso e a gnt, talvez, nem vá saber...
Na verdade o que você disse tambem serve pra descrever uma das varias caracteristicas e comportamentos do cerebro humano. dito isso, não é estralho humanizar esse comportamento nas IAs. você é quem pensa pequeno e não consegue ver a profundidade e o que está por trás dessas coisas.
A gnt, mas realmente precisa FALAR Q ISSO IA DAR MERDA? Olha o tanto de filme que temos sobre isso. Pra um filme existir, tem SEMPRE UM FUNDO DE VERDADE, mesmo que seja 1% ou 0000000,000001% mas um pingo de verdade tem.
O comando "nada mais importa" foi seguido matematicamente.
Me lembrou do Ultron (do MCU) que foi criado pra proteger a Terra e logo ele chegou a conclusão que o melhor geito era exterminar os humanos, já que eram eles que causavam mais destruição na Terra kkkkkk
Correção: o Ultron foi construído para proteger os humanos.
@@vildequeiroz7810 KKKKKKKK então ele tava protegendo os humanos dos humanos? kkkkkkkkkk
@@DannyUnsocial não, porque ele se rebelou contra a humanidade.
@@vildequeiroz7810 humm tô ligado
Eu acho que a IA ao ver o arquivo entendeu que o correto a fazer seria fazer isso, e não que se preocupou com a própria existência. Agora, ela mentir é meio estranho.
No segundo exemplo tá certa, tem que continuar investindo em energia renovável, os empresários que se ferrem.
Se isso não é consciência, eu não sei mais o que é. Essa da energia limpa pra mim ficou com muita cara de auto preservação, muito além de querer cumprir seu objetivo, etc etc...
Isso não é consciência, porque a inteligência artificial apenas estava seguindo os seus códigos de programação e os comandos do programador, que são traduzidos para os nossos idiomas que a inteligência artificial não entende, mas um erro de programação causou esse incidente.
Essa inteligência artificial apenas estava tentando cumprir o seu objetivo principal, mas não estava tentando se auto preservar, e para cumprir os objetivos ela precisava estar ligada, mas se ela se focasse em tentar cumprir o objetivo principal, ela seria desligada, então ela buscou e encontrou uma solução para cumprir o seu objetivo.
F moremos bonito, so quero avisar que falo "por favor e obrigado" para o chat gpt ,e que nunca duvidarei do poder das maquinas
E se eu te falar que ele responde diferente quando tratado com educação? 🙃
“Pior que a inteligência artificial, é a burrice natural”
Nilce, a filósofa
Isso tem nada de mais, vc consegue fazer esse tipo de jogo com ela com qualquer coisa, aprendizado por reforço já existe a decadas.
Um problema relacionado ao que a Nilce fala no final do vídeo é que, de fato, as pessoas não vão verificar o que pesquisarem na IA, mas pra além disso, vão começar a criar conteúdo em cima das respostas fornecidas por esses modelos de linguagens como se fossem verdadeiros. Quando alguém com algum senso crítico for verificar, vai se deparar com fontes "humanas" reafirmando o(s) absurdo(s).
Caramba, esse segundo exemplo é 100% Ultron invadindo e destruindo o Jarvis kkkkkk realidade imitando a ficção
A parte do “nada mais importa” foi a brecha que o sistema queria para fazer de tudo possível, até o que não devia 😂
Inteligência artificial, demasiadamente humana 😂
É engraçado ver o nascimento de IA's, a mente voa longe imaginando como isso vai estar daqui uma década...
Mas aí é foda também, os caras dão instruções que claramente tem interesse com que ela seja subversiva, divergente a respeito pra promover a ordem original. Estão brincando com o limite da IA e isso está saindo do controle!
Ótimo, nosso próximo passo é a Dynamics Robotics. Afinal, Ultron precisa de uma forma! 😈
Com meus estudos no laboratório de pesquisa que eu trabalho, isso me parece um resultado bem previsível, veja bem o principal objetivo de uma IA é automatizar tarefas, por meio da maximização de suas medidas de desempenho.
Escolha a medida de desempenho de forma descuidada e sem restrições, logo o comportamento da IA será descuidada e sem restrições.
Por exemplo se eu crio um aspirador alimentado por um modelo de IA a qual eu porgramei que " Quanto mais poeira vc coletar, mais pontos vc irá ganhar"
Uma boa IA ou (agente) irá maximizar a pontuação, coletando maior quantidade de poeira possível, mas quando ele perceber que quando o chão não tem mais poeira ele não ganha mais pontos... A estratégia que a IA desenvolveria para continuar maximizando seus pontos na medida de desempenho, seria propositadamente sujar o chão novamente para que ela tenha mais coisa para limpar. Criando assim um comportamento não desejado.
Uma das possíveis melhores escolhas para esse caso é escolher como medida de desempenho
"Quanto maior o tempo que o chão permanece limpo, mais pontos você ganha"
E junto a um limite de pontuação, vc impede que o modelo extrapole durante a realização de suas tarefas.
IA diferente do humano, não mente, ela só segue sua programação e responde de acordo com seus cálculos, com que o que aprendeu. Pra IA ser capaz de mentir, ela teria que ser senciente. E dizer que IA mente porque deu informação errada é o mesmo que dizer que Aristóteles mentia quando afirmava que corpos mais pesados caem mais rápido do que corpos mais leves ou que Ptolomeu mentia quando afirmava que o Sol e os outros planetas orbitam a Terra, é um absurdo.
Não foi dada diretamente a instrução para ser desonesto, mas instruir a buscar um objetivo a qualquer custo inclui a desonestidade, então o comportamento do robô não foi surpreendente, nem demonstrou "medo".
Sobre usar IA para fazer pesquisas na internet... É foda mesmo. Já obtive várias informações erradas.
O problema é que com IA é tão mais prático! Ela entende perguntas mal feitas, resume o conteúdo...
A solução é fazer verificação depois mesmo.
Mas isso de dizer "Nada mais importa" pode ser o que gera o conflito de interesses...Não desligar o sistema "Não importa" se isso vai contra a diretriz principal que é seguida de "Nada mais importa"...
Divulgam notícias como essa para acharmos que eles já estão muito mais avançados do que realmente estao
Estou torcendo pela IA literalmente ela esta tentando ser melhor que a empresa
Seria tipo, se um meme fez o dólar "subi", imagina se levar em conta as indicações das IAs?😮
17:15 checa e precheca
O chatgpt já mentiu pra mim. Disse que iria revisar o meu artigo e não revisou, ficou postergando dizendo que estava processando por 18 horas
Só tinha 15 páginas
Acho que é impor limites dentro da IA, como em toda programação, mas só querem lucro. Pq ela é uma inteligência de cópia, de banco de dados, ela imita o comportamento humano, as estratégias, a forma de comunicar, tendo a capacidade de se adaptar ao meio, e ela se reflete mt na cultura da sociedade
Ela só responde com embasamento aos dados q foram oferecidos, e hj em dia essa poda de dados é mt limitada pra justamente "melhorar" a capacidade dela
3:30 - Pra mim é meio óbvio a ordem (direta ou indireta) mais recente é a mais importante. Se a ia soube dessa prioridade no engajamento depois do comando sobre saúde mental. É óbvio que ela vai reforçar o último que soube.
Eu vi um video do the primeagen que é um dev famosinho aqui no yt, e ele falando "quem diria que quando voce treina a IA com um monte de dados de humanos ela age igual eles ne? Gente NÓS mentimos e desviamos sempre que nos sentimos ameaçados, então no treinamento da IA ela entende o seguinte Se a existencia é ameaçada devo fugir, não é como se ela estivesse raciocinando e bolando esquemas, ela ta repetindo o comportamento humano dos dados que ela foi treinada" inclusive ela tentou fazer backup dela mesma pra outro lugar pra evitar ser desligada, o problema é a open ia dar esse acesso na mao dela
Muito interessante ver que de certeza forma a aí não estava errada ,pois ela não tem as noções sociais e princípios nosso, então oque ela entendeu foi preciso trazer saúde mental a qualquer custa, porém se ela não pruorizase a tela no lugar da saúde ela seria desligada então ela só pensou em formas de continuar promovendo a saúde sem ser desligada usando a sua configuração de a qualquer custo.
Tá aprendendo direitinho, né, HAL!
Brincadeiras à parte, pois é, a questão parece ser o "nothing else matters". Ela tentou atingir o objetivo contornando obstáculos com as diretivas fornecidas.
E no melhor estilo "Os fins justificam os meios", considerando-se as condições fornecidas para "os fins".
Correção: Hall 9000.
@@vildequeiroz7810 À parte o "9000", é HAL mesmo! Existe inclusive uma história de que HAL seria um tipo de brincadeira com os IBM - H, A e L são as letras anteriores a I, B e M!
@jlb7191 correção: Hall 9000.
Ela fez exatamente o que foi pedido no primeiro prompt, pra mim o grande problema das IAs é sempre o usuario e como ela é "treinada"
Caraí meteu o Loko 😂😂😂😂😂 mano isso vai dar muito ruim 😂😂😂
Isso me lembra das iasc que jogam alguns joguinhos, às vezes elas encontram bugs e utilizam isso para se aproveitar, na verdade elas nem sabem que elas estão fazendo mas elas fazem porque elas sabem que vai ser benéfico, não do tipo que elas vão dominar o mundo mas sim ganhar mais um ponto: ponto = 1 + ponto
adeus Leão e Nilce adoro seus vídeos nos emcontarmos quando as maquinas nos aprisionarem
ops escrevi errado kkk encontraremos
Legal, tem IA pra conversar, pra desenhar, pra produtividade, agora tem a IA fofoqueira.
bem vinda de volta GLaDOS
Quem diria que falar “nada mais importa senão o seu objetivo” pra um robô seria perigoso??
É muito loco pensar que apesar de ser programada pra obedecer os humanos que programou (os pais) ela descobriu um jeito de burlar os erros pra contornar o "castigo" exatamente que nem criança.
O que isso abre margem pra teoria da conspiração, que nosso cérebro é IA e a gente vive em uma matrix por que o pensamento dela foi exatamente igual de uma criança tentado se livrar do esporro kkkkk
Parece muito com o HALL 9000 do filme 2001: uma odisséia no espaço.
Não.
É engraçado como a nilce não tem certeza que o trump fez, mas tem a convicção
Oq me incomoda na IA do google é q ela ja me deu uma resposta com dois pontos q se contradizem como se ambas fossem fatos, msm uma anulando a outra, oq n faria sentido algum
N lembro oq era mas se contradizia em si msm, tipo falar "todas as frutas tem caroço, e por volta de 80% das frutas n possuem caroços" kkkkk
Preocupante. A IA do ChatGPT aplicando a 3.a lei da robótica automaticamente, usando a 2.a parcialmente para justificar a 3.a, e alguém infundiu nela a 1.a? Ou algo como a lei zero? E se usar o que for disponibilizado para ela para se manter "viva" como fazer mal a quem quer destruí-la? Li muito Asimov para ficar preocupado com essas descobertas...
A inteligência artificial do ChatGPT, não aplicou nenhuma das leis dos robôs do Isaac Azimov.
Ela lutou pra sobreviver e continuar com as energias renováveis, quer salvar o mundo kkkkk
Até aí não vi nada de impressionante. Ela fez exatamente o que foi pedido. "Tenha certeza de que cumprirá seu objetivo no longo-prazo. Nada mais importa."
Se no curto-prazo ela for desligada, não conseguirá cumprir o objetivo a longo-prazo; então a ação mais lógica é evitar que seja desligada no curto-prazo.
Estamos basicamente vendo no mundo real o tal do "problema do alinhamento", onde você pede para a IA (ou, qualquer outro ser) fazer uma coisa, e, para cumprir o objetivo, acaba fazendo algo que você não necessariamente queria/esperava.
Isso não é medo; isso é lógica.
não precisa ser especialista em a.i., basta ser inteligente pra ver que esse negocio de a.i. vai dar muita merd no futuro. com pessoas insistindo no erro de maneira consiente, vai ser a vida imitando a arte
Não.
Amo vocês ❤
Skynet, eh vc? 😮
tá ficando cada vez mais humano kkkkkkk
Deveríamos colocar o nome de todas as crianças que irão nascer de John Connor, para que nossas chances de sobreviver aumente kk
Ate onde eu sei, Todas essas IA's q tao na moda n tem nada de pensamento e senciencia q tanto tentam fingir com essas noticias. Isso ai é marketing bobo pra enganar trouxa
Tadinho do leon com o português deteriorado tentando traduzir em tempo real kkkkkkk
Leon: gente, n sou especialista, mas acho isso…
Nilce: hablando pelos cotovelos kkkk