ALGORITMOS RACISTAS

Поділитися
Вставка
  • Опубліковано 6 вер 2024

КОМЕНТАРІ • 715

  • @brunoembruno
    @brunoembruno 4 роки тому +51

    A questão não é o algoritmo em si, mas sim como ele é alimentado, a pessoa por trás dele pode não ser racista, mas na hora de ensinar o algoritmo, se o programador não coloca seu viés, ele provavelmente vai reproduzir as estruturas sociais: qual a cor da pele da maioria das pessoas ricas? Com maior grau de escolaridade? O programador, além de tentar não colocar o seu viés, tem que impedir que o algoritmo caia nisso, mas isso é difícil, afinal, não é todo curso na área de TI que tem sociologia na grade curricular.

    • @danielnascimento7812
      @danielnascimento7812 4 роки тому +3

      consequencia do racismo estrutural também

    • @gogumelo91
      @gogumelo91 4 роки тому +1

      E, Ironicamente, eles criticam o viés do programador...

    • @alexandrade6422
      @alexandrade6422 4 роки тому +3

      Os algoritmos se alimentam dos dados de todos os usuários, muita gente acha que não é racista mas só consome conteúdo brankko isso é oq alimenta o algoritmo. Então eh isto amiguinhon antiracista, vc que só consome conteúdo brankkko faz parte disso

    • @gogumelo91
      @gogumelo91 4 роки тому +1

      @@alexandrade6422 Conteúdo branco???? Poderia ser mais claro?

    • @videosaleatorios5904
      @videosaleatorios5904 4 роки тому

      @@gogumelo91 conteúdo de gente branca duh.

  • @eduardo.guimaraes
    @eduardo.guimaraes 4 роки тому +302

    Pessoal a razão provavelmente não está no algoritmo e sim no dataset usado pra treinar o modelo que por fim é usado pra fazer o recorte. Este algoritmo se baseia em uma das áreas da A.I que é computer vision. O que faz um algoritmo identificar um padrão melhor que outro é a qualidade e quantidade de imagens de amostra pra fase de treino.
    Todos estes algoritmos de face recognition nasceram dentro do universo branco e de fato não suporta bem detecções de outras etnias.
    Isso nasce ainda em ambiente acadêmico. Lamentável mas real.

    • @mendes_daniel
      @mendes_daniel 4 роки тому +26

      Além disso, colocar dois rostos para testar um modelo de machine learning não é um teste muito eficiente, já que coisas desse tipo podem "confundir" a máquina e gerar outputs que não fazem tanto sentido. O mesmo ocorre para coisas simples como usar deep learning para modelar curvas periódicas, a reincidência de pontos com valores idênticos confunde a máquina e faz com que ela não alcance uma boa performance.

    • @tongo25
      @tongo25 4 роки тому +6

      Não entendi muito sobre o assunto, mas esses algoritimos são treinados pela comunidade tbm, correto? Esses não poderiam mostrar os problemas na comunidade que usa o algoritmo tanto quanto na plataforma em si ou não?

    • @vinasandrade
      @vinasandrade 4 роки тому +39

      Sim. Inclusive o título "Algoritmos Racistas" é totalmente impreciso. Eu concordo que a implementação deles traz consequências racistas, mas isso aconteceria mesmo que o dono da empresa e todos os desenvolvedores fossem negros. Os algoritmos reforçam padrões existentes na sociedade, muitos deles de fato extremamente negativos. Daí à afirmar que os desenvolvedores ou empresários são racistas me parece mais uma super simplificação decorrente de desconhecimento técnico. Nós, enquanto sociedade, realmente precisamos abordar essa questão extremamente danosa. Entretanto, para tal, é necessário entender as reais origens do problema, que nesse caso são: o conjunto de dados usados para treinar o algoritmo e a sociedade ser obviamente sexista, racista e desigual.

    • @djongaGod
      @djongaGod 4 роки тому +10

      Há um problema no algoritmo, pq há problemas nas pessoas que criam esses algoritmos.
      Há problemas nos datasets pois esses datasets são moldados por essas mesmas pessoas.

    • @antonio2708
      @antonio2708 4 роки тому +15

      Imaginei isso também, um desequilíbrio racial no próprio bancos de dados, mas neste caso estamos falando de uma aprendizado supervisionado, eu não acredito que usaram um dataset desequilibrado e sem representatividade e nestes casos ai do facebook, Twitter e etc... se eu fosse inferir algo sobre os algoritmos chutaria que foram usados aprendizado não supervisionado, que aprendem com base no reforço de seus "acertos" reais, ou seja, o feedback dado pelas empresas sobre seus ganhos, que é um reflexo o publico escolhido pelo algoritmo, o que em último caso reflete um racismo real da sociedade e não do algoritmo, o que é triste né.

  • @AlexandreSilva-ri7gm
    @AlexandreSilva-ri7gm 4 роки тому +153

    O tik tok já vinha de um histórico de evitar publicar vídeos de pessoas pobres, "pessoas feias" , enfim imagina o tipo de universo pretendido pela plataforma. Meteoro mais uma vez nos ajudando a enxergar mais longe. Forte abraço

    • @rebecaribeiro9659
      @rebecaribeiro9659 4 роки тому +13

      Ah sim vi no canal do Henry Bugalho que jovens principalmente de periferia nao sao mostrados os videos,e sim classe media branca que mais agregam a plataforma.

    • @AMSP_pi
      @AMSP_pi 4 роки тому +5

      Tik Tok 💩💩
      Tic tac 😋😋

    • @AMSP_pi
      @AMSP_pi 4 роки тому +7

      Na boa, nunca baixei o Tik Tok nem por curiosidade... É bizarro o que as pessoas são capazes de fazer pra ganhar 1 min de fama. Dá medo!

    • @isacaraujo5506
      @isacaraujo5506 4 роки тому +9

      A prova disso é o próprio feed do bagulho, só mostra pessoas "bonitinhas", ricas e dentro de um padrão estético branco e elitizado...

    • @malumoteki3021
      @malumoteki3021 4 роки тому +1

      @@rebecaribeiro9659 vc se lembra qual era o vídeo por favor? Preciso pra um trabalho da faculdade.

  • @KrSaPoww
    @KrSaPoww 4 роки тому +162

    O mais louco dessa história é que tinha muita gente falando sobre o algoritmo do twitter, mas curiosamente o assunto nunca entrava no trending...

    • @dinha10ok
      @dinha10ok 4 роки тому +11

      O que faz todo sentido comercial, mas é uma sem-vergonhice mesmo assim.

    • @willycs5893
      @willycs5893 4 роки тому +13

      Caramba, é mesmo. Não tinha pensado nisso. Teve um dia que praticamente tudo mundo que eu sigo estava falando ou fazendo o tal teste das fotos e nem pareceu no trending.

    • @bumble.bee22
      @bumble.bee22 4 роки тому

      O twitter nunca cometeu racismo 🐦🐦🐦

    • @edumalvado
      @edumalvado 4 роки тому +2

      @@willycs5893 Por quê será mesmo heim?

    • @willycs5893
      @willycs5893 4 роки тому +1

      @@edumalvado Sabemos muito bem.

  • @Cosme.Aristides
    @Cosme.Aristides 4 роки тому +193

    Considere isso:
    O problema do viés algorítmico talvez não esteja no próprio algoritmo. A ideia de que há um programador racista por trás do algoritmo que faz uma recomendação racista é um tanto enganosa. Muitos que não conhecem como é programado um algoritmo pensam que essa seja a única explicação plausível para inclinações racistas homofóbicas, misóginas e até extremistas no comportamento de certos recomendadores na internet. O entendimento melhor do que seja Machine learn nos leva a pensar que o comportamento dos algoritmos seja na realidade um reflexo das tendências estatísticas da amostra populacional à qual foi exposto. Portanto, mesmo que tenha acesso ao código fonte do algoritmo é muito provável que não encontre qualquer traço ou indicação dessas tendências nele, nem no programador que o escreveu. Pois elas são um epifenômeno da análise estatística feita na base de dados usada para as aferições do algoritmo. Claro que medidas que minimizem os efeitos dessas tendências, evitando que se repliquem e se fortaleçam, são bem-vindas. Contudo, elas tratam apenas o sintoma e não a causa. E a causa não está impactando apenas as nossas opções de vídeos no youtube, filmes na Netflix, amigos no Facebook ou o filtro do Tik Tok; mas estão levando também a escolhas de políticos que refletem essas tendências. E isso afeta até os que não fazem parte dessas estatísticas.

    • @rorschachozymandias2821
      @rorschachozymandias2821 4 роки тому +12

      Muito bom! É necessário falar mais disso pra sair dessa discussão rasa que não ajuda em nada.

    • @ads8854
      @ads8854 4 роки тому +9

      você disse tudo
      não dá pra culpar somente os desenvolvedores da ferramenta, é tratar sintoma e não a causa da doença.
      tratar a causa é propor reformas / revoluções ao sistema capitalista, que é o maior catalisador das opressões e injustiças existentes na sociedade.
      e não podemos deixar de remediar os sintomas jamais, os desenvolvedores têm dever ético de implantar medidas de mitigação dos viéses, para que as ferramentas não repliquem as opressões presentes no tempo corrente.

    • @ads8854
      @ads8854 4 роки тому +8

      @@rosinasci concordo que tem que reformar o algoritmo atual, é dever ético de seus desenvolvedores e seus exploradores
      mas ao mesmo tempo tem que atacar a raiz do problema, o sistema economico vigente que se beneficia da exploração das pessoas
      tem de haver articulações reinvindicando reformas / revoluções ao capitalismo atual, para propor mais justiça ao que ele reproduz

    • @alanalriga
      @alanalriga 4 роки тому +2

      Diego Ascanio Santos mas foi justamente o socialismo chinês que fez o tik tok não permitir vídeos com a tag Black Lives Matter não tivesse visualizações, afinal como o próprio estado chinês é racista, ele não poderia permitir que vídeos onde mostra pessoas negras lutando pelas suas vidas

    • @chiuaua2235
      @chiuaua2235 4 роки тому +2

      discordo plenamente

  • @jochenrindt487
    @jochenrindt487 4 роки тому +163

    Depois que me livrei do facebook, eu percebi o quanto de tempo tinha perdido. A vida é muito melhor sem.

    • @AMSP_pi
      @AMSP_pi 4 роки тому +12

      Passei 4 meses da quarentena SEM celular. Desativei os apps e guardei o celular na gaveta.
      Nunca estive tão bem em toda a minha vida. Hoje, já uso o whatsapp, vejo UA-cam... Mas tudo bem moderado. ✔️

    • @tonsena120
      @tonsena120 4 роки тому +2

      Excelente escolha😉🙃

    • @yuricapelasso
      @yuricapelasso 4 роки тому +5

      Facebook nem lembrava que tinha. Difícil é se livrar do insta.

    • @SylviaKarolinee
      @SylviaKarolinee 4 роки тому +1

      @@AMSP_pi quero ser assim

    • @cristinadecarvalho8528
      @cristinadecarvalho8528 4 роки тому +3

      Parabéns. Você conseguiu.

  • @zecarlosalves1363
    @zecarlosalves1363 4 роки тому +84

    Ngm fala, mas o tinder tbm...

  • @dalucrocheetricoluziaapare3306
    @dalucrocheetricoluziaapare3306 4 роки тому +53

    É, realmente a AI está aprendendo com o ser humano; e principalmente aprendendo o que e pior o ser humano pode ter: o preconceito! O futuro da humano é bem parecido com o seu presente!

    • @rodrigotavares6297
      @rodrigotavares6297 4 роки тому +3

      Não acho que datasets sejam o problema, tecnologias militares e de defesa para reconhecimento de rosto tem o mesmo problema e o reconhecimento de rostos negros são tão importantes quanto de outras etnias para esses sistemas.

    • @BodeFuceta
      @BodeFuceta 4 роки тому

      the past dictates the future

  • @oanonimogreg6487
    @oanonimogreg6487 4 роки тому +18

    A internet começou como algo bom e bem intencionado, hoje virou um centro de radicalização de jovens insatisfeitos .

    • @FootBall-bf2xl
      @FootBall-bf2xl 4 роки тому +2

      Uma coisa boa da internet foi assistir uma série russa sobre o Trotsky na qual já assisti dois episódios de cinco...

    • @alanalriga
      @alanalriga 4 роки тому +3

      O Anônimo Greg na verdade a Internet foi inventada para ser usada como máquina de guerra, ou seja matar pessoas

    • @oanonimogreg6487
      @oanonimogreg6487 4 роки тому +2

      @@alanalriga sim, mas quando ela foi inventado para uso civil era por boas intenções.

    • @alanalriga
      @alanalriga 4 роки тому +3

      O Anônimo Greg isso também pode ser um não, justamente por dar poder aqueles que nunca conseguiriam alcançar o poder sem que precisasse ficar multimilionário antes, logo todo esse racismo programado realmente seja de propósito

    • @capslockeando
      @capslockeando 4 роки тому +1

      A internet foi criada para uso militar!

  • @felipemarques8433
    @felipemarques8433 4 роки тому +32

    Sou formado em sistemas de informação e engenharia de software e vejo que infelizmente que questões sociais não são uma preocupação aos profissionais de TI.

    • @danielnascimento7812
      @danielnascimento7812 4 роки тому +2

      Né?

    • @garudadrakon4728
      @garudadrakon4728 4 роки тому +2

      E aí vc comete o msm erro q o povo comete ao atacar os entregadores de Ifood achando q tão atacando o Ifood
      Programador, com algumas exceções, são obrigados a entregar o melhor programa em pouco tempo e muitos deles sequer tem tempo ou permissão para tornar o sistema mais justo. Isso sem contar q o racismo é estrutural
      Um programador negro pode produzir apenas um algoritmo de reconhecimento facial sem segundas intenções, mas o msm pode ser "corrompido" pelo racismo inconsciente dos consumidores ou consciente dos empresários. Vai culpar o programador por isso?

    • @MeuAstral83
      @MeuAstral83 3 роки тому +1

      Deve ser por isso que a maioria é arrogante, superficial e rasa, percebo isso nessa galera.

  • @ThiagoVerissimo87
    @ThiagoVerissimo87 4 роки тому +9

    Saiam das redes sociais, menos do UA-cam, claro, para ver os vídeos do meteoro.

  • @luisgcr
    @luisgcr 4 роки тому +144

    Cada dia mais feliz por ter largado essas porcarias

    • @joasanto5544
      @joasanto5544 4 роки тому +9

      youtube n esta de fora disso

    • @Arnoudbr
      @Arnoudbr 4 роки тому +25

      @@joasanto5544 É verdade. por isso devemos aprender a usa-lo.
      Não clique em sugestões, nem Em Alta, nem em Inicio.
      Pesquise o que deseja ver, vá nos canais que vc já assina.
      Se nas sugestões tiver algo que parece lhe interessar, pesquise por aquele assunto.
      Desse modo, o que o algoritmo acha que seria bom pra vc é irrelevante.

    • @bumble.bee22
      @bumble.bee22 4 роки тому

      @@Arnoudbr amigo pra isso q serve o botão de inscrições

    • @MarceloCN
      @MarceloCN 4 роки тому +1

      Da pra usar e não ser um alien, igual assistir a Globo.

    • @orestesnetobr
      @orestesnetobr 4 роки тому +1

      Não adianta de nada. Muitos não fazem bom uso. A culpa não é das redes sociais. Vamos parar de terceirizar nossas mazelas sociais.

  • @watergames3421
    @watergames3421 4 роки тому +44

    Vim mais rápido que o Bolsonaro fugindo dos depoimento judiciários.

    • @FootBall-bf2xl
      @FootBall-bf2xl 4 роки тому +2

      Vim mais rápido do que a transferência bancária de empréstimo do Queiroz na conta bancária da Senhora Michelle Bolsonaro...

    • @ezcomusaos6697
      @ezcomusaos6697 4 роки тому +2

      Tesão por lixo? Credo em cruz. Vá de retro, satanás. Essa gadaiada acha que todo mundo tem as taras sexuais aberrantes deles.

  • @macos-brasil1814
    @macos-brasil1814 4 роки тому +29

    Eu trabalho com tecnologia (análise para e-commerce) e sempre acho interessante estes tipos de testes em relação a informações e algorítimos. Porém eu acho muito forçado dizer que "O Facebook é racista" por conta deste dado já que algorítimos não possuem pensamento. Algorítimos são cruzamentos de dados para alcançar máximos resultados para determinado fim. Como vivemos um mundo altamente marcado pelo racismo e preconceito, é lógico (no sentido de "lógica" de programação) que o algorítmo, de qualquer empresa, vai seguir os caminhos que entregam mais resultados.
    A beleza do algorítimo é que ele nunca mente. As pessoas dizem o que pensam na internet, pesquisam e compram produtos de qualquer tipo e SÓ o algorítmo irá ter essas informações. Quando as pessoas são questionadas pessoalmente elas sempre dizem "não sou preconceituoso", "Não gosto desta pessoa", "Não gosto desta música" mesmo que o histórico do navegador diga o contrário.

    • @palmitofantastico
      @palmitofantastico 4 роки тому +4

      Se o algoritmo não trabalha ativamente contra o racismo, ele é racista. Você não pode apelar pra o óbvio e dizer "algoritmos não pensam, logo não são racistas". Sendo que, seguindo a lógica, um discurso não pode ser racistas já que palavras não pensam e elas não podem agir com motivação vil para com pretos.

    • @nabysalem8260
      @nabysalem8260 4 роки тому

      Vídeo levantou esse ponto

    • @gogumelo91
      @gogumelo91 4 роки тому +3

      Disse tdo! Me poupou tempo para falar dessa distorção q o meteoro fez. Tremenda bola fora. Poderiam sim chamar as pessoas para refletir sobre o racismo perpetuado por essas plataformas, mas de forma inteligente, sem toda essa teoria da conspiração.

    •  4 роки тому +5

      Não só isso, acho que o vídeo peca um pouco quando deixa a entender que existem programadores mesquinhos, supremacistas digitando linhas de código racistas e rindo malvadamente. Isso provavelmente existe sim mas duvido que seja uma quantidade expressiva. O que acontece muitas vezes é que esses algoritmos são TREINADOS com dados do mundo real. E o mundo real É racista. Retirar viés de dados é MUITO dificil uma vez que históricamente a humanidade é racista e cheia de preconceitos. Meu ponto é que o problema vai muito além de uma pessoa ou uma equipe racista

    • @orestesnetobr
      @orestesnetobr 4 роки тому +1

      @@palmitofantastico Seu ativismo lhe impede de ver o óbvio.

  • @alefsoares9684
    @alefsoares9684 4 роки тому +149

    É impressionante notar as camuflagens do racismo.

    • @mr_lemon9349
      @mr_lemon9349 4 роки тому +5

      Que racismo isso ai e mimimi

    • @zAt0mic
      @zAt0mic 4 роки тому +9

      @@mr_lemon9349 eu não acredito que fizeram os algoritmos na maldade, mas é obrigação das redes sociais consertar esses problemas. Afinal, elas se dizem democráticas, precisam ser igualitárias nesse quesito... Racismo existe e é sério.

    • @roibananane8607
      @roibananane8607 4 роки тому +5

      @@zAt0mic não é na maldade, é racismo estrutural.

    • @Yeeg1
      @Yeeg1 4 роки тому +11

      Como alguem da area de programação, digamos que é MUITO errado falar que algoritimos são racistas. Pq o problema nao é a programação, mas quem programa ,pq com o tempo o proprio sistema se auto regula e exagera. A maioria dos programaodores são homens brancos do norte do mundo, os testes são feitos normalmente a partir do rostos deles mesmos e vao regulando a partir disso. Como isso vai sendo amplificado a medida que a inteligencia arficial vai aprimorando a partir disso. É mais fundo que isso, é um problema social!! Afinal a maioria dos probres sao negros e raramente um negro chega uma posição de que consiga chegar numa empresa a ponto de programar com sua visao. O mesmo para mulheres, é uma coisa muito segregada. O algortimo de qualquer rede social APRENDE COM OS USUARIOS, nossa intereração é que os treina. Então é um negocio muito mais complexo que racismo pq sei la, o programador é racista.

    • @danielnascimento7812
      @danielnascimento7812 4 роки тому +1

      @@Yeeg1 Tecnicamente não é mesmo, mas quando dizem algoritimos querem dizer o modelo racista, acho que cabe a gente explicar essa diferença, mas o pessoal usa isso pra falar "Vídeo inválido, nada disso presta". É tipo aqueles caras chatos "HTML não é linguágem de programação", não é mesmo mas não precisa ser chato.

  • @yarawerneck8331
    @yarawerneck8331 4 роки тому +7

    Tive que desinstalar o Twitter para proteger a minha saúde mental a rede social mais tóxica que eu já vi

  • @amigoeuestouaki4880
    @amigoeuestouaki4880 4 роки тому +140

    Alguém mais está cansado desse maldito anúncio da bolsa de valores?

    • @stankiewicz1992
      @stankiewicz1992 4 роки тому

      Nao é golpe. Mas tbem não ganha os rios de dinheiro que eles prometem...
      Só sei que dá pra fazer uns 70 a 100 por dia de boleta. Meu irmão faz isso...

    • @sagasbeats
      @sagasbeats 4 роки тому +8

      São esses os demônios do mundo mandam na política universal

    • @stankiewicz1992
      @stankiewicz1992 4 роки тому

      @@sagasbeats não são demônios. São apenas gente que entendeu o sistema e está ganhando $$ com ele...

    • @joasanto5544
      @joasanto5544 4 роки тому +8

      deve ser outra piramide p pegar trouxas mas aqui apareceu a sumida betina

    • @stankiewicz1992
      @stankiewicz1992 4 роки тому

      @@joasanto5544 Se for o anúncio que estou pensando, não é pirâmide....É trading.... Que nada mais é que um curso para operar na bolsa...
      Meu irmão faz isso como renda extra e eu pretendo aprender tbem...

  • @wjehheowbskenejw3893
    @wjehheowbskenejw3893 4 роки тому +4

    Tikteco é um aplicativo MUITO problemático, nunca instalei aquilo no meu celular, e nem vou fazer essa atrocidade.

  • @rodrigosiliunas8677
    @rodrigosiliunas8677 4 роки тому +4

    Eu sou estudante do curso de Tecnologia de Sistemas de Informação, sou programador a algum tempo e informo a vocês que algoritmos são criados para resolver problemas de empresas ou pessoas, a opinião do programador ou do grupo que desenvolve não importa, pois se você é um funcionário e o seu gerente te manda programar algo, você faz.
    Os códigos devem sim ser privados, já os programadores que o fazem; não. Ressalto que algoritmos são criados por programadores para resolver problemas, se o algoritmo é racista, a verdadeira pergunta que devemos fazer é a quem esse algoritmo está beneficiando? Porque ele é produzido desse modo? Quem são os funcionários e sócios da empresa e a quem essa agenda está atendendo?
    Ou seja, se os negros são um problema a ser resolvido através de um algoritmo... Para inicio de conversa, de quem foi esse problema?

  • @GeovannyRibeiroDev
    @GeovannyRibeiroDev 4 роки тому +25

    Redes sociais apenas espelham a sociedade só que o pior dela. Por essa razão a única que ainda uso é o Twitter e com uma timeline extremamente reduzida.

  • @denisyuribatista2495
    @denisyuribatista2495 4 роки тому +9

    Alguém reparou que durante o vídeo não houve nenhuma propaganda?

    • @EJAnsh
      @EJAnsh 4 роки тому

      Tive um logo entre twi e caradelivro.

  • @vinigmoura
    @vinigmoura 4 роки тому +16

    Espero que as proximas geraçoes deixem de se perguntar "pra que a matematica serve?" na escola.

    • @felipelima5179
      @felipelima5179 4 роки тому +3

      Eu concordo, mas esse problema é imenso já que nas instituições o modo de ensinar é extremamente positivista até hoje. Isso se dá em todas as matérias, contudo, na matemática é ainda pior

    • @garudadrakon4728
      @garudadrakon4728 4 роки тому +3

      Eu n culpo quem pergunta isso
      A escola joga a matemática como algo desconexo ou sem muita utilidade, o clássico "explicar sobre como fazer uma conta, mas não explicar aonde aplicar essa conta"
      É um problema muito mais complexo

  • @evandrosousa3231
    @evandrosousa3231 4 роки тому +9

    O problema não é o código do algoritmo, um código de machine learning é exposto a dados estatísticos e aprende com eles a identificar padrões, se o código é exposto a dados estatísticos de uma sociedade racista, por não ser uma pessoa e sim uma máquina ele entende que esse é padrão a ser assumido e seguido. O problema não é o código e sim a sociedade racista que esse código tenta emular. Faltou um pouco de entendimento do que é machine learning e data science.

  • @uilliamspaz8510
    @uilliamspaz8510 4 роки тому +13

    Querido meteoro, recomendação: O Dilema das Redes Sociais... Acredito q o algoritmo tem o viés do criador, mas é moldado e molda de acordo com o público, já que o objetivo principal de uma empresa é sempre o lucro e o lucro das redes sociais é o público. Seria legal o meteoro chamar alguém da área de tecnologia pra falar sobre redes sociais e IA, como faz com quadro sobre biologia e astronomia.

    • @danielnascimento7812
      @danielnascimento7812 4 роки тому +2

      A Jana viscardi fez isso, chamou a Kizzy terra, maravilhosa e explicou de uma maneira um pouco mais profunda, deviam ter chamado ela também

    • @rebecaribeiro9659
      @rebecaribeiro9659 4 роки тому

      Up

    • @orestesnetobr
      @orestesnetobr 4 роки тому +3

      Assisti. Completamente superficial. Vi críticas de pessoas rancorosos com os antigos empregos. A culpa do ódio nas redes sociais é da sociedade. Os algoritmos apenas segmentam os preconceituos de cada um!

    • @danielnascimento7812
      @danielnascimento7812 4 роки тому +2

      @@orestesnetobr Os modelos não só segmentam, os modelos premiam o engajamento pelo engajamento, e acho que nada gera mais engajamento que ódio. Só não acho de bom tom eximir desenvolvedores e cientistas de dados da responsabilidade de observar o modelo e os seus resultados e dizer que "algoritmos" são assim e ponto não ajuda muito.

    • @orestesnetobr
      @orestesnetobr 4 роки тому +1

      @@danielnascimento7812 De forma alguma. Essas pessoas não enxergam além das suas próprias ideologias. Querem um Estado fiscalizando tudo e todos. Aí você pode me dizer que as empresas fazem isso... Acontece que nesse caso, os valores são impostos pela sociedade e não o contrário. A sociedade não quer se ver no espelho e buscam bode expiatórios. Nesse caso, esse vídeo já escolheu seu alvo. Lamentável!

  • @rogeriotavares8312
    @rogeriotavares8312 4 роки тому +3

    Eu ouvindo as notas das plataformas só ouvi blá blá blá.
    É necessário enquadrar esses plataformas, senão corremos sérios riscos do fim da civilização !!!

  • @lucasmeneses8341
    @lucasmeneses8341 4 роки тому +10

    Bem, acho que o pessoal mais especializado em TI e SI nos comentárioa ja explicou o porquê as pressuposições do vídeo estão erradas...

    • @Arnoudbr
      @Arnoudbr 4 роки тому +2

      Ou, sem perceber, só defendeu seu campo de trabalho.

    • @urielnascimento3567
      @urielnascimento3567 4 роки тому

      Cara, não. Em lógica de algoritmo não existe essa, existe dado e entrega de resultado. Capitalismo tá cagando pra tudo que é ideologia, querendo vender. Ele te vende O Capital do Marx, livros que o criticam e o caralho a quatro, desde que você compre. Algoritmo é igual. Ele tem que ter alcance, o maior possível, sempre.

    • @danielnascimento7812
      @danielnascimento7812 4 роки тому +1

      @@urielnascimento3567 Não é bem assim, uma IA não funciona...

    • @fhz3062
      @fhz3062 4 роки тому

      ​@@Arnoudbr, eu escrevi um comentário solto explicando sobre isso.
      Resumo do caso 2: Propaganda.
      Rede neural aprende com os dados disponível. Problema de otimização matemática é entregar uma quantidade finita de propaganda para quem tem mais chance de comprar o que está sendo vendido. O algoritmo de sugestão pega o que a Rede Neural aprendeu com os dados disponíveis que refletem a sociedade e procura maximizar a eficiência da propaganda.
      Quando o resultado é propaganda P1 para o grupo A e P2 para o grupo B, não é um algoritmo pensado para ser racista, é um algoritmo que, *utilizando um método completamente independente e sem saber o que é racismo", evidenciou a estrutura racista dos dados.
      Isso é muito mais forte a favor do argumento da existência de racismo estrutural do que possa parecer.
      Claro que não sabemos o código em si, para isso, precisaríamos de mais experimentos, não apenas um único estudo de caso conforme mostrado no vídeo. Seria como "tomei cloroquina e curei da Covid, logo cloroquina cura Covid", percebe o erro grosseiro de lógica?
      Suponha que desejamos enviar propaganda de exame de próstata, e o algoritmo entrega 99% das propagandas para homens (pessoas com cromossomo Y) com mais de 40 anos. O algoritmo é preconceituoso ou ele aprendeu o público alvo do produto em questão? Este teste não foi apresentado, tampouco testes equivalentes. Como cientista e engenheiro eu afirmo, isso tem quase nenhuma validade. Serve de caso particular de como o algoritmo funciona. O resultado mais forte, repetindo o que eu escrevi, é que o algoritmo evidencia o racismo estrutural dos dados que ele usou para tomar a decisão que otimizava o problema proposto.
      "Mas você só está defendendo seu campo de trabalho" -- Não, estou explicando o tipo de pensamento e problemas associados, os quais eu mesmo já resolvi alguns, e te dizendo que a hipótese que você apresentou não é corroborada por quem entende o que está por trás.
      Por outro lado, o documentário "Dilema das Redes" da Netflix mostra exatamente o problema do efeito colateral. A rede social quer te manter nela, quando ela aprende que conteúdos extremistas geram mais engajamento e permanência, ela passa a mostrar isso para as pessoas. Quando nós entendemos isso, temos que reescrever as restrições do problema para eliminar o conteúdo prejudicial que explora a função objetivo básica da rede, ou seja, maximizar tempo de permanência.

  • @carolinaamparo3373
    @carolinaamparo3373 4 роки тому +3

    Aqui no UA-cam eu já vi dois exemplos disso, eu fui pesquisar sobre viagens e moradas em outros países e entre outros surgiu uma garota branca que mora no Japão, e meses depois de ver vários vídeos de pessoas brancas que moram nós EUA, Europa etc, apareceu uma garota negra que mora na Califórnia, o mesmo foi com uma garota negra que mora na Coréia do Sul, as duas tem mais tempo no UA-cam que a garota do Japão, mas não surgem assim q você pesquisa.
    Outro exemplo foi que como eu gosto de desenho digital, pesquisei sobre e só meses depois apareceu o canal de uma garota negra que também desenha de forma digital (o conteúdo dela é mais esclarecedor doq de outras pessoas na minha opinião).
    Não sei se é proposital ou não, mas acontece por algum motivo específico que eu ainda não descobre

  • @iuryfukuda
    @iuryfukuda 4 роки тому +3

    Rumo a um mundo OpenSource.
    Se querem que deixem de ser segredos industriais, parem de apoiar softwares de código fechado.

  • @TheLune05
    @TheLune05 4 роки тому +1

    Gente do Meteoro, "cês tão demais"... Show de pesquisa e imagens num conteúdo reflexivo perfeito!! Ah, outra coisa, parabéns pelos mil inscritos em um a três dias; não é para qualquer youtuber ou canal não, viu??? Isto não é por ser somente uma fã de vocês, e sim, pela qualidade da produção, gerada pela sensibilidade, perspicácia e inteligência dessa equipe... Abração.

  • @eletropc
    @eletropc 3 роки тому +1

    As redes sociais hoje tem a função de controlar, manipular e direcionar os interesses dos usuários. Já sai de todas e fico sabendo pelas notícias. Melhor decisão da minha vida.

  • @abrb2736
    @abrb2736 4 роки тому +3

    Eu gosto muito do meteoro, sou analista de sistemas e aqui tem alguns pontos do porque eu acho esse vídeo equivocado:
    1) Algoritimos não seguem um padrão único de estrutura e muito menos de escopo
    2) Analisar o conceito balizado somente em rede social, pra quem é leigo vai achar que basicamente os algoritimos fazem um único tipo de função
    3) Algoritmo é uma ciência exata, ele não atende a desejos e sim a comandos, o que é ensinado são técnicas e estruturas de código.
    4) Por ensinar estruturas de código é necessário diferenciar conhecimento bruto de estruturas de dados e regras de negócio de empresas, são coisas que se relacionam porém não são a mesma coisa
    5) Os algoritimos são modulares e dinâmicos eu não entendi o que dizer quis dizer com "segredos industriais" , existem vários cursos introdutórios e acessíveis a respeito disso, basta acessar comunidades e threads sobre open source
    Quem tiver dúvida eu posso esclarecer aqui nos comentários

    • @renataleite1836
      @renataleite1836 3 роки тому

      Então o Algoritmo quando criado não sofre influencia subjetiva de quem o criou e sim a quem ele é direcionado ?

    • @abrb2736
      @abrb2736 3 роки тому

      @@renataleite1836 Boa Noite café, desculpe-me a longa demora haha,estive muito ocoupado então quando se fala em criação de algoritimo por parte do desenvolvedor é necessário entender a que tipo de regra de negócio ele atende, tecnicamente falando o mais ensinado e correto seria fazer um algoritimo altamente dinâmico e com menos consumo de memória possível, acontece que no contexto do Machine learning o algoritimos são feitos para "aprender" os comandos do usuário , o raciocínio é assim: se muitos usuários pesquisam um mesmo tipo de tema e com determinada associação, a máquina, por estatística, vai entender que tal palavra precisa retornar esse conteúdo e em ordem de maior acesso e assim constroem-se filas, vendo esse cenário, a interferência se dá muito mais pelo comportamento do usuário do que algum "viés" político que um dev venha a ter, é um pouco conspiracionista afirmar que programadores constroem estruturas com viés político.

  • @edsonfernandes62
    @edsonfernandes62 4 роки тому +8

    O problema nao está no algoritmo ou em quem o produz, o algoritmo é bom mas é treinado com uma massa de dados falha (essa massa de dados infelizmente é a nossa sociedade).

  • @vandreleon
    @vandreleon 4 роки тому +1

    Essas respostas prontas deles e que não dizem nada de nada dá uma raiva imensa!

  • @leonardoguerra6501
    @leonardoguerra6501 4 роки тому +3

    Eles realmente tem que pensar com ética e sem ferir nenhuma comunidade, mas tornar o código da empresa público ou revelá-lo a algum governo seria prejudicar e muito a segurança da empresa, isso simplesmente não existe.

  • @diegonzalez25
    @diegonzalez25 4 роки тому +3

    Jamás me he considerado de derechas y soy muy a favor del movimiento black lives matter. En este caso, no sé si soy solo yo pero tengo la sensación de que eso es muy obvio. Esos algoritmos suelen guiarse por los datos que se los provee. Y si los datos reflejan la realidad es obvio que el algoritmo lo va a mostrar. Es como sacar una foto de un acto racista y luego sorprenderse por el mecanismo de la cámara que reproduce en la foto el acto racista. Se podría decir que en ese caso la cámara es racista? No. La sociedad es racista y la cámara sólo saca una foto de esa realidad. Podemos mudar los algoritmos pero el foco debe estar en mudar la realidad que los algoritmos nos muestran. Un saludo. Disfruto muchísimo del canal, es un bálsamo en estos tiempos de tanta intolerancia.

  • @rodrigoperaltamm
    @rodrigoperaltamm 4 роки тому +22

    Toda a discussão sobre "correlação" no vídeo anterior ficou esquecida neste vídeo. O programador não é racista, e a propriedade intelectual deve sim ser protegida. A causa do problema é o racismo estrutural. O algoritmo é colocado para aprender num ambiente de racismo e machismo. É esperado que ele seja, portanto, racista e machista. O algoritmo não pensa, ele faz o que foi mandado fazer. Justíssimo apontar o erro, e mais justo ainda querer corrigir (como se faz em políticas sociais). Em vez de tentar invadir a propriedade intelectual, uma ideia muito mais razoavel seria regulamentar: criar uma série de normas e testes que o algoritmo precisa cumprir.
    O próprio twitter admitiu o erro. Sem dúvidas vão corrigir o mais rápido possível. Mas isto só serve pra compensar o que é o real problema, que é o racismo estrutural.

    • @danielnascimento7812
      @danielnascimento7812 4 роки тому +1

      O programador é uma pessoa e pode ser racista e por esse motivo ignorar uma determinada falha por que pra ele não faz diferença ou por que pra ele é o certo... Apesar da IA tirar conclusões a partir dos dados que a gente fornece, a gente precisa saber o que ela ta consumindo, o que ta sendo produzido com aquilo, que tipo de resultado o modelo ta retornando... Essas empresas tem um poder muito grande nas mãos, não deveriam sair upando qualquer beta e a sociedade que sofra a falta de qualidade

    • @rodrigoperaltamm
      @rodrigoperaltamm 4 роки тому +4

      ​@@danielnascimento7812 o programador pode ser racista, como vc falou. Mas tecnicamente nao faz o menor sentido, porque as redes neurais (os algoritmos) simplesmente reproduzem dados alimentados.. Os dados poderiam, sim, ter sido alimentados propositadamente para reforçar um preconceito, mas acreditar nisso é teoria da conspiração. O meu ponto é que os dados não-enviesados já reforçam o preconceito, infelizmente. Portanto, na minha humilde opiniao, a reflexao sobre essa resposta dos algoritmos deve ser muito mais sobre a sociedade do que pontualmente em algoritmos de cada rede social

    • @danielnascimento7812
      @danielnascimento7812 4 роки тому +2

      @@rodrigoperaltamm Mas então, apesar de eu achar pouco provável, uma pessoa pode sim ir lá e colocar dados "racistas" pra serem consumidos, o mais provável é que isso seja fruto de racismo estrutural, não é que as pessoas escolheram usar uma base racista, mas elas não perceberam o viés racista dos dados utilizados. Outra coisa quem constrói o modelo precisa ter consciência disso e penalizar quando existe um output racista. Não tem como eximir o programador dessas coisas, a gente é responsável pelo que a gente produz.

    • @garudadrakon4728
      @garudadrakon4728 4 роки тому

      @@danielnascimento7812 não tem como eximir exceto se quem comanda o algoritmo n for o programador e sim a empresa
      Pq há casos em q a empresa contrata programadores para mexerem nos programas, mas n permite alterar os msms até q sejam permitidos para fazer. E é mais fácil encontrar empresário racista doq programador racista

    • @danielnascimento7812
      @danielnascimento7812 4 роки тому

      @@garudadrakon4728 Existem esses casos mas não acho que seja a regra.

  • @joabfariasgmail
    @joabfariasgmail 4 роки тому +2

    Esse tipo de racismo vem de muito tempo atrás. A composição química dos filmes fotográficos (na época da fotografia analógica) era feita pensando em fotografar pessoas brancas.

  • @luizhenriquemaistrelo9065
    @luizhenriquemaistrelo9065 4 роки тому +5

    podem falar sobre o documentário "o dilema das redes socias"

  • @VictoriaWalker8
    @VictoriaWalker8 4 роки тому +1

    Vieses inconscientes são realmente uma parte bem crítica quando se fala de Machine Learning (os algoritmos que aprendem "sozinhos"). E isso se estende para vários preconceitos da sociedade além do racismo. Racismo pode ser o mais fácil de notar e sentir como é perigoso, mas tem de ficar atento com todos os tipos de preconceitos. Ainda mais que redes sociais já são parte bem importante da vida de muita gente, dita o que as pessoas estão falando sobre ou prestando atenção, permite pessoas terem um alcance colossal que antes não era possível, e isso pode ser usado "para o bem ou para o mal".

  • @selim6033
    @selim6033 4 роки тому +16

    Caraca. Pessoal nos comentários adora passar pano. Gente, entendam o seguinte: 1. O algoritmos muitas vezes são supervisionados por pessoas racistas; Caso não sejam supervisionados, eles se baseiam em outras coisas que também são fundamentadas pelo racismo. 2. "Analisam o mercado, o feedback, os usuários, etc". Sim, e isso não muda que em várias partes desses processos, são pessoas que determinam, que ignoram, que fazem vista grossa, são maldosas, ou etc, que imbuem preconceitos por toda a cadeia. Então, se a culpa, em um caso, não é do algoritmo, e sim do dataset, em alguma etapa ele foi moldado por pessoas preconceituosas. Se a culpa é do "mercado/empresa", a visão racista/misógina/elitista/etc está presente em várias etapas que geram essa "visão" do mercado/empresa. Se na verdade é por causa dos usuários que ajudam em coleta de dados, é obvio que a sociedade ainda carrega esse viés racista, e implementa em uso comum (preconceituoso) as ferramentas que fomentam as informações necessárias. Não precisa ser entendido, nem precisa fazer tanto esforço pra entender. O apontamento do vídeo é sobre várias chaves desses processos que são orientados/analisados/guiados/montados/pensados/etc por pessoas. E a sociedade é racista/elitista/misógina/etc. Ou seja, em vários desses setores a culpa está bem clara como pessoas. Parem de se fazer de difíceis e dizer que "não é o algoritmo que é racista", "não é o dataset", "não é o machine learning", etc e etc. Não é literal. Quando alguém diz que "o algoritmo é racista" não é dizer que ele tem consciência e por si só é racista. Significa que ele expressa, por causa desses gargalos ideológicos no meio do processo, a visão racista/preconceituosa no resultado final. Para de defensiva e de passar pano, na moral. É simples de entender.

  • @cokezinhax
    @cokezinhax 3 роки тому +3

    Adoro os vídeos que vocês fazem, mas como desenvolvedora de “algoritmos” preciso me posicionar:
    Algoritmos não são racistas!
    Os “professores” das inteligências artificiais na verdade são as informações retiradas da realidade, nós chamamos dataset.
    Um dataset pode ter viés, mas isso geralmente não é intencional, e o trabalho dos cientistas de dados é exatamente perceber e corrigir isso.
    Quando o algoritmos da sugestão de vagas de trabalho sugere vagas “ruins” para mulheres ou negros, o algoritmos está infelizmente tentando errar menos, reproduzindo o que já ocorre na sociedade. O objetivo é simples errar menos.
    Talvez o caminho seja: ao invés de buscar a manutenção do que temos, precisamos buscar uma nova arquitetura social, mais livre, mais justa.

  • @masterskywatcher8655
    @masterskywatcher8655 4 роки тому +7

    Os algorítmos se moldam ao comportamento dos usuários, eles não são racistas, eles entendem uma demanda racista e atendem a ela.

    • @danielnascimento7812
      @danielnascimento7812 4 роки тому

      Correção, o modelo é racista por que aprendeu a ser racista, modelos atendem a um propósito e entendem quais variaveis são mais importantes pra aquele propósito. Isso significa que se um modelo é criado pra decidir como centralizar uma foto e ele foi ensinado usando uma base com um certo viés e ele vai mostrar a foto cetralizada naquilo que ele considera correto levando em conta o que ele aprendeu naquela base, que pode ter sido racista.

    • @masterskywatcher8655
      @masterskywatcher8655 4 роки тому +2

      @@danielnascimento7812 sim, o q eu quero dizer é q ele n foi criado com esse propósito, o vídeo deu a entender q os programadores racistas fizeram as plataformas desse jeito, o q eu acho super improvável

    • @danielnascimento7812
      @danielnascimento7812 4 роки тому

      @@masterskywatcher8655 Ai concordamos!!

  • @gustavonicolaugoncalves3606
    @gustavonicolaugoncalves3606 4 роки тому

    Excelente vídeo, como sempre!!
    Venho estudando um pouco sobre o tema e me deparando cada vez com mais exemplos que escancaram o viés em algoritimos.
    Uma nota de contribuição é que por muitos deles utilizarem técnicas de aprendizado de máquina, onde o próprio algoritmo aprende e muda conforme o tempo, e dessa forma o próprio desenvolvedor perde o entendimento por completo do funcionamento do programa. Muitas vezes mais que o código ser aberto é compreender qual base de dados foi utilizada para treinar a Inteligência Artificial.
    Sem dúvidas não podemos tirar as responsabilidades das empresas que propagam esses algoritmos, talvez ainda seja cedo, mas é extremamente necesário a criação de leis que fiscalizem a construção, treinamento e operação das IAs.
    Novamente parabéns pelo conteúdo!

  • @Gabriel13Drummer
    @Gabriel13Drummer 4 роки тому +1

    Video pertinente.
    Comentem também sobre o caso de racismo da rede Magazine Luiza.

  • @davidvoices
    @davidvoices 4 роки тому

    O UA-cam não entrou nessa análise? Nem o Google? Estranho

  • @AEncruzilhadaBlues
    @AEncruzilhadaBlues 4 роки тому +3

    Essa é certamente uma história curiosa, afinal as máquinas são feitas a imagem e semelhança de seus criadores.

  • @lucasf9967
    @lucasf9967 4 роки тому +1

    Isso eu aprendi no meu trabalho.
    Eu faço anúncios para uma casa de festas e fotos de pessoas negras, infelizmente, não dão bom retorno em posts patrocinados.

  • @lucasreis1786
    @lucasreis1786 4 роки тому +145

    Os algoritmos não são racistas, as pessoas ensinam os algoritmos a serem racistas. Assim como aqui no UA-cam, há um tempo se você coloca palavras chave no vídeo como gay, trans, e etc.. seu vídeo tem menos alcance. O "machine learning" aprende com os usuários a ter preconceito.

    • @viniciusdasilva4403
      @viniciusdasilva4403 4 роки тому +7

      fui digitar gay e homossexual na busca e não apareceu nada de sugestão :(

    • @alanalriga
      @alanalriga 4 роки тому +9

      Pesquisem sobre a inteligência artificial que aprendeu a ser racista e machista nas redes sociais

    • @enricodiniz3586
      @enricodiniz3586 4 роки тому +20

      EXATAMENTE. O video é muito incompleto por não citar isso.
      Quando o algorítimo do Facebook da uma vaga de emprego boa pra brancos, e uma de menor salario para negros, não quer dizer que o algoritimo está programado pra privilegiar brancos. Mas sim que o algorítimo encontrou uma correlação entre raça, e o tipo de trabalho mais procurado por ela.

    • @FootBall-bf2xl
      @FootBall-bf2xl 4 роки тому +3

      @@viniciusdasilva4403 fui no buscador esclarecer sobre um procedimento médico feminino e após isso surgiu frequente anúncio de lingerie...

    • @srgoplus0052
      @srgoplus0052 4 роки тому

      Isso e vdd

  • @us3rflp
    @us3rflp 4 роки тому +4

    kkkkkkkkk o meteoro culpando a tecnologia e os programadores. vtnc

  • @anarquistadebrasilia
    @anarquistadebrasilia 4 роки тому +1

    Os algoritmos refletem sempre o padrão que os usuários deixam. O que as plataformas deixam claro é a vontade da população que possui tempo suficiente para utilizá-las, que predominantemente vão replicar esse tipo de conteúdo.
    Achei a matéria rasa em nível de conhecimento de tecnologia e mais com um tom pessoal de usuário, o que confirma a primeira expressão de que somos nós humanos que com nossas emoções comprometemos o que será demonstrado.
    Enfim, foi raso. Primeiro conteúdo do meteoro afetado pela emoção da necessidade de falar qualquer coisa que parece certa, mas não significa correlação.
    ;)

  • @marcoscarneirolima7100
    @marcoscarneirolima7100 4 роки тому +3

    Muito interessante o vídeo. Só como complemento, no caso do Twitter, aparentemente o algorítmo prioriza imagens com maior contraste de cores e via de regra pessoas brancas acabam gerando mais contraste de cores na maioria das vezes, o que gera esse resultado infeliz. No caso do Facebook, deve ser realizado um grande trabalho de aperfeiçoamento desse algoritmo, um fato que muitas empresas perceberam é que quando você dá informações como gênero, cor e etc. para um algoritmo e espera que ele decida algo, via de regra ele tende a ser bem preconceituoso, porque a nossa sociedade o é. Quando se "pede" para um algoritmo decidir, ele sempre vai querer "ganhar" o máximo possível, ou seja, se você pede para um algoritmo auxiliar na contratação de pessoas nos cargos de gerência, ele vai olhar pros dados disponíveis e vai perceber que a maior parte dessas pessoas nesses cargos são homens brancos, então eles tendem a priorizar esse grupo em detrimento de outros por acreditar que esse grupo tem mais chances de conseguir as vagas por já ocuparem boa parte delas. Esse é um tópico muito discutido ultimamente na área de Ciência de Dados e bastante complexo. Parabéns pelo vídeo.

    • @dion5804
      @dion5804 4 роки тому +1

      Interessante seu comentário. Estava pensando exatamente isso.

  • @MeteoroBrasil
    @MeteoroBrasil  4 роки тому +18

    NATAL PARA SERRA TALHADA
    www.vakinha.com.br/vaquinha/natal-para-serra-talhada-pe

  • @LuisFelipe-vn7pe
    @LuisFelipe-vn7pe 4 роки тому +59

    teve uma thread sobre isso no twitter, muito interessante.

    • @igordantas1858
      @igordantas1858 4 роки тому +9

      Saí da bolha

    • @giulhierme4595
      @giulhierme4595 4 роки тому +5

      @@sombra1111 Resumo da obra, o algoritimo só trás o que vocês quer ver porque prende a atenção.

    • @kiara6237
      @kiara6237 4 роки тому +1

      Tem milhões de threads sobre isso kkkk.

    • @igordantas1858
      @igordantas1858 4 роки тому +8

      Xavier P. Temos que sair da bolha. Antes só seguia contas de cunho político do meu interesse e percebo agora como isso me prejudicava. Não mudei minhas ideologias, mas minha mente se expandiu.

    • @giulhierme4595
      @giulhierme4595 4 роки тому +3

      @@igordantas1858 assista o que você odeia, eu faço isso, vejo de tudo so que gosto e o que eu não gosto

  • @fabricioaraujo5134
    @fabricioaraujo5134 4 роки тому +2

    Fiquei muito surpreso quando vi isso pela primeira vez no Twitter

  • @kcis5940
    @kcis5940 3 роки тому

    Tentando enxergar isso tudo de forma mais positiva, se as redes sociais, de fato, implementaram mudanças que trarão mais igualdade, algo bom aconteceu.
    Não tem como esperar que o bom senso surja logo de cara, então a cobrança da sociedade é vital para melhorar o mundo.
    Estamos melhorando. Devagar.

  • @rafaelacouto6719
    @rafaelacouto6719 4 роки тому

    Ainda bem que o Meteoro Br e outros estão nós abrindo os olhos!! Desisti das minhas redes e quando alguém me pergunta se participo das plataformas e a resposta é "não" a reação é assustadora, é indescritível, como se eu fosse doente ou tivesse alguma deficiência, é como me sinto. Mas não quero voltar, prefiro manter minha sanidade.

  • @BrunoHenrique-qf6bz
    @BrunoHenrique-qf6bz 4 роки тому

    Já passou da hora dessas empresas que lidam com mídias sociais passarem a ter deveres, pq n pode continuar do jeito que tá.

  • @tiagofernandesbatista998
    @tiagofernandesbatista998 4 роки тому

    Hideo Kojima manda lembranças... Acho que um vídeo relacionando esse assunto com a série Metal Gear, em especial o jogo "Metal Gear Solid 2: Sons of Liberty", ficaria muuuito da hora

  • @nunesuyasuke9506
    @nunesuyasuke9506 4 роки тому

    Ótimo trabalho! Parabéns. O Alê Santos também tem um vídeo abordando esse tema, ele destaca vários pontos e alguns para quem tem a mesma cor de minha pele ou um pingo de empatia... Sente até calafrios! Vale a pena conferir.

  • @enrico5784
    @enrico5784 4 роки тому

    Ótima discussão e conteúdo.
    A Olimpíada Nacional de História do Brasil (ONHB) também a promoveu, só que com um texto da Fapesp.

  • @Arnoudbr
    @Arnoudbr 4 роки тому

    8:55 Já fui acreditei que tornar os algoritmos públicos resolveria o problema. A questão é que hoje eles são tão grandes com tantas variáveis(algumas delas inteligências artificiais) que pouquíssima gente no mundo seria capaz de entende-los.
    Além disso eles estão em constante mudança. Então o algoritmo publicado hoje já não seria o mesmo funcionando amanha, etc.
    Mas já seria um começo em mostrar à estas empresas que não podem agir impunemente.

  • @tomasbdepaula
    @tomasbdepaula 3 роки тому

    "Weapons of Math Destruction" é um livro absolutamente indispensável. TODOS deveríamos lê-lo, porque traz um esclarecimento urgente. Obra absolutamente referencial sobre muitas questões embutidas na aposta, que empresas e governos cada vez mais fazem, pela utilização de inteligência artificial, machine learning e big data para "solucionar" problemas.

  • @GretgorPooper
    @GretgorPooper 4 роки тому +1

    No primeiro caso, a questão é que a base de dados utilizada pra "ensinar" a rede neural pode conter mais fotos de brancos do que de negros, o que leva justamente a esse problema. Isso, por sua vez, pode evidenciar uma seletividade racista por parte de quem fez a base de dados.
    No segundo caso, eu acho que o problema é social. Infelizmente, devido a desigualdade, racismo e diversas outras injustiças sistêmicas, a maioria das mulheres negras trabalha justamente em empregos operacionais de baixo escalão, e portanto, são esses os tipos de emprego que elas mais buscam. Nesse aí eu acho que fica difícil culpar o Facebook, o problema é da sociedade capitalista mesmo. De qualquer forma, eu gostaria de ler os resultados dessa pesquisa, porque talvez eles tenham isolado fatores como escolaridade e classe social, e mesmo assim tenham achado os mesmos resultados. Se esse for o caso, aí sim, dá pra dizer que a culpa é do algoritmo.
    Esse do TikTok eu acho muito suspeito, não sei o que pensar dele. Tô achando que tem a ver com intervenção humana por parte de algum administrador racista, não com o algoritmo por si só.

    • @fhz3062
      @fhz3062 4 роки тому

      Parabéns pelo comentário. Críticas precisas.

    • @user-te3lz2bf5w
      @user-te3lz2bf5w 3 роки тому

      Eu acho que no primeiro o pessoal do twitter pegou umas stock image pra configura o código :V

  • @drimisiara1705
    @drimisiara1705 4 роки тому +1

    Assistindo isso, eu comecei a pensar no algoritmo dos anúncios aqui no UA-cam. Toda vez que eu assisto vcs, as propagandas são sempre a Betina ou o "Livro de Mórmon". Até que ponto eles mostrarem esses anúncios (que não têm nada a ver comigo) quando eu acesso o canal de vcs não contribui para que eu pule em vez de assistir, prejudicando a monetização de vocês?
    Será que a distribuição dos anúncios é aleatória independentemente de qual canal eu estou assistindo, ou ela é enviesada?

  • @dieltolo6112
    @dieltolo6112 4 роки тому +2

    Ahh a China, onde Negros não são aceitos em restaurantes, inclusive em fastfood internacionais

  • @Antonio-lv8zb
    @Antonio-lv8zb 4 роки тому

    Meteoro, talvez esteja andamento uma reciclagem sim, bom pesquisar e organizar material sobre a quarta teoria política, já materializada nas fileiras do PDT.

  • @augustofadanelli594
    @augustofadanelli594 4 роки тому +7

    Esses algoritmos normalmente são algoritmos de machine learning, ou seja, aprendem com o público. Não acredito q foram programados para serem racista mas aprenderam a se comportar assim com a comunidade pq gera mais dinheiro pra ferramenta. Por isso os problemas não foram identificados na primeira analise.

  • @MatheusKautzmann
    @MatheusKautzmann 4 роки тому +6

    Vídeo equivocado em vários pontos:
    1) Simplesmente erro de treinamento do modelo. Tem N algoritmos open source muito bons para esse fim. Não sei qual o Twitter utiliza. Mesmo com o modelo ideal ainda haverá a possibilidade de falsos positivos e negativos.
    2) Este é simples, o algoritmos apenas considera dados fornecidos à plataforma anteriormente, não há mágica. O objetivo do algoritmo é maximizar cliques ao seus anunciantes.
    3) Só vejo erro humano, questões das hashtags provavelmente um sistema anti-spam defeituoso.
    O que as redes poderiam ganhar sendo racistas? Além de parecerem horríveis na mídia? São erros. Não são intencionais.

    • @fhz3062
      @fhz3062 4 роки тому

      Crítica perfeita. Meteoro fez um vídeo sobre método científico e os cuidados com conclusões precipitadas. Alguns vídeos depois eles apresentam conclusões baseados em alguns exemplos de "erros" (na verdade está mais para vieses dos dados conforme você explicou) e destes exemplos já temos a generalização. Isso é mais ou menos dizer que "meu tio tomou cloroquina e melhorou, logo cloroquina funciona contra covid".
      Fico impressionado como o Meteoro faz um vídeo corretíssimo sobre método e erros de interepretação e comete o erro equivalente em um vídeo seguinte.

  • @Leosql
    @Leosql 4 роки тому +1

    @Meteoro, achei bem preocupante o roteiro do vídeo porque induz que o problema está nos algoritmos, quando não está. Isso ficou claro pra mim no trecho de "...os professores desses algoritmos...", que eu interpretei como "as pessoas que usam a plataforma", mas imagino que o texto queria dizer "os programadores".
    Algoritmos de aprendizado de máquina e inteligência artificial não devem ter viés em seu código, mas eles aprenderão como cada indivíduo responde aos anúncios e às postagens. Não é o código que daz o algoritmo ser racista, são as pessoas que ensinam-o a ser racista. Assim como uma pessoa não nasce racista, mas aprender a ser.
    Mas não serei leviano de dizer que nada precisa mudar, se não o discurso acima fica igual ao terrível "Guns don't kill people, people kill people". Precisa sim: algoritmos enviesados, que evitem que o comportamento racista seja replicado. Mas colocar a culpa no código ou no codificador, discordo veementemente.

  • @ivanmenalves3879
    @ivanmenalves3879 3 роки тому

    As redes sociais refletem o comportamento do mundo real, só que num ambiente rápido e raso, onde o legal é mitar, lacrar! Estamos perdendo a capacidade de debater e se colocar no lugar de outra pessoa. Triste isso.

  • @LeoGuto
    @LeoGuto 4 роки тому +8

    Absurdo né? Eu vi essa discussão há alguns dias mesmo... Surreal essa loucura!

    • @alanalriga
      @alanalriga 4 роки тому

      O pior é que sobre o Black Lives Matter realmente foi proposital porque isso poderia trazer problemas ao governo chinês, pelo fato que pra manter a "igualdade socialista chinesa" não poderia mostrar etnias diferentes lutando pelas suas vidas

    • @FootBall-bf2xl
      @FootBall-bf2xl 4 роки тому

      Absurda, loucura e surreal possui sentido lógico entre eles... até nos familiarizarmos com a matemática das máquinas influenciando as nossas vidas contemporâneas iremos perceber a nossa realidade como Absurda, surreal e loucura...

  • @AnndersonSouza
    @AnndersonSouza 4 роки тому +1

    Quando o Twitter diz: Vamos abrir nosso "source", será que ela não quiz dizer que abrirá o código para os profissionais programadores verificarem se há má intenção na promoção?

  • @pamellabiotec
    @pamellabiotec 4 роки тому

    A Discriminação algorítmica é uma realidade que deve ser enfrentada por todos nós. Devemos fazer pesquisa, monitorar as mídias sociais, denunciar toda vez que for necessário e quando apresentar tal problema. Mas, precisamos também promover maior inclusão social na produção tecnológica. A inserção e permanência de mulheres, brancas, negras ou indígenas é fundamental para desenvolver a diversidade no ramo tecnológico. Tendo em vista que a diversidade é igual inovação!

  • @sankirtana
    @sankirtana 4 роки тому

    Esse vídeo merece virar um longa metragem. Parabéns!

  • @rodrigotavares6297
    @rodrigotavares6297 4 роки тому

    Eu sou professor de computação aplicada, e existe de fato uma dificuldade da máquina de reconhecer rosto negro, nós meus estudos percebi que os filtros tem dificuldade com relação as diferenças de cores entre luz e sombra e cor de pele. Não sei se isso tem a ver com os algoritmos das plataformas, mas a dificuldade técnica existe.

  • @doorpshsi
    @doorpshsi 4 роки тому +1

    *A humanidade está falhando miseravelmente, infelizmente.*
    *Como se já não bastasse o racismo e preconceito das pessoas,*
    *imagine está está mesma estrutura racista e preconceituosa integrada*
    *nas RSs. (Redes Sociais).
    *
    *- Lamentável!
    *
    *[240920201958i433'/873]*

  • @LaMissProvence
    @LaMissProvence 4 роки тому

    Notei no Facebook a dificuldade de encontrar atualizações sobre a greve dos Correios entre outros assuntos de relevância ..

  • @diogoreis18
    @diogoreis18 4 роки тому

    Essas empresas tem tanto poder quanto alguns estados... Se as leis que regem o funcionamento das sociedades são de conhecimento público, os algoritmos também tem que ser.

  • @marceloteixeira514
    @marceloteixeira514 4 роки тому +1

    então, no mesmo trending que estava veiculando esse teste, alegaram que talvez seja o sorriso. quando colocaram a mesma foto, mas com obama sorrindo, o twitter identificou e destacou o rosto de obama.

  • @TheDenise70
    @TheDenise70 4 роки тому

    O pior que o fato da gente não usar redes sociais não impede que a maioria use e quem não usa sofre as consequências do mesmo modo

  • @JoaoPedro-io3dg
    @JoaoPedro-io3dg 4 роки тому +1

    Na verdade, não são, necessariamente, os profissionais que treinam as tecnologias que "colocam" o preconceito nesta. O que ocorre na realidade é que essas tecnologias são treinadas por grandes bases de dados, as quais contêm o preconceito.

  • @marcosmurrah
    @marcosmurrah 4 роки тому

    Isso tem que ser amplamente utilizado divulgado e compartilhado!!
    Necessariamente discutido

  • @EuOSena
    @EuOSena 4 роки тому

    Deveriamos levar nesta discussão o fato de a esmagadora maioria dos programadores das grandes indústrias serem héteros, brancos e de classe média-alta...
    Eles só replicam sua visão de mundo em seus trabalhos.
    A falta de miscigenação dentro das grandes empresas (nem digo a respeito apenas a cor, mas de tudo de modo geral) causa uma passada para o produto final (as redes) meio deturpada e única onde o que importa é a visão do progamador (que é predominantemente hétero, branco e com uma condição boa).
    E levo isso mais a fundo, o Facebook por exemplo não é bem adaptado estruturalmente para outras culturas, por que será né?

  • @kamis9940
    @kamis9940 4 роки тому

    Se o nosso país não fosse tão racista e machista, esse canal seria gigante e esse vídeo teria milhares de visualizações.

  • @jacquelinelima7327
    @jacquelinelima7327 4 роки тому

    Não fiquei surpresa. Abandonei um e-mail que tinha, pois, na página do provedor, no campo de comentários, eles estimulavam a discórdia. Se alguém colocava um comentário equilibrado, sem xingar, ficava no looping. Só apareciam os agressivos, com preconceitos.

  • @xand05
    @xand05 4 роки тому +1

    Abri o código fonte não dá certo não, pq a empresa não vai gastar esse dinheiro todo pra fazer uma coisa que depois todos vão pegar de graça.
    O Twitter tem mais de 5 mil funcionários, vamos dizer que 500 são programadores.
    O salário de um programador deles é por volta de R$ 4.000,00.
    Só em salário, é uns R$ 2.000.000,00 por mês.
    Fora as taxas, impostos, contas do servidor, energia, água, material de escritório, computadores para o trabalho, entre outras coisas.
    Se as pessoas assumirem o pagamento desse dinheiro, o código fonte é liberado com gosto.

  • @leaodegaza7656
    @leaodegaza7656 4 роки тому

    Em moçambique no meu grupo de amigos se fizeres piadas racistas seja para negro,mestiço ,branco,
    O ofendido tem o direito de te encher de porrada e ninguém se mete,seja ele de que cor for, e não importa
    A idade da pessoa que ofende o outro.
    Por isso não a racismo por lá.
    Abraço aqui da Suíça

  • @egrasser
    @egrasser 4 роки тому +1

    De repente não tô mais a fim de viver na matrix

  • @jonadabimorais5334
    @jonadabimorais5334 4 роки тому +5

    Assim que der, faz algo daqui pra mostrar pro Brasil inteiro sobre a estrutura de Garanhuns - Pernambuco, abraço

  • @fodao503
    @fodao503 4 роки тому

    saiu na netflix o dilema das redes um documentário muito importante para que todos entendam como essa indústria funciona!

  • @mdsm1
    @mdsm1 4 роки тому

    Será q é possível criar uma rede social gerida coletivamente cujos princípios básicos seja 1. Não tornar ninguém um produto vendendo dados; 2. Contra qualquer forma de racismo ou discriminação; 3. Permitir a todos se comunicarem efetivamente e eficientemente. 4. Tenha um conselho civil para deliberar melhoras e fiscalizar irregularidades. 5. Open Source ?

  • @jhonatanfernando2496
    @jhonatanfernando2496 4 роки тому

    No Facebook, os anúncios tem horas ou dias de aprendizado. Ou seja, a plataforma, quando o público é aberto, entrega para as pessoas em geral e conforme o anúncio for se encaixado nos interesses das pessoas ela vai segmentando do jeito que achar melhor.
    Se mais pessoas brancas se interessaram pelo primeiro anúncio, isso significa que através da experiência a plataforma descobriu que deveria entregar pro público que mais se interessou.

  • @djongaGod
    @djongaGod 4 роки тому +1

    Responsabilidade algorítimica é o termo.

  • @williamfonsecalima5540
    @williamfonsecalima5540 4 роки тому +1

    Eu como sei programar algoritmos posso provar que dá sim pra embutir a opinião do autor no código e fazer ele retornar exatamente o que o autor deseja e rejeitar o que ele não gosta. Ou seja não são seres metafísicos supraconcientes que tomam sempre as decisões mais puras e racionais através do computador

  • @matheusvercezi1672
    @matheusvercezi1672 4 роки тому

    O que me injúria são essas notas de desculpas das redes, vagas, falando em "ERRO"

  • @sandro221987
    @sandro221987 4 роки тому +10

    Eu não fazia ideia de que o racismo estava imbutido nas redes sociais dessa forma.

    • @deus2222
      @deus2222 4 роки тому +5

      Toda estrutura e racista. Até o casamento de pessoas que não se acham racistas, e foram edificados no racismo.

    • @Yeeg1
      @Yeeg1 4 роки тому +1

      Como alguem da area de programação, digamos que é MUITO errado falar que algoritimos são racistas. Pq o problema nao é a programação, mas quem programa ,pq com o tempo o proprio sistema se auto regula e exagera. A maioria dos programaodores são homens brancos do norte do mundo, os testes são feitos normalmente a partir do rostos deles mesmos e vao regulando a partir disso. Como isso vai sendo amplificado a medida que a inteligencia arficial vai aprimorando a partir disso. É mais fundo que isso, é um problema social!! Afinal a maioria dos probres sao negros e raramente um negro chega uma posição de que consiga chegar numa empresa a ponto de programar com sua visao. O mesmo para mulheres, é uma coisa muito segregada. O algortimo de qualquer rede social APRENDE COM OS USUARIOS, nossa intereração é que os treina. Então é um negocio muito mais complexo que racismo pq sei la, o programador é racista.

  • @genersoneduardo
    @genersoneduardo 4 роки тому +1

    Só recebo sugestão de amizade de gente magra, sexy ou mulher em redes como Instagram... Td bem, eu marquei meus interesses conforme o app pedia mas será se só tem um tipo de gente nessa mídia?

  • @aaronleao
    @aaronleao 4 роки тому

    No caso do Twitter uma solulção simples seria apenas abrir a base de dados de rostos e solicitar submissão do mundo para alimentar essa base. E pegar a o primeiro rosto e pronto, sem ficar selecionando.

  • @doomsk888
    @doomsk888 4 роки тому +1

    Se este comentário tivesse o alcance necessário, muito poderia ser aprendido e entendido. Mas sei que não será o caso. Mesmo assim vou escrever. O racismo é com certeza um problema estrutural na sociedade. As imagens colocadas no Twitter têm um algoritmo que detecta contornos na imagem, procurando por rostos, através de características marcantes na imagem que estão correlacionadas com rostos: como óculos, sorrisos, cabelo, etc. Se você colocar o Obama sorrindo e/ou usando óculos, ele será priorizado, por exemplo. A forma de desenvolver um algoritmo estará vinculado as limitações que são colocadas por quem o quer feito. Provavelmente deveriam ser utilizados algoritmos mais responsáveis para obter outras formas de análise da imagem, de forma a não depender simplesmente de traços que podem depender de condição da iluminação da imagem, da pele da pele ou de sua expressão facial.

  • @rsetepereira
    @rsetepereira 4 роки тому

    já deixo o like para o crescimento do canal!!