{"id":4540,"date":"2020-06-17T08:00:00","date_gmt":"2020-06-17T11:00:00","guid":{"rendered":"https:\/\/blogfca.pucminas.br\/colab\/?p=4540"},"modified":"2020-08-13T18:46:27","modified_gmt":"2020-08-13T21:46:27","slug":"racismo-algoritmico-o-preconceito-na-programacao","status":"publish","type":"post","link":"https:\/\/blogfca.pucminas.br\/colab\/racismo-algoritmico-o-preconceito-na-programacao\/","title":{"rendered":"Racismo algor\u00edtmico: o preconceito na programa\u00e7\u00e3o"},"content":{"rendered":"\n<p>Pode ser dif\u00edcil perceber como o racismo algor\u00edtmico atua nas redes digitais mas, de maneira impl\u00edcita e sutil, eles refor\u00e7am uma vis\u00e3o de mundo e influenciam a sociedade.<\/p>\n\n\n\n<p>Imagine que voc\u00ea quer fazer um penteado diferente no cabelo e pesquisa no <em>Google <\/em>Imagens algumas inspira\u00e7\u00f5es com o termo \u201ctran\u00e7as bonitas\u201d em uma aba do seu navegador e na outra, \u201ctran\u00e7as feias\u201d para ter exemplos do que n\u00e3o fazer. O resultado da busca te surpreende: na primeira pesquisa, s\u00e3o exibidas apenas imagens de mulheres brancas e de cabelo liso; na segunda, as fotos mostram mulheres negras de cabelo cacheado e crespo.<\/p>\n\n\n\n<p>Essa pol\u00eamica \u00e9 real e emergiu em julho de 2019, quando os resultados come\u00e7aram a ser discutidos no <em>Twitter<\/em>. Muitas pessoas se demonstraram desapontadas e indignadas com o modo como a plataforma designou as imagens para cada um dos resultados. A Google se manifestou horas depois se justificando que seus resultados refletem \u201cestere\u00f3tipos existentes na internet e no mundo real em fun\u00e7\u00e3o da maneira como alguns autores criam e rotulam seu conte\u00fado\u201d, mas que iriam trabalhar para mudar isso. Esse \u00e9 apenas um de muitos exemplos de como o racismo se faz presente no meio digital. Sistemas automatizadas, como buscadores, podem contribuir na manuten\u00e7\u00e3o de desigualdades estruturais e microagress\u00f5es cotidianas.<\/p>\n\n\n\n<p>Para que a automatiza\u00e7\u00e3o desses sistemas seja poss\u00edvel \u00e9 preciso fazer uso de algoritmos durante a programa\u00e7\u00e3o dos mesmos. Algoritmos s\u00e3o c\u00f3digos que v\u00e3o capacitar o sistema a perceber certos tipos de comportamento dos usu\u00e1rios para aprimorar seu funcionamento. O racismo algor\u00edtmico acontece quando sistemas que dependem de algoritmos podem perpetuar ou esconder preconceitos raciais que j\u00e1 est\u00e3o presentes na sociedade.<\/p>\n\n\n\n<p>De acordo com a mestre e doutoranda em Ci\u00eancia da Computa\u00e7\u00e3o pela Universidade Federal de Minas Gerais (UFMG) Camila Laranjeira, existem dois tipos de algoritmos: os que aprendem com dados, ou seja, que obedecem aos comandos implementados; e aqueles que s\u00e3o treinados a partir de exemplos que lhes s\u00e3o apresentados e expostos. \u201cO problema est\u00e1 nesse \u00faltimo modelo, porque as pessoas acabam considerando que ele \u00e9 mais neutro, por n\u00e3o ter sido explicitamente programado por um ser humano. Mas, na verdade, \u00e9 apenas o vi\u00e9s que muda de foco, ao em vez de ser um c\u00f3digo instalado, o algoritmo \u00e9 alimentado por dados selecionados por quem o produziu\u201d, explica Camila.<\/p>\n\n\n\n<p>Al\u00e9m disso, a especialista refor\u00e7a a import\u00e2ncia de compreender que o algoritmo em si n\u00e3o pratica o racismo e, sim, as pessoas que o desenvolveram. \u201cO racismo est\u00e1 justamente nas informa\u00e7\u00f5es que s\u00e3o repassadas para esses sistemas, pois elas s\u00e3o os resultados de uma sociedade estruturalmente opressora e racista\u201d, diz.<\/p>\n\n\n\n<p>Os algoritmos das plataformas e <em>softwares<\/em> utilizam informa\u00e7\u00f5es vindas dos chamados bancos de dados. Essas informa\u00e7\u00f5es incluem classe social, g\u00eanero, gostos pessoais, cidade onde mora, profiss\u00e3o\u2026 Normalmente, s\u00e3o usadas para as mais diversas finalidades, e suas aplica\u00e7\u00f5es v\u00e3o depender do prop\u00f3sito de cada tecnologia. Um exemplo simples disso s\u00e3o as indica\u00e7\u00f5es de filmes da <em>Netflix<\/em> ou os tipos de produtos \u00e0 venda que aparecem no seu perfil pessoal de rede social digital depois que voc\u00ea faz uma busca por um produto em uma loja online.<\/p>\n\n\n\n<p>Assim, a programa\u00e7\u00e3o dos algor\u00edtmicos representa as caracter\u00edsticas predominantes da nossa sociedade, porque s\u00e3o seus programadores que moldam suas funcionalidades. \u201c\u00c9 importante ficar atento se o banco de dados consultado realmente \u00e9 representativo, pois a falta disso traz diversas consequ\u00eancias, entre elas, a cria\u00e7\u00e3o de um ciclo vicioso carregado de ideologias contra pessoas negras. Al\u00e9m de uma vis\u00e3o limitada sobre a realidade\u201d, ressalta Camila.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Como o racismo algor\u00edtmico influencia na nossa vida?<\/h2>\n\n\n\n<p>O Google \u00e9 um dos sites mais usados no mundo e uma das principais ferramentas de busca e acesso \u00e0 informa\u00e7\u00e3o no planeta. \u00c9 considerado o \u201cor\u00e1culo\u201d do homem contempor\u00e2neo. , isso quer dizer que grande parte das pessoas confiam nos resultados por ele apresentados e, quase sempre, elas tomam decis\u00f5es orientadas pelos primeiros resultados.<\/p>\n\n\n\n<p>Entretanto, nem sempre o algoritmo da plataforma de buscas usa informa\u00e7\u00f5es de forma adequada. Segundo pesquisa realizada pelo Instituto Brasileiro de Pesquisa e An\u00e1lise de Dados (IBPAD), ao buscarmos o termo \u201cfam\u00edlia\u201d no <em>Google Imagens,<\/em>&nbsp; a maior parte dos resultados s\u00e3o de fam\u00edlias brancas \u2013 para ver as fotos de pessoas negras, \u00e9 preciso rolar o cursor at\u00e9 o fim da p\u00e1gina. Portanto, os primeiros resultados da busca, ou seja, os mais clicados, s\u00e3o sempre os de pessoas brancas. Isso demonstra como existe uma l\u00f3gica de n\u00e3o associa\u00e7\u00e3o de pessoas negras ao conceito de fam\u00edlia. O que, por sua vez, contribui para invisibilizar as fam\u00edlias negras e dissoci\u00e1-las de outros termos de pesquisa.<\/p>\n\n\n\n<p>\u201cPortanto, a ordem dos resultados, definida algoritmicamente, tem papel relevante na reprodu\u00e7\u00e3o de representa\u00e7\u00f5es e acesso a informa\u00e7\u00f5es consoantes ou dissonantes de olhares hegem\u00f4nicos ou contra-hegem\u00f4nicos\u201d, explicaTarc\u00edzio Silva, Co-fundador e Diretor de Pesquisa de Comunica\u00e7\u00e3o do Instituto Brasileiro de Pesquisa e An\u00e1lise de Dados. Dessa maneira, essas informa\u00e7\u00f5es podem servir tanto para determinada empresa desenvolver um produto, como para refor\u00e7ar preconceitos e estere\u00f3tipos relacionados a popula\u00e7\u00e3o negra na sociedade.<\/p>\n\n\n\n<p>A jornalista e doutora em Comunica\u00e7\u00e3o pela Universidade Federal de Minas Gerais (UFMG), Amanda Chevtchouk Jurno, explica que como as empresas respons\u00e1veis pelas redes sociais e grandes sites, como <em>Google e Amazon<\/em> est\u00e3o nos Estados Unidos, \u201cmais precisamente, na Calif\u00f3rnia, a vis\u00e3o de mundo que guia esses sites \u00e9 apenas a dessa regi\u00e3o, fazendo com que conte\u00fados pertencentes a outros contextos sejam prejudicados\u201d.<\/p>\n\n\n\n<p>Como exemplo, ela cita a quest\u00e3o da exposi\u00e7\u00e3o de mamilos femininos no <em>Instagram e Facebook<\/em>, que considera impr\u00f3pria imagens desse teor. \u201cNos EUA \u00e9 incomum que mulheres exibam os seios em p\u00fablico, e como essas redes s\u00e3o produzidas por americanos, esse tipo de conte\u00fado passa a ser considerado inadequado. Em outras culturas, como a ind\u00edgena, as mulheres ficam todo tempo com seios \u00e0 mostra; as europeias fazem <em>topless <\/em>nas praias\u201d, explica.<\/p>\n\n\n\n<p>Em outubro de 2016, a revista <em>Piseagrama<\/em> teve sua p\u00e1gina no <em>Facebook<\/em> bloqueada ap\u00f3s publicar uma foto de uma mulher ind\u00edgena com os seios \u00e0 mostra. Como a repercuss\u00e3o da situa\u00e7\u00e3o se restringiu aos seguidores da p\u00e1gina, a plataforma n\u00e3o reverteu o bloqueio. A <em>Piseagrama<\/em> teve que criar nova p\u00e1gina e publicar a foto novamente, desta vez editada, cobrindo os seios da mulher ind\u00edgena.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><a href=\"https:\/\/piseagrama.org\/algoritmos-e-cosmopoliticas\/\"><img loading=\"lazy\" decoding=\"async\" width=\"1004\" height=\"528\" src=\"https:\/\/blogfca.pucminas.br\/colab\/wp-content\/uploads\/2020\/06\/penagrama.png\" alt=\"\" class=\"wp-image-4544\" srcset=\"https:\/\/blogfca.pucminas.br\/colab\/wp-content\/uploads\/2020\/06\/penagrama.png 1004w, https:\/\/blogfca.pucminas.br\/colab\/wp-content\/uploads\/2020\/06\/penagrama-300x158.png 300w, https:\/\/blogfca.pucminas.br\/colab\/wp-content\/uploads\/2020\/06\/penagrama-768x404.png 768w, https:\/\/blogfca.pucminas.br\/colab\/wp-content\/uploads\/2020\/06\/penagrama-370x195.png 370w, https:\/\/blogfca.pucminas.br\/colab\/wp-content\/uploads\/2020\/06\/penagrama-270x142.png 270w, https:\/\/blogfca.pucminas.br\/colab\/wp-content\/uploads\/2020\/06\/penagrama-570x300.png 570w, https:\/\/blogfca.pucminas.br\/colab\/wp-content\/uploads\/2020\/06\/penagrama-740x389.png 740w\" sizes=\"auto, (max-width: 1004px) 100vw, 1004px\" \/><\/a><figcaption>Post feito na p\u00e1gina da <em>Piseagrama<\/em>, com a imagem editada, agora cobrindo os seios da mulher ind\u00edgena \/ Reprodu\u00e7\u00e3o<\/figcaption><\/figure>\n\n\n\n<p>Nana Miranda, pesquisadora sobre racismo algor\u00edtmico no YouTube, tamb\u00e9m prop\u00f5e o questionamento das condi\u00e7\u00f5es em que os algoritmos s\u00e3o gerados . \u201cO fato de o desenvolvimento dessas tecnologias estar concentrado em pessoas espec\u00edficas, geralmente homens cisg\u00eanero, heterossexuais e de classes sociais mais altas, diz muito sobre um <em>locus<\/em> de enuncia\u00e7\u00e3o. O problema \u00e9 que esse padr\u00e3o vira universal e dita como ser\u00e3o as experi\u00eancias de pessoas que n\u00e3o vivenciam essas circunst\u00e2ncias\u201d, diz ela.<\/p>\n\n\n\n<p>Para a pesquisadora, quem produz essas tecnologias n\u00e3o consegue apreender outras subjetividades e isso afeta diretamente o resultado de como elas s\u00e3o aplicadas. Outra quest\u00e3o apresentada por Nana Miranda \u00e9 a relev\u00e2ncia dos indiv\u00edduos envolvidos quando ocorrem casos de racismo algor\u00edtmico: \u201cQuanto mais relevante forem as pessoas, mais r\u00e1pido a situa\u00e7\u00e3o \u00e9 solucionada\u201d.<\/p>\n\n\n\n<p>Em novembro de 2009, a <em>Google <\/em>lidou de outra maneira quando foram encontradas imagens da ent\u00e3o primeira dama dos Estados Unidos, Michelle Obama, editadas para que ela se parecesse com um macaco. Por ser uma figura p\u00fablica, ocupando cargo de alta visibilidade em todo o mundo, a empresa logo se pronunciou, afirmando que a p\u00e1gina na qual a imagem estava era uma fonte de v\u00edrus e retirando o link correspondente do site de busca.<\/p>\n\n\n\n<p>No entanto, outro link com a mesma imagem voltou a aparecer nos primeiros resultados de busca por imagens de Michelle Obama. A <em>Google <\/em>disse n\u00e3o ter como controlar seu algoritmo de busca que ranqueia resultados organicamente e que s\u00f3 iria excluir a p\u00e1gina se violasse as regras de uso do site, sob obriga\u00e7\u00e3o legal ou a pedido do respons\u00e1vel da p\u00e1gina em quest\u00e3o. At\u00e9 hoje \u00e9 poss\u00edvel encontrar a imagem no site de busca. Mesmo que o caso n\u00e3o tenha sido solucionado, \u00e9 not\u00f3ria a diferen\u00e7a de retrata\u00e7\u00e3o entre a Piseagrama e Michelle Obama.<\/p>\n\n\n\n<p>Nana Miranda explica que estas quest\u00f5es s\u00e3o, relativamente, novas e por isso, se existe dificuldade em punir crimes de racismo, cibern\u00e9ticos ou n\u00e3o, responsabilizar pr\u00e1ticas das plataformas seria ainda mais dif\u00edcil. \u201cAs grandes corpora\u00e7\u00f5es tamb\u00e9m n\u00e3o assumem esse tipo de problema ou, quando o fazem, s\u00e3o em casos muito pontuais. Esta n\u00e3o \u00e9 uma quest\u00e3o encarada como um problema estrutural e isso dificulta a resolu\u00e7\u00e3o do problema\u201d, complementa.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Casos de racismo algor\u00edtmico<\/h2>\n\n\n\n<p>Em julho de 2019 o aplicativo e site <em>AI Portraits Ars<\/em> ganhou diversos usu\u00e1rios, o objetivo era criar uma vers\u00e3o renascentista de selfies a partir de fotografias que recriam pinturas do s\u00e9culo 15. O usu\u00e1rio faz o <em>upload<\/em> de uma foto que \u00e9 utilizada pelo sistema de&nbsp; intelig\u00eancia artificial (IA) para recria\u00e7\u00e3o, resultando em uma imagem que tenha express\u00f5es e caracter\u00edsticas da \u00e9poca. Desenvolvedores do site o criaram a partir de um banco de dados com mais de 45 mil retratos cl\u00e1ssicos de pinturas a \u00f3leo, aquarela ou tinta, sendo treinado a partir desses exemplos.<\/p>\n\n\n\n<p>Por se tratar de um per\u00edodo art\u00edstico com obras produzidas na europa ocidental, as pinturas representavam pessoas que eram maioria daquela regi\u00e3o: indiv\u00edduos brancos. Portanto, o banco de dados do <em>AI Portraits Ars <\/em>tinha como base tra\u00e7os \u00e9tnicos de pessoas, aplicando-os na cria\u00e7\u00e3o das imagens inspiradas no renascentismo. Isso fez com que pessoas negras que utilizaram o aplicativo tivessem sua pele clareada e seus tra\u00e7os afinados na imagem final. Assim, as fotografias produzidas como resultado da edi\u00e7\u00e3o apresentaram sinal de racismo. Hoje, o site n\u00e3o est\u00e1 mais dispon\u00edvel.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><a href=\"https:\/\/mashable.com\/article\/ai-portrait-generator-pocs\/\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"512\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" src=\"https:\/\/blogfca.pucminas.br\/colab\/wp-content\/uploads\/2020\/06\/A-cantora-Kehlani-teve-seus-tra\u00e7os-afinados-al\u00e9m-da-pele-clareada-1024x512.jpg\" alt=\"\" class=\"wp-image-4542\" srcset=\"https:\/\/blogfca.pucminas.br\/colab\/wp-content\/uploads\/2020\/06\/A-cantora-Kehlani-teve-seus-tra\u00e7os-afinados-al\u00e9m-da-pele-clareada-1024x512.jpg 1024w, https:\/\/blogfca.pucminas.br\/colab\/wp-content\/uploads\/2020\/06\/A-cantora-Kehlani-teve-seus-tra\u00e7os-afinados-al\u00e9m-da-pele-clareada-300x150.jpg 300w, https:\/\/blogfca.pucminas.br\/colab\/wp-content\/uploads\/2020\/06\/A-cantora-Kehlani-teve-seus-tra\u00e7os-afinados-al\u00e9m-da-pele-clareada-768x384.jpg 768w, https:\/\/blogfca.pucminas.br\/colab\/wp-content\/uploads\/2020\/06\/A-cantora-Kehlani-teve-seus-tra\u00e7os-afinados-al\u00e9m-da-pele-clareada-370x185.jpg 370w, https:\/\/blogfca.pucminas.br\/colab\/wp-content\/uploads\/2020\/06\/A-cantora-Kehlani-teve-seus-tra\u00e7os-afinados-al\u00e9m-da-pele-clareada-270x135.jpg 270w, https:\/\/blogfca.pucminas.br\/colab\/wp-content\/uploads\/2020\/06\/A-cantora-Kehlani-teve-seus-tra\u00e7os-afinados-al\u00e9m-da-pele-clareada-570x285.jpg 570w, https:\/\/blogfca.pucminas.br\/colab\/wp-content\/uploads\/2020\/06\/A-cantora-Kehlani-teve-seus-tra\u00e7os-afinados-al\u00e9m-da-pele-clareada-740x370.jpg 740w, https:\/\/blogfca.pucminas.br\/colab\/wp-content\/uploads\/2020\/06\/A-cantora-Kehlani-teve-seus-tra\u00e7os-afinados-al\u00e9m-da-pele-clareada.jpg 1068w\" \/><\/a><figcaption>A cantora Kehlani teve seus tra\u00e7os afinados, al\u00e9m da pele clareada \/ Reprodu\u00e7\u00e3o<\/figcaption><\/figure>\n\n\n\n<p><\/p>\n\n\n\n<figure class=\"wp-block-image size-large is-resized\"><a href=\"https:\/\/mashable.com\/article\/ai-portrait-generator-pocs\/\"><img loading=\"lazy\" decoding=\"async\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" src=\"https:\/\/blogfca.pucminas.br\/colab\/wp-content\/uploads\/2020\/06\/O-mesmo-aconteceu-com-a-atriz-Tessa-Thompson-e-suas-tran\u00e7as-foram-apagadas-na-edi\u00e7\u00e3o-1024x512.jpg\" alt=\"\" class=\"wp-image-4543\" width=\"650\" height=\"325\" srcset=\"https:\/\/blogfca.pucminas.br\/colab\/wp-content\/uploads\/2020\/06\/O-mesmo-aconteceu-com-a-atriz-Tessa-Thompson-e-suas-tran\u00e7as-foram-apagadas-na-edi\u00e7\u00e3o-1024x512.jpg 1024w, https:\/\/blogfca.pucminas.br\/colab\/wp-content\/uploads\/2020\/06\/O-mesmo-aconteceu-com-a-atriz-Tessa-Thompson-e-suas-tran\u00e7as-foram-apagadas-na-edi\u00e7\u00e3o-300x150.jpg 300w, https:\/\/blogfca.pucminas.br\/colab\/wp-content\/uploads\/2020\/06\/O-mesmo-aconteceu-com-a-atriz-Tessa-Thompson-e-suas-tran\u00e7as-foram-apagadas-na-edi\u00e7\u00e3o-768x384.jpg 768w, https:\/\/blogfca.pucminas.br\/colab\/wp-content\/uploads\/2020\/06\/O-mesmo-aconteceu-com-a-atriz-Tessa-Thompson-e-suas-tran\u00e7as-foram-apagadas-na-edi\u00e7\u00e3o-370x185.jpg 370w, https:\/\/blogfca.pucminas.br\/colab\/wp-content\/uploads\/2020\/06\/O-mesmo-aconteceu-com-a-atriz-Tessa-Thompson-e-suas-tran\u00e7as-foram-apagadas-na-edi\u00e7\u00e3o-270x135.jpg 270w, https:\/\/blogfca.pucminas.br\/colab\/wp-content\/uploads\/2020\/06\/O-mesmo-aconteceu-com-a-atriz-Tessa-Thompson-e-suas-tran\u00e7as-foram-apagadas-na-edi\u00e7\u00e3o-570x285.jpg 570w, https:\/\/blogfca.pucminas.br\/colab\/wp-content\/uploads\/2020\/06\/O-mesmo-aconteceu-com-a-atriz-Tessa-Thompson-e-suas-tran\u00e7as-foram-apagadas-na-edi\u00e7\u00e3o-740x370.jpg 740w, https:\/\/blogfca.pucminas.br\/colab\/wp-content\/uploads\/2020\/06\/O-mesmo-aconteceu-com-a-atriz-Tessa-Thompson-e-suas-tran\u00e7as-foram-apagadas-na-edi\u00e7\u00e3o.jpg 1068w\" \/><\/a><figcaption>O mesmo aconteceu com a atriz Tessa Thompson, e suas tran\u00e7as foram apagadas na edi\u00e7\u00e3o \/ Reprodu\u00e7\u00e3o<\/figcaption><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\">O caso do Google Photos<\/h2>\n\n\n\n<p>Outro exemplo de um caso que apresentou vi\u00e9s racista foi o <em>Google Photos<\/em>, que classificava fotografias de pessoas negras como gorilas. Esse dispositivo da Google cria \u00e1lbuns para o usu\u00e1rio sem ser solicitado, diferenciado por \u201cetiquetas\u201d de pessoas e momentos, como por exemplo, eventos ou viagens. Nessa situa\u00e7\u00e3o, um grupo de amigos nova-iorquinos passeavam em um parque e tiraram fotografias e, ao final do dia, a <em>Google Photos<\/em> sugeriu criar o \u00e1lbum \u201cgorilas\u201d para a cole\u00e7\u00e3o de imagens, demonstrando o preconceito presente nessas bases de dados.<\/p>\n\n\n\n<p><em>\u201c<\/em>Teve uma resposta popular muito forte, porque a <em>Google<\/em> n\u00e3o teve cuidado de considerar o vi\u00e9s no algoritmo, e sabemos como \u00e9 extremamente essencial que tomemos cuidado com isso, pois alimenta um vi\u00e9s muito nocivo para a nossa sociedade\u201d, comenta Camila Laranjeira. Al\u00e9m disso, o fato de a intelig\u00eancia artificial aprender com dados alimentados majoritariamente por pessoas brancas, refor\u00e7a um c\u00edrculo vicioso de racismo e preconceito. Por exemplo, em pesquisas que s\u00e3o feitas para classificar a probabilidade de uma pessoa ser presa ou n\u00e3o, o resultado pode trazer vi\u00e9s racista por relacionar pessoas negras ao crime, ou promover uma vis\u00e3o de criminaliza\u00e7\u00e3o por etnia, consequ\u00eancia de uma sociedade racista e que vive o encarceramento desmedido dessa popula\u00e7\u00e3o.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Racismo na publicidade<\/h2>\n\n\n\n<p>A representatividade de pessoas negras em campanhas publicit\u00e1rias, comerciais e nas redes sociais \u00e9 algo que tem sido cada vez mais cobrado pela sociedade. Essa demanda tem gerado algumas mudan\u00e7as nos materiais divulgados por marcas que se preocupam em estar engajadas socialmente.<\/p>\n\n\n\n<p>Entretanto, bancos de imagens &#8211; tanto gratuitos, quanto pagos &#8211; n\u00e3o correspondem a esse processo de conscientiza\u00e7\u00e3o. Os famosos <em>Shutterstock, Getty Images, iStock Photos e Depositphotos <\/em>foram utilizados na iniciativa baiana Desabafo Social, realizada em 2017 por Monique Evelle. Em um v\u00eddeo, ela demonstra como na pesquisa dos termos \u201cfam\u00edlia\u201d, \u201cpessoa\u201d, \u201cbeb\u00ea\u201d e \u201cpele\u201d, a grande maioria das imagens apresentadas \u00e9 de pessoas brancas, o que causa uma desassocia\u00e7\u00e3o entre esses conceitos e pessoas negras.<\/p>\n\n\n\n<p>A estudante de rela\u00e7\u00f5es p\u00fablicas e mulher negra, Alessandra Oliveira, percebe como o racismo algor\u00edtmico afeta os bancos de imagens em seu est\u00e1gio. \u201cQuando produzo pe\u00e7as gr\u00e1ficas, utilizo bancos de imagens e noto que em pesquisas gerais tenho que rolar muito a p\u00e1gina para encontrar fotos com pessoas negras ou, ent\u00e3o, incluir \u2018negro\u2019 na busca\u201d, relata a estudante. Em um est\u00e1gio anterior, teve que produzir uma pe\u00e7a para postagem motivacional e buscou o termo \u201ccasais felizes\u201d, mas percebeu que pelo menos as 100 primeiras imagens exibidas eram de pessoas brancas. \u201cMesmo quando coloquei \u2018casais negros felizes\u2019 e \u2018casal interraciais felizes\u2019, apareciam imagens de casais brancos\u201d, complementa.<\/p>\n\n\n\n<p>No seu trabalho, ela d\u00e1 prefer\u00eancia por imagens que tenham indiv\u00edduos que representem diversidade em suas produ\u00e7\u00f5es, mas se diz decepcionada e frustrada por n\u00e3o encontrar pessoas que se pare\u00e7am com ela nos bancos de imagem. \u201cParece que estou numa corrida em que a linha de chegada toda vez \u00e9 alterada, exclusivamente para mim e para outras pessoas pretas, e as brancas j\u00e1 est\u00e3o com suas medalhas e muitas delas sem ter que correr\u201d.<\/p>\n\n\n\n<p>Para Alessandra \u00e9 revoltante que o racismo na publicidade n\u00e3o seja considerado como discrimina\u00e7\u00e3o pela sociedade, assim como v\u00e1rias outras micro agress\u00f5es, que \u201ca branquitude n\u00e3o v\u00ea como tal e, por isso, muitas vezes silencia\u201d, acrescenta.<\/p>\n\n\n\n<p>Por tamb\u00e9m se sentirem silenciados e n\u00e3o representados, um grupo de criadores negros da ag\u00eancia SHADE, de Brooklyn NYC, criou o <em>Nappy<\/em>, um banco de imagens com fotos de alta resolu\u00e7\u00e3o de pessoas negras. Na descri\u00e7\u00e3o do site, idealizadores comentam: \u201c[\u2026] se voc\u00ea digitar a palavra \u2018caf\u00e9\u2019 no <em>Unsplash<\/em> (outro site de imagens gr\u00e1tis), raramente ver\u00e1 uma x\u00edcara de caf\u00e9 sendo segurada por m\u00e3os pretas. \u00c9 o mesmo resultado se voc\u00ea digitar termos como \u2018computador\u2019 ou \u2018viajar\u2019. Voc\u00ea pode encontrar uma ou duas imagens, mas elas s\u00e3o muito raras. Mas os negros tamb\u00e9m bebem caf\u00e9, usamos computadores e certamente amamos viajar\u201d, relata.&nbsp;<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Como combater o racismo algor\u00edtmico<\/h2>\n\n\n\n<p>Apesar de discuss\u00f5es \u00e9ticas e jur\u00eddicas a respeito de algoritmos serem cada vez mais comuns, ainda n\u00e3o existe uma regula\u00e7\u00e3o pr\u00f3pria, e assim, continuam reproduzindo preconceitos e opini\u00f5es com vi\u00e9s racista. Camila Laranjeira afirma que o caminho para diminuir o racismo algor\u00edtmico seria a incorpora\u00e7\u00e3o de pessoas negras na execu\u00e7\u00e3o das tecnologias e o uso dessa pr\u00f3pria tecnologia para manipular, no melhor dos sentidos, alguns dados para diminuir estere\u00f3tipos (ela cita o exemplo da popula\u00e7\u00e3o carcer\u00e1ria).<\/p>\n\n\n\n<p>Para Nana Miranda, \u00e9 preciso democratizar a tecnologia e o acesso \u00e0 internet. \u201cAtualmente, existe uma concentra\u00e7\u00e3o midi\u00e1tica muito grande por parte de corpora\u00e7\u00f5es como Google, Amazon, Facebook e Apple. Essa concentra\u00e7\u00e3o \u00e9 nociva por causa desse locus de enuncia\u00e7\u00e3o, pois s\u00e3o tecnologias vindas sempre dos mesmos pa\u00edses, que acabam imprimindo seus padr\u00f5es sociais e culturais\u201d, explica. A pesquisadora ressalta que \u00e9 necess\u00e1rio que haja uma regula\u00e7\u00e3o espec\u00edfica para que os ambientes se tornem mais democr\u00e1ticos. Para que isso aconte\u00e7a, \u00e9 importante que a sociedade civil, junto com \u00f3rg\u00e3os governamentais, estejam mais atentos para que essas corpora\u00e7\u00f5es ajam de forma mais respons\u00e1vel.<\/p>\n\n\n\n<p>Nana conclui que, junto \u00e0 democratiza\u00e7\u00e3o e \u00e0 regula\u00e7\u00e3o das m\u00eddias, \u00e9 preciso que as pessoas tenham acesso a uma educa\u00e7\u00e3o digital. \u201cEsse \u2018letramento algor\u00edtmico\u2019 permite que saibamos como as m\u00eddias s\u00e3o consumidas e utilizadas por n\u00f3s. \u00c9 imprescind\u00edvel democratizar o conhecimento para a forma\u00e7\u00e3o de pensamentos cr\u00edticos acerca das tecnologias, que cada vez mais est\u00e3o presentes no nosso cotidiano\u201d, exp\u00f5e.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Microagress\u00f5es<\/h3>\n\n\n\n<p>O termo \u201cmicroagress\u00e3o\u201d \u00e9 utilizado, para traduzir o sentimento de pessoas que, por algum motivo, sentem-se afetadas por \u201cindignidades verbais\u201d, comportamentos do cotidiano intencionais ou n\u00e3o, que comunicam desprezo e insultos sutis, depreciativos ou negativos a pessoas negras e outras minorias.<\/p>\n\n\n\n<p>&nbsp;Para ilustrar o que significa, suponhamos que algu\u00e9m toque, sem permiss\u00e3o o cabelo de uma pessoa negra. Ainda que a inten\u00e7\u00e3o possa ter sido carinhosa, o gesto \u00e9 uma forma de perpetua\u00e7\u00e3o da ideia de que indiv\u00edduos com determinadas etnias n\u00e3o possuem autonomia. Portanto, n\u00e3o s\u00e3o vistos como pessoas com vontades e sentimentos, que devem ter seus corpos preservados e seu espa\u00e7o respeitado.<\/p>\n\n\n\n<p>Da mesma forma, microagressores se materializam dentro do ambiente virtual, na medida em que pessoas que n\u00e3o est\u00e3o dentro do padr\u00e3o (negros, ind\u00edgenas, pardos e mesti\u00e7os) s\u00e3o sub-representadas nas mais diversas plataformas. Portanto, sua presen\u00e7a online e tudo o que diz respeito a essas pessoas na maior parte do tempo recebe pouca import\u00e2ncia. Um exemplo disso, aconteceu em 2009, em uma ocasi\u00e3o em que o software de reconhecimento facial da Hewlett-Packward (HP) n\u00e3o conseguia identificar o rosto de um funcion\u00e1rio negro. Tal situa\u00e7\u00e3o se configura como uma migroagress\u00e3o, pois a pessoa, ao n\u00e3o ter seu rosto reconhecido, pode se sentir constrangida em meio aos demais. Essa falha do sistema diz muito sobre os vieses preconceituosos que podem estar embutidos nos aplicativos e algoritmos.<\/p>\n\n\n\n<hr class=\"wp-block-separator\"\/>\n\n\n\n<pre class=\"wp-block-verse\">Reportagem produzida na disciplina de Edi\u00e7\u00e3o Jornal\u00edstica, sob a supervis\u00e3o da professora Ver\u00f4nica Soares da Costa, pelos estudantes Debora Drumond, Francielle Laudino, Henrique Perez, Jos\u00e9 Aparecido, J\u00falia Bahia e L\u00edvia Rigueira.<\/pre>\n","protected":false},"excerpt":{"rendered":"<p>Sistemas que dependem de algoritmos podem perpetuar ou esconder preconceitos raciais.<\/p>\n","protected":false},"author":7,"featured_media":4543,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_eb_attr":"","ngg_post_thumbnail":0,"footnotes":""},"categories":[4],"tags":[207,184,205,16],"class_list":["post-4540","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ciencia","tag-programacao","tag-racismo","tag-racismo-algoritmico","tag-tecnologia"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.4 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Racismo algor\u00edtmico: o preconceito na programa\u00e7\u00e3o - Colab<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/blogfca.pucminas.br\/colab\/racismo-algoritmico-o-preconceito-na-programacao\/\" \/>\n<meta property=\"og:locale\" content=\"pt_BR\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Racismo algor\u00edtmico: o preconceito na programa\u00e7\u00e3o - Colab\" \/>\n<meta property=\"og:description\" content=\"Sistemas que dependem de algoritmos podem perpetuar ou esconder preconceitos raciais.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/blogfca.pucminas.br\/colab\/racismo-algoritmico-o-preconceito-na-programacao\/\" \/>\n<meta property=\"og:site_name\" content=\"Colab\" \/>\n<meta property=\"article:publisher\" content=\"https:\/\/www.facebook.com\/colabpucminas\" \/>\n<meta property=\"article:author\" content=\"https:\/\/www.facebook.com\/colabpucminas\" \/>\n<meta property=\"article:published_time\" content=\"2020-06-17T11:00:00+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2020-08-13T21:46:27+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/blogfca.pucminas.br\/colab\/wp-content\/uploads\/2020\/06\/O-mesmo-aconteceu-com-a-atriz-Tessa-Thompson-e-suas-tran\u00e7as-foram-apagadas-na-edi\u00e7\u00e3o.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1068\" \/>\n\t<meta property=\"og:image:height\" content=\"534\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Colab PUC Minas\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@https:\/\/twitter.com\/colabpucminas\" \/>\n<meta name=\"twitter:site\" content=\"@colabpucminas\" \/>\n<meta name=\"twitter:label1\" content=\"Escrito por\" \/>\n\t<meta name=\"twitter:data1\" content=\"Colab PUC Minas\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. tempo de leitura\" \/>\n\t<meta name=\"twitter:data2\" content=\"15 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\\\/\\\/blogfca.pucminas.br\\\/colab\\\/racismo-algoritmico-o-preconceito-na-programacao\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/blogfca.pucminas.br\\\/colab\\\/racismo-algoritmico-o-preconceito-na-programacao\\\/\"},\"author\":{\"name\":\"Colab PUC Minas\",\"@id\":\"https:\\\/\\\/blogfca.pucminas.br\\\/colab\\\/#\\\/schema\\\/person\\\/1558d8148a80ebc84231cd55495bd7a4\"},\"headline\":\"Racismo algor\u00edtmico: o preconceito na programa\u00e7\u00e3o\",\"datePublished\":\"2020-06-17T11:00:00+00:00\",\"dateModified\":\"2020-08-13T21:46:27+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/blogfca.pucminas.br\\\/colab\\\/racismo-algoritmico-o-preconceito-na-programacao\\\/\"},\"wordCount\":3009,\"commentCount\":4,\"publisher\":{\"@id\":\"https:\\\/\\\/blogfca.pucminas.br\\\/colab\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/blogfca.pucminas.br\\\/colab\\\/racismo-algoritmico-o-preconceito-na-programacao\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/blogfca.pucminas.br\\\/colab\\\/wp-content\\\/uploads\\\/2020\\\/06\\\/O-mesmo-aconteceu-com-a-atriz-Tessa-Thompson-e-suas-tran\u00e7as-foram-apagadas-na-edi\u00e7\u00e3o.jpg\",\"keywords\":[\"programa\u00e7\u00e3o\",\"racismo\",\"racismo algor\u00edtmico\",\"tecnologia\"],\"articleSection\":[\"Ci\u00eancia\"],\"inLanguage\":\"pt-BR\",\"potentialAction\":[{\"@type\":\"CommentAction\",\"name\":\"Comment\",\"target\":[\"https:\\\/\\\/blogfca.pucminas.br\\\/colab\\\/racismo-algoritmico-o-preconceito-na-programacao\\\/#respond\"]}]},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/blogfca.pucminas.br\\\/colab\\\/racismo-algoritmico-o-preconceito-na-programacao\\\/\",\"url\":\"https:\\\/\\\/blogfca.pucminas.br\\\/colab\\\/racismo-algoritmico-o-preconceito-na-programacao\\\/\",\"name\":\"Racismo algor\u00edtmico: o preconceito na programa\u00e7\u00e3o - Colab\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/blogfca.pucminas.br\\\/colab\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/blogfca.pucminas.br\\\/colab\\\/racismo-algoritmico-o-preconceito-na-programacao\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/blogfca.pucminas.br\\\/colab\\\/racismo-algoritmico-o-preconceito-na-programacao\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/blogfca.pucminas.br\\\/colab\\\/wp-content\\\/uploads\\\/2020\\\/06\\\/O-mesmo-aconteceu-com-a-atriz-Tessa-Thompson-e-suas-tran\u00e7as-foram-apagadas-na-edi\u00e7\u00e3o.jpg\",\"datePublished\":\"2020-06-17T11:00:00+00:00\",\"dateModified\":\"2020-08-13T21:46:27+00:00\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/blogfca.pucminas.br\\\/colab\\\/racismo-algoritmico-o-preconceito-na-programacao\\\/#breadcrumb\"},\"inLanguage\":\"pt-BR\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/blogfca.pucminas.br\\\/colab\\\/racismo-algoritmico-o-preconceito-na-programacao\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"pt-BR\",\"@id\":\"https:\\\/\\\/blogfca.pucminas.br\\\/colab\\\/racismo-algoritmico-o-preconceito-na-programacao\\\/#primaryimage\",\"url\":\"https:\\\/\\\/blogfca.pucminas.br\\\/colab\\\/wp-content\\\/uploads\\\/2020\\\/06\\\/O-mesmo-aconteceu-com-a-atriz-Tessa-Thompson-e-suas-tran\u00e7as-foram-apagadas-na-edi\u00e7\u00e3o.jpg\",\"contentUrl\":\"https:\\\/\\\/blogfca.pucminas.br\\\/colab\\\/wp-content\\\/uploads\\\/2020\\\/06\\\/O-mesmo-aconteceu-com-a-atriz-Tessa-Thompson-e-suas-tran\u00e7as-foram-apagadas-na-edi\u00e7\u00e3o.jpg\",\"width\":1068,\"height\":534,\"caption\":\"Pele clareada e tra\u00e7os afinados por aplicativos \\\/ Reprodu\u00e7\u00e3o\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/blogfca.pucminas.br\\\/colab\\\/racismo-algoritmico-o-preconceito-na-programacao\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"In\u00edcio\",\"item\":\"https:\\\/\\\/blogfca.pucminas.br\\\/colab\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Racismo algor\u00edtmico: o preconceito na programa\u00e7\u00e3o\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/blogfca.pucminas.br\\\/colab\\\/#website\",\"url\":\"https:\\\/\\\/blogfca.pucminas.br\\\/colab\\\/\",\"name\":\"Colab\",\"description\":\"Experimenta\u00e7\u00e3o, conte\u00fado e colabora\u00e7\u00e3o em Jornalismo Digital\",\"publisher\":{\"@id\":\"https:\\\/\\\/blogfca.pucminas.br\\\/colab\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/blogfca.pucminas.br\\\/colab\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"pt-BR\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/blogfca.pucminas.br\\\/colab\\\/#organization\",\"name\":\"Colab :: Laborat\u00f3rio de Comunica\u00e7\u00e3o Digital da FCA \\\/ PUC Minas\",\"url\":\"https:\\\/\\\/blogfca.pucminas.br\\\/colab\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"pt-BR\",\"@id\":\"https:\\\/\\\/blogfca.pucminas.br\\\/colab\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/blogfca.pucminas.br\\\/colab\\\/wp-content\\\/uploads\\\/2020\\\/03\\\/Avatar-Colab.jpg\",\"contentUrl\":\"https:\\\/\\\/blogfca.pucminas.br\\\/colab\\\/wp-content\\\/uploads\\\/2020\\\/03\\\/Avatar-Colab.jpg\",\"width\":1682,\"height\":1682,\"caption\":\"Colab :: Laborat\u00f3rio de Comunica\u00e7\u00e3o Digital da FCA \\\/ PUC Minas\"},\"image\":{\"@id\":\"https:\\\/\\\/blogfca.pucminas.br\\\/colab\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/www.facebook.com\\\/colabpucminas\",\"https:\\\/\\\/x.com\\\/colabpucminas\",\"https:\\\/\\\/www.instagram.com\\\/colabpucminas\\\/\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/colab-puc-minas\",\"https:\\\/\\\/www.youtube.com\\\/channel\\\/UC14mKIqnnGCOgVr4DG6FPkA\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/blogfca.pucminas.br\\\/colab\\\/#\\\/schema\\\/person\\\/1558d8148a80ebc84231cd55495bd7a4\",\"name\":\"Colab PUC Minas\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"pt-BR\",\"@id\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/8e2ad0447c23d0e32e8541cfe4edfc398613871a2d36fd66bd308611ccd7d23a?s=96&d=mm&r=g\",\"url\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/8e2ad0447c23d0e32e8541cfe4edfc398613871a2d36fd66bd308611ccd7d23a?s=96&d=mm&r=g\",\"contentUrl\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/8e2ad0447c23d0e32e8541cfe4edfc398613871a2d36fd66bd308611ccd7d23a?s=96&d=mm&r=g\",\"caption\":\"Colab PUC Minas\"},\"description\":\"Colab \u00e9 o Laborat\u00f3rio de Comunica\u00e7\u00e3o Digital da FCA \\\/ PUC Minas. Os textos publicados neste perfil s\u00e3o de autoria coletiva ou de convidados externos.\",\"sameAs\":[\"https:\\\/\\\/blogfca.pucminas.br\\\/colab\\\/\",\"https:\\\/\\\/www.facebook.com\\\/colabpucminas\",\"https:\\\/\\\/www.instagram.com\\\/colabpucminas\\\/\",\"https:\\\/\\\/x.com\\\/https:\\\/\\\/twitter.com\\\/colabpucminas\",\"https:\\\/\\\/www.youtube.com\\\/channel\\\/UC14mKIqnnGCOgVr4DG6FPkA\"],\"url\":\"https:\\\/\\\/blogfca.pucminas.br\\\/colab\\\/author\\\/colab\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Racismo algor\u00edtmico: o preconceito na programa\u00e7\u00e3o - Colab","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/blogfca.pucminas.br\/colab\/racismo-algoritmico-o-preconceito-na-programacao\/","og_locale":"pt_BR","og_type":"article","og_title":"Racismo algor\u00edtmico: o preconceito na programa\u00e7\u00e3o - Colab","og_description":"Sistemas que dependem de algoritmos podem perpetuar ou esconder preconceitos raciais.","og_url":"https:\/\/blogfca.pucminas.br\/colab\/racismo-algoritmico-o-preconceito-na-programacao\/","og_site_name":"Colab","article_publisher":"https:\/\/www.facebook.com\/colabpucminas","article_author":"https:\/\/www.facebook.com\/colabpucminas","article_published_time":"2020-06-17T11:00:00+00:00","article_modified_time":"2020-08-13T21:46:27+00:00","og_image":[{"width":1068,"height":534,"url":"https:\/\/blogfca.pucminas.br\/colab\/wp-content\/uploads\/2020\/06\/O-mesmo-aconteceu-com-a-atriz-Tessa-Thompson-e-suas-tran\u00e7as-foram-apagadas-na-edi\u00e7\u00e3o.jpg","type":"image\/jpeg"}],"author":"Colab PUC Minas","twitter_card":"summary_large_image","twitter_creator":"@https:\/\/twitter.com\/colabpucminas","twitter_site":"@colabpucminas","twitter_misc":{"Escrito por":"Colab PUC Minas","Est. tempo de leitura":"15 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/blogfca.pucminas.br\/colab\/racismo-algoritmico-o-preconceito-na-programacao\/#article","isPartOf":{"@id":"https:\/\/blogfca.pucminas.br\/colab\/racismo-algoritmico-o-preconceito-na-programacao\/"},"author":{"name":"Colab PUC Minas","@id":"https:\/\/blogfca.pucminas.br\/colab\/#\/schema\/person\/1558d8148a80ebc84231cd55495bd7a4"},"headline":"Racismo algor\u00edtmico: o preconceito na programa\u00e7\u00e3o","datePublished":"2020-06-17T11:00:00+00:00","dateModified":"2020-08-13T21:46:27+00:00","mainEntityOfPage":{"@id":"https:\/\/blogfca.pucminas.br\/colab\/racismo-algoritmico-o-preconceito-na-programacao\/"},"wordCount":3009,"commentCount":4,"publisher":{"@id":"https:\/\/blogfca.pucminas.br\/colab\/#organization"},"image":{"@id":"https:\/\/blogfca.pucminas.br\/colab\/racismo-algoritmico-o-preconceito-na-programacao\/#primaryimage"},"thumbnailUrl":"https:\/\/blogfca.pucminas.br\/colab\/wp-content\/uploads\/2020\/06\/O-mesmo-aconteceu-com-a-atriz-Tessa-Thompson-e-suas-tran\u00e7as-foram-apagadas-na-edi\u00e7\u00e3o.jpg","keywords":["programa\u00e7\u00e3o","racismo","racismo algor\u00edtmico","tecnologia"],"articleSection":["Ci\u00eancia"],"inLanguage":"pt-BR","potentialAction":[{"@type":"CommentAction","name":"Comment","target":["https:\/\/blogfca.pucminas.br\/colab\/racismo-algoritmico-o-preconceito-na-programacao\/#respond"]}]},{"@type":"WebPage","@id":"https:\/\/blogfca.pucminas.br\/colab\/racismo-algoritmico-o-preconceito-na-programacao\/","url":"https:\/\/blogfca.pucminas.br\/colab\/racismo-algoritmico-o-preconceito-na-programacao\/","name":"Racismo algor\u00edtmico: o preconceito na programa\u00e7\u00e3o - Colab","isPartOf":{"@id":"https:\/\/blogfca.pucminas.br\/colab\/#website"},"primaryImageOfPage":{"@id":"https:\/\/blogfca.pucminas.br\/colab\/racismo-algoritmico-o-preconceito-na-programacao\/#primaryimage"},"image":{"@id":"https:\/\/blogfca.pucminas.br\/colab\/racismo-algoritmico-o-preconceito-na-programacao\/#primaryimage"},"thumbnailUrl":"https:\/\/blogfca.pucminas.br\/colab\/wp-content\/uploads\/2020\/06\/O-mesmo-aconteceu-com-a-atriz-Tessa-Thompson-e-suas-tran\u00e7as-foram-apagadas-na-edi\u00e7\u00e3o.jpg","datePublished":"2020-06-17T11:00:00+00:00","dateModified":"2020-08-13T21:46:27+00:00","breadcrumb":{"@id":"https:\/\/blogfca.pucminas.br\/colab\/racismo-algoritmico-o-preconceito-na-programacao\/#breadcrumb"},"inLanguage":"pt-BR","potentialAction":[{"@type":"ReadAction","target":["https:\/\/blogfca.pucminas.br\/colab\/racismo-algoritmico-o-preconceito-na-programacao\/"]}]},{"@type":"ImageObject","inLanguage":"pt-BR","@id":"https:\/\/blogfca.pucminas.br\/colab\/racismo-algoritmico-o-preconceito-na-programacao\/#primaryimage","url":"https:\/\/blogfca.pucminas.br\/colab\/wp-content\/uploads\/2020\/06\/O-mesmo-aconteceu-com-a-atriz-Tessa-Thompson-e-suas-tran\u00e7as-foram-apagadas-na-edi\u00e7\u00e3o.jpg","contentUrl":"https:\/\/blogfca.pucminas.br\/colab\/wp-content\/uploads\/2020\/06\/O-mesmo-aconteceu-com-a-atriz-Tessa-Thompson-e-suas-tran\u00e7as-foram-apagadas-na-edi\u00e7\u00e3o.jpg","width":1068,"height":534,"caption":"Pele clareada e tra\u00e7os afinados por aplicativos \/ Reprodu\u00e7\u00e3o"},{"@type":"BreadcrumbList","@id":"https:\/\/blogfca.pucminas.br\/colab\/racismo-algoritmico-o-preconceito-na-programacao\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"In\u00edcio","item":"https:\/\/blogfca.pucminas.br\/colab\/"},{"@type":"ListItem","position":2,"name":"Racismo algor\u00edtmico: o preconceito na programa\u00e7\u00e3o"}]},{"@type":"WebSite","@id":"https:\/\/blogfca.pucminas.br\/colab\/#website","url":"https:\/\/blogfca.pucminas.br\/colab\/","name":"Colab","description":"Experimenta\u00e7\u00e3o, conte\u00fado e colabora\u00e7\u00e3o em Jornalismo Digital","publisher":{"@id":"https:\/\/blogfca.pucminas.br\/colab\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/blogfca.pucminas.br\/colab\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"pt-BR"},{"@type":"Organization","@id":"https:\/\/blogfca.pucminas.br\/colab\/#organization","name":"Colab :: Laborat\u00f3rio de Comunica\u00e7\u00e3o Digital da FCA \/ PUC Minas","url":"https:\/\/blogfca.pucminas.br\/colab\/","logo":{"@type":"ImageObject","inLanguage":"pt-BR","@id":"https:\/\/blogfca.pucminas.br\/colab\/#\/schema\/logo\/image\/","url":"https:\/\/blogfca.pucminas.br\/colab\/wp-content\/uploads\/2020\/03\/Avatar-Colab.jpg","contentUrl":"https:\/\/blogfca.pucminas.br\/colab\/wp-content\/uploads\/2020\/03\/Avatar-Colab.jpg","width":1682,"height":1682,"caption":"Colab :: Laborat\u00f3rio de Comunica\u00e7\u00e3o Digital da FCA \/ PUC Minas"},"image":{"@id":"https:\/\/blogfca.pucminas.br\/colab\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/www.facebook.com\/colabpucminas","https:\/\/x.com\/colabpucminas","https:\/\/www.instagram.com\/colabpucminas\/","https:\/\/www.linkedin.com\/company\/colab-puc-minas","https:\/\/www.youtube.com\/channel\/UC14mKIqnnGCOgVr4DG6FPkA"]},{"@type":"Person","@id":"https:\/\/blogfca.pucminas.br\/colab\/#\/schema\/person\/1558d8148a80ebc84231cd55495bd7a4","name":"Colab PUC Minas","image":{"@type":"ImageObject","inLanguage":"pt-BR","@id":"https:\/\/secure.gravatar.com\/avatar\/8e2ad0447c23d0e32e8541cfe4edfc398613871a2d36fd66bd308611ccd7d23a?s=96&d=mm&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/8e2ad0447c23d0e32e8541cfe4edfc398613871a2d36fd66bd308611ccd7d23a?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/8e2ad0447c23d0e32e8541cfe4edfc398613871a2d36fd66bd308611ccd7d23a?s=96&d=mm&r=g","caption":"Colab PUC Minas"},"description":"Colab \u00e9 o Laborat\u00f3rio de Comunica\u00e7\u00e3o Digital da FCA \/ PUC Minas. Os textos publicados neste perfil s\u00e3o de autoria coletiva ou de convidados externos.","sameAs":["https:\/\/blogfca.pucminas.br\/colab\/","https:\/\/www.facebook.com\/colabpucminas","https:\/\/www.instagram.com\/colabpucminas\/","https:\/\/x.com\/https:\/\/twitter.com\/colabpucminas","https:\/\/www.youtube.com\/channel\/UC14mKIqnnGCOgVr4DG6FPkA"],"url":"https:\/\/blogfca.pucminas.br\/colab\/author\/colab\/"}]}},"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/blogfca.pucminas.br\/colab\/wp-json\/wp\/v2\/posts\/4540","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/blogfca.pucminas.br\/colab\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/blogfca.pucminas.br\/colab\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/blogfca.pucminas.br\/colab\/wp-json\/wp\/v2\/users\/7"}],"replies":[{"embeddable":true,"href":"https:\/\/blogfca.pucminas.br\/colab\/wp-json\/wp\/v2\/comments?post=4540"}],"version-history":[{"count":3,"href":"https:\/\/blogfca.pucminas.br\/colab\/wp-json\/wp\/v2\/posts\/4540\/revisions"}],"predecessor-version":[{"id":4602,"href":"https:\/\/blogfca.pucminas.br\/colab\/wp-json\/wp\/v2\/posts\/4540\/revisions\/4602"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/blogfca.pucminas.br\/colab\/wp-json\/wp\/v2\/media\/4543"}],"wp:attachment":[{"href":"https:\/\/blogfca.pucminas.br\/colab\/wp-json\/wp\/v2\/media?parent=4540"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/blogfca.pucminas.br\/colab\/wp-json\/wp\/v2\/categories?post=4540"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/blogfca.pucminas.br\/colab\/wp-json\/wp\/v2\/tags?post=4540"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}