ALGORITMOS: códigos invisíveis (d)e injustiça
Contenido principal del artículo
Resumen
Os algoritmos servem para a discussão da opressão digital, permitindo inquirir como algoritmos tendenciosos viabilizam a perpetuação da desigualdade e novas formas de perfilamento racial. Novas tecnologias - algoritmos digitais, em especial - influenciam as percepções e impressões subjetivas e reacendem estereótipos sociais, prejudicando conquistas da segunda dimensão dos direitos fundamentais. É objetivo demonstrar a influência dos algoritmos na sociedade digital. A utilização dos algoritmos para justificação e fortalecimento de relações de poder que vão de encontro com os valores da igualdade. O estudo multidisciplinar segue o procedimento monográfico; técnica de pesquisa baseada na revisão bibliográfica, com aplicação do método hipotético-dedutivo.
Descargas
Detalles del artículo
• O(s) autor(es) autoriza(m) a publicação do artigo na revista;
• O(s) autor(es) garante(m) que a contribuição é original e inédita e que não está em processo de avaliação em outra(s) revista(s);
• A revista não se responsabiliza pelas opiniões, ideias e conceitos emitidos nos textos, por serem de inteira responsabilidade de seu(s) autor(es);
• É reservado aos editores o direito de proceder ajustes textuais e de adequação do artigo às normas da publicação.
Autores mantêm os direitos autorais e concedem à revista o direito de primeira publicação, com o trabalho simultaneamente licenciado sob a Licença Creative Commons Atribuição-NãoComercial 4.0 Internacional, que permite o compartilhamento do trabalho com reconhecimento da autoria e publicação inicial nesta revista.
Autores têm autorização para assumir contratos adicionais separadamente, para distribuição não exclusiva da versão do trabalho publicada nesta revista (ex.: publicar em repositório institucional ou como capítulo de livro), com reconhecimento de autoria e publicação inicial nesta revista.
Autores têm permissão e são estimulados a publicar e distribuir seu trabalho online (ex.: em repositórios institucionais ou na sua página pessoal) a qualquer ponto antes ou durante o processo editorial, já que isso pode gerar alterações produtivas, bem como aumentar o impacto e a citação do trabalho publicado (Veja O Efeito do Acesso Livre) em http://opcit.eprints.org/oacitation-biblio.html
Citas
ARVANITAKIS, James. If Google and Facebook rely on opaque algorithms, what does that mean for democracy? Agosto, 2017. Disponível em: https://www.researchgate.net/publication/319163734. Acesso em: 09 fev. 2020.
BAUMAN, Zigmunt. O mal-estar da pós-modernidade. Rio de Janeiro: Zahar, 1998.
BLAKE, P. R. et. al. A ontogenia da justiça em sete sociedades. 18 nov. 2015. Disponível em: https://www.nature.com/articles/nature15703. Acesso em: 14 fev. 2020.
CANOTILHO, J. J. G. Sobre a indispensabilidade de uma Carta de Direitos Fundamentais Digitais da União Europeia. Revista do Tribunal Regional Federal da 1 Região, Brasília, DF, v. 31, n. 1, 2019. Disponível em: http://revista.trf1.jus.br/trf1/article/view/17/17. Acesso em: 08 abr. 2020.
COUGO, Felipe Ferreira. (2016). O enfoque das capacidades em Amartya Sen. Revista Enciclopédia de Filosofia. v. 5, p. 150-177. Disponível em: https://periodicos.ufpel.edu.br/ojs2/index.php/Enciclopedia/article/view/9349/6466. Acesso em: 09 abr. 2020.
DE CASTRO, Martina; ZONA, Umberto; BOCCI, Fabio. (2020). Gli algoritmi come construtti culturali. Una minaccia per l'inclusione scolastica e sociale. Disponível em: encurtador.com.br/ozDZ6. Acesso em: 11 abr. 2020.
FEHR, Ernst; NAEF, Michael; SCHMIDT, Klaus M. (2006). Inequality aversion, efficiency, and maximin preferences in simple distribution experiments: Comment. American Economic Review. Disponível em: https://pubs.aeaweb.org/doi/pdf/10.1257/aer.96.5.1912. Acesso em: 09 abr. 2020.
GOODMAN, Bryce; FLAXMAN, Seth. (2017). European Union Regulations on Algrithmic Decision Making and a "Right to Explanation". AI Magazine. v. 38, n. 3. Disponível em: https://doi.org/10.1609/aimag.v38i3.2741. Acesso em: 09 abr. 2020.
HOLSTEIN, Kenneth et. al. (2019). Improving Fairness in Machine Learning Systems: What Do Industry Practitioners Need?. In Proceedings of CHI Conference on Human Factors in Computing Systems (CHI '19), May 4–9, 2019, Glasgow, Scotland UK. ACM, New York, NY, USA 16 Pages. Disponível em: https://doi.org/10.1145/3290605.3300830. Acesso em: 10 abr. 2020.
KÖVES, Margit. Fascism in the Age of Global Capitalism. Social Scientist, v. 32, n. 9/10 (Sep./Out., 2004), pp. 36-71. Disponível em: https://www.jstor.org/stable/3518207. Acesso em: 09 abr. 2020.
LEHMAN, Joseph G. An Introduction to the Overton Window of Political Possibility. Mackinac Center for Public Policy. April 8, 2010. Disponível em: https://www.mackinac.org/12481. Acesso em: 10 abr. 2020.
LOBE, Adrian. Wenn Programmierer mächtiger als Politiker werden. Süddeutsche Zeitung, 2018. Disponível em: https://www.sueddeutsche.de/digital/digitalisierung-und-demokratie-hey-mark-zuckerberg-meine-demokratie-ist-nicht-dein-labor-1.4049824. Acesso em: 08 fev. 2020.
MARTINI, Mario. (2018). Algorithmen als Herausforderung für die Rechtsordnung. Deutsches Forschungsinstitut für öffentliche Verwaltung. Disponível em: https://www.bmjv.de/SharedDocs/Downloads/DE/Praesentationen/SID18_Martini.pdf?__blob=publicationFile&v=2. Acesso em: 09 fev. 2020.
NOBLE, Safiya Umoja. Algorithms of Opression: how search engines reinforce racism. New York: New York University Press, 2018.
OLIVEIRA, Marcos Barbosa. Pós-verdade: filha do relativismo científico? 15 jan. 2018. Disponível em: https://outraspalavras.net/tecnologiaemdisputa/pos-verdade-uma-filha-do-relativismo-cientifico/. Acesso em: 13 fev. 2020.
O'NEIL, Cathy. (2017). The era of blind faith in Big Data must end. Palestra proferida no evento TED2017. Vancouver. Disponível em: https://www.ted.com/talks/cathy_o_neil_the_era_of_blind_faith_in_big_data_must_end. Acesso em: 07 abr. 2020.
PASCUAL, Manuel G. Quem vigia os algoritmos para que não sejam racistas ou sexistas? 17 mar. 2019. Disponível em: https://brasil.elpais.com/brasil/2019/03/18/tecnologia/1552863873_720561.html. Acesso em: 14 fev. 2020.
PUCPR. VOCÊ sabe o que faz o profissional de Big Data e Inteligência Analítica? 07 jun. 2018. Disponível em: encurtador.com.br/puzGV. Acesso em: 11 fev. 2020.
RAINIE, Lee; ANDERSON, Janna; ALBRIGHT, Jonathan. The Future of Free Speech, Trolls, Anonymity, and Fake News Online. Pew Research Center. March 29, 2017. Disponível em: https://pdfs.semanticscholar.org/a444/47ae039ead25900a844a4d900b88a01e63d8.pdf. Acesso em: 13 fev. 2020.
ROSAL, Fernanda R. Entendendo os algoritmos: propriedades e dilemas. In: TIC Domicílios 2017: pesquisa sobre o uso das tecnologias de informação e comunicação nos domicílios brasileiros. Núcleo de Informação e Coordenação do Ponto BR (Ed.) São Paulo: Comitê Gestor da Internet no Brasil, 2018. Disponível em: http://cetic.br/publicacoes/indice/pesquisas. Acesso em: 07 abr. 2020.
SALAS, Javier. Se está na cozinha, é uma mulher: como os algoritmos reforçam preconceitos. 23 set. 2017. Disponível em: https://brasil.elpais.com/brasil/2017/09/19/ciencia/1505818015_847097.html. Acesso em: 14 fev. 2020.
SAMPEDRO, Javier. Seu filho desenvolve o senso de justiça a partir dos quatro anos: Experimento sobre a psicologia da equidade revela diferenças nítidas entre sociedades. Disponível em: https://brasil.elpais.com/brasil/2015/11/18/ciencia/1447852141_256429.html. Acesso em: 14 fev. 2020.
SEN, Amartya. A ideia de justiça. Tradução: Denise Bottmann, Ricardo Doninelli Mendes – São Paulo: Companhia das Letras, 2011.
SILVEIRA, Sergio Amadeu da. (2019). Democracia e os códigos invisíveis: como os algoritmos estão modulando comportamentos e escolhas políticas. Edições Sesc. Edição Kindle.
WARREN, Patricia Y.; FARRELL, Amy. (2009). The Environmental Context of Racial Profiling. Disponível em: https://doi.org/10.1177/0002716208330485. Acesso em: 10 abr. 2020.
WANG, Clarice et. al. (2020). A User Study on a De-Biased Career Recommender System. Disponível em: encurtador.com.br/oETW1. Acesso em: 11 abr. 2020.