Apaixonada por pessoas, design e pela resolução de problemas complexos, Janayna Velozo trabalhou em projetos no Japão, Áustria, Canadá, EUA, Nova Zelândia, Alemanha e Brasil. Mãe de dois meninos, mulher e nordestina, trabalha atualmente como Estrategista de Design de Serviço & Product Design Lead na Stefanini Group. Líder do Programa de Mentoria do Ladies That UX Brasil e da comunidade local UXPE, Jana acredita que a empatia, a equidade e a (re)evolução das comunidades pode (e vai!) mudar o mundo pra melhor.
Em um mundo cada vez mais distópico, com o aumento do controle dos gigantes corporativos através do uso da tecnologia, testemunhamos o fortalecimento da era da pós-verdade, a manipulação do comportamento e o surgimento da economia de vigilância. Com um aumento de 220% no uso de aplicativos e dispositivos digitais esse ano, as pessoas passaram mais de 1.6 trilhões de horas em celulares no primeiro semestre deste ano e, segundo o relatório Digital 2020 lançado em Outubro, quase 60% da população mundial já está online. Temos atualmente 5.2 bilhões pessoas usando celulares, 4.5 bilhões usando a internet e 3.8 bilhões usando as mídias sociais. A pandemia de COVID19 acelerou ainda mais esse processo e agora, mais do que nunca, estamos dependentes de sistemas digitais para o trabalho, educação, comunicação, diversão, transporte, notícias, compras, saúde, movimentações financeiras, alimentação e até pra dormir. Precisamos começar a fazer perguntas mais profundas sobre o impacto dos produtos e serviços que estamos ajudando a construir e qual será o nosso papel na próxima década.
A revolução industrial nos ajudou a superar nossas limitações físicas e força muscular. A revolução tecnológica está nos ajudando a superar as limitações da nossa mente, ampliando e expandindo a função cognitiva humana. Não há dúvidas sobre os benefícios que a tecnologia tem trazido: ferramentas de comunicação e conexão humanas, drones entregando produtos em áreas inacessíveis, sensores em veículos diminuindo acidentes, robôs cirúrgicos de alta precisão na área da saúde, casas inteligentes, entre tantas outras coisas. O objetivo não é vilificar a tecnologia, mas percebermos que existem maneiras melhores de seguirmos em frente com ela, afinal de contas a “Inteligência Artificial”, o Big Data e o Deep Learning (que simula redes neurais humanas em máquinas) vieram para ficar. Acredito que nós, designers, temos a responsabilidade afirmativa social e moral com os produtos que criamos. Quais considerações éticas devemos fazer?
Dois direitos fundamentais precisam ser considerados: o direito à privacidade, que neste contexto significa o controle pessoal relativo ao uso das informações pessoais dos cidadãos, que deveriam ser os proprietários de seus dados, inclusive os que estão sob vigilância; e o direito à autodeterminação, que se refere à autonomia, poder de decisão e controle sobre o próprio destino (social, político e econômico). Estamos projetando produtos que defendem a privacidade e a segurança de dados, e que protegem nossos direitos humanos fundamentais? Estamos permitindo que as pessoas sejam informadas e possam controlar quando e como seus dados serão coletados, armazenados, copiados, analisados, usados, vendidos e destruídos pelas empresas? Quais são as consequências sociais e o que continuaríamos a perder sem nos tornarmos uma voz ativa na proteção e regulamentação dos dados dos produtos digitais?
“Em nenhum outro momento da história, as empresas privadas mais ricas tiveram à sua disposição uma arquitetura global disseminada de computação ubíqua capaz de acumular concentrações incomparáveis de informações sobre indivíduos, grupos e populações, suficientes para mobilizar o eixo do monitoramento para a comando do comportamento humano remotamente e em grande escala.” --- Shoshana Zuboff
De acordo com Shoshana Zuboff, psicóloga social e professora da Harvard Business School, o capitalismo de vigilância fornece serviços gratuitos à população em sistemas digitais que monitoram suas atividades e comportamentos, entendem suas personalidades e vulnerabilidades, e alimentam motores de manipulação chamados de "inteligência de máquina" para criar e moldar os mercados comportamentais, não apenas na esfera digital, mas também no mundo físico. O objetivo é automatizar nosso comportamento e lucrar com nossas escolhas. Quanto mais dados os algoritmos obtêm de nossas vidas por meio de dispositivos digitais, mídias sociais e artefatos de IoT, melhor eles funcionam e mais imperceptíveis os mecanismos de influência se tornam. Um dos grandes problemas é que eles estão sendo coletados e controlados sorrateiramente: ouvem em microfones embutidos, assistem e gravam em câmeras embutidas, experimentam sem o nosso conhecimento e, mais importante, sem o nosso consentimento.
A Lei Geral de Proteção de Dados (LGPD), que está sendo implementada no Brasil, define consentimento como sendo "qualquer expressão dada livremente, específica, informada e inequívoca das escolhas de um indivíduo em relação ao processamento de seus dados pessoais para um ou mais fins específicos". O consentimento deve ser dado como uma expressão de escolha real:
A Privacidade de Dados considera o manuseio, processamento, armazenamento e uso “adequados” de informações pessoais, e a Segurança de Dados considera a proteção de dados pessoais contra qualquer acesso não autorizado de terceiros ou ataques e exploração maliciosos. Ambos são necessários na regulamentação e proteção dos dados digitais, mas ainda estão ausentes em diversos produtos e serviços digitais que projetamos e usamos. De acordo com a Comissão de Informação e Privacidade de Ontário (IPC), existem alguns princípios fundamentais de Privacy Design que devem ser aplicados na criação de sistemas digitais. A privacidade deve:
Documentários como The Social Dilemma e Hacked Privacy nos mostraram como o uso da tecnologia e da manipulação do comportamento em larga escala através de ferramentas como a computação quântica, a “Inteligência Artificial”, o Big Data e o Deep Learning estão mudando nossa percepção da realidade, como estão interferindo no nosso comportamento e impactando os sistemas políticos e econômicos, assim como desestruturando a força de trabalho, aumentando a desigualdade de renda, contribuindo para o encarceramento de pessoas por suas origens étnicas, opiniões, raças, orientações sexuais e religiões divergentes, ameaçando sistemas políticos democráticos, alimentando autocracias e sistemas totalitários, amplificando problemas sociais e criando um mundo extremamente polarizado. A tecnologia está sendo usada como uma ferramenta de manipulação, controle e poder que serve aos interesses privados. E, em um mundo capitalista, a lógica do acúmulo de capital define as regras do jogo.
“Pequenas diferenças de ajuste, cuidadosamente aplicados de forma consistente, têm um efeito cumulativo ao longo do tempo. A manipulação do comportamento pode mudar o resultado de eleições, modificar a percepção da verdade e, em última instância, sabotar a sociedade humana.” - Jared Lanier
Uma das ferramentas possíveis que temos como designers de produtos digitais, é a aplicação da Avaliação de Impacto de Privacidade (PIA) no início de qualquer projeto que envolva dados pessoais. Dados pessoais são informações que se relacionam ou podem estar relacionadas a uma pessoa física, que pode ser direta ou indiretamente identificada por meio dessa informação ou em combinação com outra informação, como por exemplo: nome, endereço, número de IP etc. O objetivo da PIA é analisar os impactos na privacidade das pessoas envolvidas, procurando minimizá-los ao máximo, respeitando também os princípios acima citados. As principais etapas são:
É de extrema importância envolvermos os profissionais de UX Design, UX Writing e UI Design, entre outros, para que as interfaces já existentes entrem em conformidade com a LGPD, assim como para projetar as novas interfaces de acordo com a Lei Geral de Proteção de Dados, de forma compreensível e transparente para os portadores dos dados. Alguns pontos importantes que precisam ser previstos são:
Como podemos repensar a coleta, o armazenamento, o processamento e o uso de dados para que seja menos sorrateiro e intrusivo, e mais transparente? Como podemos garantir o consentimento e devolver a autonomia aos portadores dos dados? Como podemos interferir no design desses sistemas para evitar que as pessoas se tornem reféns da manipulação de comportamento? Tenho mais perguntas do que respostas e os dilemas são muitos, mas acredito que o mundo digital possa existir sem o capitalismo de vigilância. Precisamos encontrar maneiras de modificar as estruturas distópicas e gerar mais descentralização, aleatoriedade, transparência, imprevisibilidade, liberdade e diversidade no design dos sistemas digitais. Assim como nos tornar parte da solução e protagonizar a criação de redes, serviços e produtos que promovam sistemas orgânicos emergentes, distribuídos e sustentáveis de reequilíbrio do mundo, visando a preservação da autonomia, da liberdade e, principalmente, da experiência humana.
The Age of Surveillance Capitalism, by Shoshana Zuboff, 2019.
Ten Arguments for Deleting Your Social Media Accounts Right Now, by Jared Lanier, 2019.
Automating Humanity, by Joe Toscano, 2018.
Weapons of Mass Destruction, by Cathy O’Neil, 2016.
Radical Markets: Uprooting Capitalism and Democracy for a Just Society, by Eric A. Posner, 2019.
Your Rights Matter: data protection and privacy, FRA Fundamental Rights Report 2020.
From Privacy to Profit: achieving positive returns on privacy investments, Cisco Data Privacy Benchmark Study 2020.
Digital 2020 Report, Data Reportal 2020.
How COVID-19 Has Changed Consumer Behavior on Mobile Forever, App Annie Report 2020.