A atual avalanche de informações muda fundamentalmente nossa compreensão básica do mundo e aponta como as empresas podem extrair valor dessa “enxurrada de dados”. As mudanças na maneira como a informação é produzida, e a interação das pessoas com a mesma, levam a alterações nas legislações vigentes e nos valores que precisam ser protegidos pela sociedade. Manter a privacidade exige que os usuários de Big Data, manipuladores de enormes quantidades de dados, tenham mais responsabilidades sobre suas ações.
Durante décadas, um princípio essencial das leis da privacidade no mundo foi colocar as pessoas no controle, deixando que as mesmas decidissem quais informações pessoais poderiam ser processadas. Atualmente, existe uma necessária mudança de mentalidade com relação à privacidade, menos focada no consentimento individual no momento da coleta dos dados e mais na responsabilização dos usuários pelos seus atos.
Além dessa importante mudança regulatória da “privacidade por consentimento” para “privacidade por meio de responsabilidade”, seria interessante uma inovação técnica para ajudar a proteger dados sensíveis aos usuários em certas ocasiões. A abordagem citada pelo mesmo seria a “privacidade diferencial”: o ofuscamento deliberado de dados de modo que uma busca em uma grande base não revele resultados exatos, apenas aproximados, o que dificulta e encarece a associação de dados específicos às pessoas.
Essa abordagem é utilizada pelo Facebook, que conta com uma forma diferencial de fornecer informações sobre os seus usuários para anunciantes em potencial, revelando somente números aproximados sem privilegiar identidades individuais.
Sendo assim, um fundamento importante a ser considerado na governança com Big Data deve ser a garantia de que as pessoas serão julgadas legalmente por sua responsabilidade pessoal e pelo seu comportamento de fato, e não pela análise “objetiva” dos dados para determinar se são criminosas ou não. Somente dessa forma, garantiremos que as pessoas têm liberdade de escolha sobre suas ações e o direito de serem julgadas por elas.
Outra preocupação, se diz respeito à transparência e rastreabilidade dos dados. Os sistemas computacionais atuais se baseiam em regras às quais foram programados para seguir. Dessa forma, quando existe uma decisão equivocada, podemos descobrir porque o computador cometeu aquele erro. Porém, o Big Data opera em uma escala de volume de dados que transcende a compreensão comum. Um exemplo seria a correlação que a Google identificou entre alguns termos de busca e a ocorrência da gripe, que foi resultado de combinação com 450 milhões de modelos matemáticos.
Em cenários similares notamos que existe o risco de que previsões, algoritmos e dados se tornem “caixas pretas” que não oferecem rastreabilidade, responsabilidade e confiança. Para evitar isso, serão necessários monitoramento e transparência que, por sua vez, vão exigir novos tipos de conhecimentos, instituições e profissionais. Esses novos atores – denominados “algoritmistas” – devem fazer um voto de imparcialidade e confidencialidade, atualmente comum em algumas áreas de atuação.
Esses novos especialistas podem preencher uma necessidade similar à preenchida por contadores e auditores quando surgiram, no começo do século XX, para lidar com uma grande massa de informações financeiras. Nessa época o mercado respondeu dando origem a um novo segmento de empresas especializadas em vigilância financeira.
Conclui-se assim, que o Big Data gera mudanças na maneira como a sociedade se autocontrola. As pessoas devem resolver desafios antigos de novas maneiras e confrontar novas preocupações. Para garantir privacidade às mesmas e simultaneamente à expansão da tecnologia, não se deve deixar que o Big Data se desenvolva para além da capacidade humana de moldar a tecnologia. Deve-se reconhecer os perigos dessa potente tecnologia, incentivar o seu desenvolvimento e avaliar os resultados.