De alguns anos para cá, um fato é indiscutível: uma empresa que não colete dados sobre seus clientes e prospects – e esse termo pode ser abrangente suficiente para incluir praticamente o mercado como um todo –, analise-os e atue a partir deles, mais cedo ou mais tarde — cada vez mais cedo! — estará fora do jogo.
Então, vamos partir da premissa de que a atuação de sua empresa emprega, de forma estruturada ou até mesmo de forma apenas intuitiva, Data Analytics, a ciência de dados.
Você certamente, portanto, conhece – ou, pelo menos, tem ouvido falar, da LGPD – Lei Geral de Proteção de Dados.
Criada em 2018, após um longo debate com a sociedade civil que durou cerca de dez anos e dezenas de anteprojetos discutidos no Congresso, essa legislação tem por objetivo proteger a liberdade e a privacidade de consumidores e cidadãos.
Em vigor desde 18 de setembro de 2020, a lei demanda que empresas e órgãos públicos mudem a forma de coletar, armazenar e usar os dados das pessoas.
Ou seja, tem impactos significativo nas áreas jurídica, administrativa, marketing, vendas e de segurança da informação das companhias.
Além disso, a LGPD mudará inevitavelmente a forma como se aplica a ciência de dados aos negócios de uma empresa.
E esse é o ponto em que a Always On tem se mostrado mais útil para seus clientes, como vocês poderão perceber.
O LGPD afeta a prática da ciência de dados em três áreas.
Primeiro, a lei impõe limites ao processamento de dados e ao perfil do consumidor.
Em segundo lugar, para organizações que usam a tomada de decisão automatizada, a LGPD cria um “direito a uma explicação” para os consumidores.
Terceiro, a LGPD responsabiliza as empresas por viezes e discriminação em decisões automatizadas.
A LGPD impõe controles sobre o processamento de dados e o perfil do consumidor; essas regras complementam os requisitos de coleta e gerenciamento de dados.
Dessa forma, um perfil passa a ser definido como:
Qualquer forma de processamento automatizado de dados pessoais consistindo no uso de dados pessoais para avaliar certos aspectos pessoais relativos a uma pessoa física, em particular, para analisar ou prever aspectos relativos ao desempenho dessa pessoa física no trabalho, situação econômica, saúde, preferências pessoais, interesses, confiabilidade, comportamento, localização ou movimentos.
Em geral, as organizações podem processar dados pessoais quando podem demonstrar uma finalidade comercial legítima (como um cliente ou relação de trabalho) que não entra em conflito com os direitos e liberdades do consumidor.
As organizações devem informar os consumidores sobre a criação de perfis e suas consequências e fornecer-lhes a oportunidade de cancelar.
A LGPD concede aos consumidores o direito de “não estarem sujeitos a uma decisão (…) que se baseia exclusivamente em processamento automatizado e que produz efeitos jurídicos (sobre o assunto).”
Os especialistas caracterizam esta regra como um “direito a uma explicação”.
A LGPD não define com precisão o escopo das decisões cobertas por esta seção.
Alguns especialistas afirmam que o direito é “muito provável” de se aplicar a solicitações de crédito, recrutamento e decisões de seguro.
Outros, no entanto, podem definir o escopo de forma diferente.
Quando as organizações usam a tomada de decisão automatizada, elas devem prevenir efeitos discriminatórios baseados em origem racial ou étnica, opinião política, religião ou crenças, filiação sindical, estado genético ou de saúde ou orientação sexual, ou que resultem em medidas com tal efeito.
Além disso, eles não podem usar categorias específicas de dados pessoais em decisões automatizadas, exceto em circunstâncias definidas.
Vamos examinar o impacto em três áreas principais.
Processamento de dados e criação de perfis.
As novas regras permitem que as organizações processem dados pessoais para fins comerciais específicos, cumpram compromissos contratuais e cumpram as leis nacionais.
Um emissor de cartão de crédito pode processar dados pessoais para determinar o crédito disponível do titular do cartão; um banco pode filtrar as transações para lavagem de dinheiro, conforme determinado pelos reguladores.
Os consumidores não podem optar por sair do processamento e criação de perfil realizados sob esses “portos seguros”.
No entanto, as organizações não podem usar os dados pessoais para uma finalidade diferente da intenção original sem obter permissão adicional do consumidor.
As restrições do LGPD no processamento e criação de perfis aplicam-se apenas aos dados que identificam um consumidor individual.
Os princípios de proteção de dados não devem, portanto, se aplicar a dados pessoais tornados anônimos de tal forma que o titular dos dados não seja ou consiga ser identificável.
A lei não cobre, por conseguinte, o tratamento dessas informações anônimas, incluindo para fins estatísticos ou de investigação.
A implicação clara é que as empresas precisam criar um anonimato robusto nos processos de engenharia e ciência de dados.
E, nesse ponto, temos sido muito úteis aos nossos clientes!
As decisões precisam de justificativas claras.
Existe alguma controvérsia sobre o impacto desta disposição.
Alguns o aplaudem; outros desaprovam; outros ainda negam que a LGPD crie esse direito.
Um especialista em legislação argumenta que essa exigência presente nas legislações modernas, como a GDPR da UE, a lei de privacidade californiana e a própria LGPD pode forçar os cientistas de dados a parar de usar técnicas opacas (como aprendizado profundo), que podem ser difíceis de explicar e interpretar.
Não há dúvida de que a lei afetará o modo como as organizações lidam com certas decisões.
O impacto sobre os cientistas de dados, no entanto, pode estar sendo exagerado.
– O “direito a uma explicação” é de âmbito limitado. Conforme observado acima, um regulador interpreta a lei para cobrir solicitações de crédito, recrutamento e decisões de seguro. Outros reguladores ou tribunais podem interpretar as regras de maneira diferente, mas é claro que o direito se aplica a ambientes específicos. Não se aplica a todas as decisões automatizadas.
– A maioria das empresas que recusam algumas solicitações de clientes entende que as decisões adversas devem ser explicadas aos clientes. Isso já é uma prática comum nos setores de empréstimos e seguros. Algumas empresas tratam as decisões adversas como uma oportunidade de posicionar um produto alternativo.
– A necessidade de fornecer uma explicação afeta os mecanismos de decisão, mas não precisa influenciar a escolha dos métodos de treinamento do modelo. As técnicas disponíveis hoje possibilitam a “engenharia reversa” de explicações interpretáveis para pontuações de modelo, mesmo se o cientista de dados usar um método opaco para treinar o modelo.
A LGPD exige que as organizações evitem efeitos discriminatórios em decisões automatizadas.
Essa regra impõe uma carga extra de devida diligência aos cientistas de dados que constroem modelos preditivos e aos procedimentos que as organizações usam para aprovar modelos preditivos para produção.
As organizações que usam a tomada de decisão automatizada devem:
A LGPD proíbe expressamente o uso de características pessoais (como idade, raça, etnia e outras classes enumeradas) em decisões automatizadas.
No entanto, não é suficiente apenas evitar o uso desses dados.
O mandato contra resultados discriminatórios significa que os cientistas de dados também devem tomar medidas para evitar o viés indireto de variáveis proxy, multicolinearidade ou outras causas.
Por exemplo, uma decisão automatizada que usa uma característica aparentemente neutra, como o bairro residencial de um consumidor, pode inadvertidamente discriminar as minorias étnicas.
Temos aconselhado nossos clientes a tomar medidas afirmativas para confirmar se os dados que usam ao desenvolver modelos preditivos são precisos; o antigo axioma “entra lixo, sai lixo”, não pode mais ser usado como uma defesa.
Eles também devem considerar se os dados de treinamento tendenciosos em resultados anteriores podem influenciar os modelos.
Na prática, temos nos preocupado com elementos como a linhagem dos dados, para rastrear o fluxo de dados em todas as etapas de processamento, da origem ao destino.
A LGPD também trouxe uma maior preocupação com a reprodutibilidade ou a capacidade de replicar com precisão um projeto de modelagem preditiva.
Ou, melhor ainda, converse com um especialista da Always ON!
Ele vai lhe mostrar o mapa da mina da LGPD.
O uso de coleta de dados de terceiros, por exemplo, está proibido na maioria dos mercados importantes. Mas, isso teve...