15/04/2018

Facebook usa inteligência artificial para prever comportamento

 

Desde o início do escândalo da Cambridge Analytica, em março, o Facebook vem tentando tomar uma posição em defesa da privacidade dos usuários, distanciando-se das práticas inescrupulosas da consultoria britânica. “Proteger as informações das pessoas é um princípio fundamental de tudo o que fazemos”, escreveu Paul Grewal, vice-diretor do departamento jurídico da empresa, poucas semanas antes de o fundador e CEO da empresa, Mark Zuckerberg, fazer garantias semelhantes no Capitólio, dizendo aos parlamentares: “Acreditamos que temos a responsabilidade de não apenas criar ferramentas, mas de garantir que essas ferramentas sejam usadas para o bem.” Porém, um documento confidencial do Facebook a que o The Intercept teve acesso mostra que as duas empresas são muito mais parecidas do que a rede social tenta fazer parecer.

O documento, recente e classificado como “confidencial”, descreve um novo serviço de publicidade que aprofunda a venda de informações de usuários do Facebook para empresas: em vez de fornecer um serviço de direcionamento de anúncios com base em dados demográficos e preferências de consumo, a rede social oferece às empresas a possibilidade de segmentar seu público-alvo com base no comportamento, nos hábitos de consumo e nos posicionamentos futuros dos usuários. Isso é possível graças a um software de previsão que usa uma inteligência artificial capaz de evoluir sozinha, lançado pelo Facebook em 2016 e batizado de “FBLearner Flow”.

Um slide do documento alardeia a capacidade do Facebook de “prever comportamentos futuros”, permitindo a criação de campanhas publicitárias baseadas em decisões que o público-alvo ainda não tomou. Isso, potencialmente, daria a terceiros a possibilidade de alterar essas decisões. O texto afirma que o Facebook pode fazer uma varredura em toda a sua base de usuários – de mais de 2 bilhões de pessoas – e identificar milhões de indivíduos que estariam “sob risco” de trocar uma determinada marca pela concorrência. De posse dessas informações, uma empresa poderia se antecipar e direcionar uma intensa campanha publicitária para esses usuários com o intuito de dissuadi-los – algo que o Facebook chama de improved marketing eficiency (“eficiência de marketing aprimorada”, em português). Não se trata aqui de mostrar anúncios da Chevrolet quando você passa a semana lendo matérias sobre a Ford – uma velha tática do marketing online –, e, sim, de usar informações da sua vida para adivinhar que em breve você estará cansado do seu carro. O Facebook chama esse serviço de loyalty prediction (“previsão de fidelidade”).

A ideia por trás desse serviço de marketing do Facebook tem muito a ver com a prática controversa da consultoria política Cambridge Analytica de traçar “perfis psicográficos” de eleitores, usando dados corriqueiros sobre seus hábitos de consumo (em que você está interessado, onde você mora) para prever comportamentos políticos. Mas, diferentemente da Cambridge Analytica e similares, que devem se contentar com os poucos dados que conseguem extrair das interfaces públicas da rede social, o Facebook tem acesso irrestrito a uma mina de ouro, com gigantescos bancos de dados sobre preferências e comportamentos dos usuários, à sua inteira disposição – um relatório de 2016 da ProPublica revelou que os usuários podem ser classificados em cerca de 29 mil categorias diferentes.

Zuckerberg tem tentado dissociar sua empresa da Cambridge Analytica, cuja contribuição para a campanha de Donald Trump foi baseada em dados do Facebook. Zuckerberg disse à imprensa recentemente que a sua rede social é uma zelosa guardiã de informações: “A grande maioria das informações que o Facebook possui sobre os usuários foram compartilhadas voluntariamente. Certo? Não é rastreamento. Existem outras empresas de internet, corretores de dados e pessoas que tentam rastrear e vender dados, mas nós não compramos nem vendemos…Por algum motivo não conseguimos desfazer essa noção errada, que circula há anos… As pessoas ainda acham que vendemos dados a anunciantes. Não é verdade. Nunca fizemos isso. Isso vai de encontro ao que promovemos. Mesmo que quiséssemos, não faria sentido.”

O documento também afirma que a empresa protege os dados dos usuários: “Todas as informações são agregadas e anonimizadas [para proteger] a privacidade dos usuários”, ou seja, o Facebook não está vendendo informações de usuários, mas alugando o acesso a elas. Mas essa tentativa de se distanciar de outros mineradores de dados é ilusória, pois não importa quem está usando os dados do Facebook; no fim das contas, a empresa está monetizando informações extremamente íntimas de seus usuários – e agora de forma muito mais avançada, através de uma iniciativa de machine learning (“aprendizado automático”). Embora Zuckerberg esteja teoricamente correto quando afirma que o Facebook não vende seus dados, o que eles estão realmente vendendo é muito mais valioso, o tipo de percepção do século 21 que só é possível para uma empresa com recursos ilimitados. A verdade é que ela tem muito mais a ver com empresas como Equifax e Experian do que qualquer outra empresa que se diz voltada para o cliente. O Facebook é basicamente um atacadista de dados, e ponto.

O documento não entra em detalhes sobre que informações são incluídas no algoritmo de previsão, mas menciona algumas delas, como localização, informações do dispositivo usado para acessar o site, redes de telefone e wi-fi, visualizações de vídeos, afinidades e certos detalhes sobre amizades, como as similaridades entre o usuário e seus contatos. Todos esses dados podem alimentar o FBLearner Flow, que os utiliza para simular alguma faceta da vida do usuário; os resultados da simulação podem então ser vendidos para um cliente. A empresa se refere a essa prática como “a expertise do Facebook em machine learning” usada por “desafios em áreas estratégicas de negócios”.

Especialistas consultados pelo The Intercept afirmam que os sistemas descritos no documento levantam uma série de questões éticas, como o uso dessa tecnologia para manipular usuários, influenciar eleições ou favorecer empresas. Segundo Tim Hwang, diretor da Ethics and Governance of AI Initiative, das universidades de Harvard e do Massachusetts Institute of Technology, o Facebook tem a “obrigação ética” de revelar como está usando a inteligência artificial para monetizar nossos dados, embora seja do interesse da empresa manter essa tecnologia em segredo. “Contar às pessoas que seu comportamento pode ser previsto pode influenciar os resultados”, diz.

O FACEBOOK TEM SE ENVOLVIDO em um número quase cômico de controvérsias e escândalos de privacidade ao longo de seus 14 anos de história. Apesar dos repetidos pedidos oficiais de desculpas, nada muda de verdade. Talvez seja por isso que a empresa esteja dando tanto destaque aos usos positivos e inofensivos de seus projetos de inteligência artificial. O FBLearner Flow foi anunciado como um kit de ferramentas internas que ajudaria o Facebook a se ajustar às preferências do usuário cada vez que ele se conectasse. “Muitas experiências e interações que as pessoas têm no Facebook atualmente só são possíveis graças à inteligência artificial”, escreveu Jeffrey Dunn, um engenheiro do Facebook, em um post de introdução de um blog sobre o FBLearner Flow.

Quando Stacey Higginbotham, da revista Fortune, perguntou em 2016 qual era a meta do projeto de aprendizado automático do Facebook para os próximos cinco anos, o vice-presidente de Tecnologia da empresa, Mike Schroepfer, disse que o objetivo era fazer com que “cada instante que você passe na internet seja com o conteúdo e com as pessoas que você quiser”. Nenhuma menção ao uso dessa tecnologia na publicidade. Um artigo de 2017 no portal TechCrunch declarava: “A inteligência artificial é o futuro da monetização para o Facebook”. Mas os executivos citados pela matéria não entraram em detalhes. “Queremos saber se o seu interesse por determinada coisa é genérico ou constante. As pessoas fazem certas coisas em ciclos, semanalmente ou apenas em certos momentos; é de grande utilidade conhecer essas variações”, disse o vice-presidente de Engenharia de Anúncios do Facebook, Mark Rabkin. A empresa também foi vaga sobre a fusão do machine learning com anúncios em um artigo de 2017 na Wired sobre sua aplicação da inteligência artificial, que fazia alusão aos esforços de “mostrar anúncios mais relevantes” usando o machine learning e antecipando em quais anúncios os consumidores estariam mais propensos a clicar, um uso já bem estabelecido de inteligência artificial. Mais recentemente, durante seu depoimento no Congresso, Zuckerberg elogiou a inteligência artificial como uma ferramenta para reduzir o risco de ódio e terrorismo.

Mas, com base no documento, esse serviço oferecido pelo Facebook com ajuda da inteligência artificial parece ir muito além de descobrir “se o seu interesse por determinada coisa é genérico ou constante”. Para Frank Pasquale, professor de Direito da Universidade de Maryland e pesquisador do Information Society Project, um projeto sobre ética dos algoritmos da Universidade de Yale, esse tipo de serviço parece transformar o Facebook em uma espécie de milícia da era digital, que cobra uma “taxa de segurança” de seus clientes corporativos. “Podemos considerar o Facebook como uma entidade vigilante e protetora da concorrência pela atenção dos consumidores (…) Ele pode monitorar as tentativas de captação de clientes de um rival e entrar em ação para evitar que ela se realize”, conjetura.

O termo “inteligência artificial” já foi banalizado, assim como tantas outras palavras do mundo digital. Porém, em sua acepção mais ampla, ele abarca tecnologias como o aprendizado automático, através da qual computadores podem aprender sozinhos e se tornar mais eficientes em uma grande variedade de tarefas, do reconhecimento facial à detecção de fraudes financeiras. Ao que tudo indica, o FBLearner Flow vai ficando mais preciso a cada dia que passa.

O Facebook está longe de ser a única firma na corrida para converter os avanços da inteligência artificial em fonte de lucros, mas está em uma posição vantajosa. Nem mesmo o Google, com seu domínio absoluto na área de buscas e e-mails e orçamento igualmente ilimitado, tem acesso ao tesouro de Mark Zuckerberg: uma lista de 2 bilhões de pessoas, seus gostos, ideias e contatos. O Facebook pode contratar os melhores especialistas do ramo e investir um sem-fim de recursos em sua capacidade de processamento computacional.

O departamento de inteligência artificial do Facebook tem empregado diversas técnicas de aprendizado automático. Uma delas se chama gradient boosted decision trees, ou GBDT (“árvores de decisão com aumento de gradiente”, em português), que, segundo o documento, é usada para fins publicitários. Um artigo publicado em 2017 no site Proceedings of Machine Learning Research descreve a GBDT como “uma potente técnica de aprendizado automático que tem uma ampla gama de aplicações comerciais e acadêmicas, produzindo resultados de última geração para muitos problemas de mineração de dados”. Essa técnica vem se popularizando cada vez mais no setor de mineração de dados.

O grande interesse do Facebook em ajudar clientes a lucrarem com os dados dos usuários talvez ajude a explicar por que a empresa não condenou o que a Cambridge Analytica fez com os dados pessoais dos usuários. O alvo da indignação do Facebook foi apenas o ardil da empresa na hora de obter essas informações. Graças, em parte, à equipe de comunicação do Facebook, o debate girou em torno do “acesso indevido” da empresa aos dados do Facebook, e não da motivação da Cambridge Analytica por trás disso. No fim das contas, a não ser na maneira de acessar essas informações, a Cambridge Analytica e o Facebook têm muito em comum – uma empresa parece a irmã mais nova e menos ambiciosa da outra.

A extrema precisão demográfica do Facebook já causou muitos problemas à empresa no passado, em parte porque seus sistemas de publicidade contam com um espantoso grau de automatização – jornalistas da ProPublica conseguiram até direcionar anúncios personalizados para grupos de ódio contra judeus. Seja nas mãos de equipes de campanha tentando influenciar eleitores indecisos ou por meio de espiões russos querendo apenas criar confusão, a tecnologia de publicidade do Facebook é constantemente usada para fins duvidosos – e ainda falta resolver se devemos ou não permitir que uma só entidade seja capaz de vender o acesso a 2 bilhões de pares de olhos no mundo inteiro. Enquanto isso, o Facebook parece estar aprofundando – em vez de moderar – a caixa-preta de seu modelo de negócios. Quando se trata de uma empresa tão criticada por depender de algoritmos secretos para operar seu negócio, a decisão de usar a inteligência artificial e o aprendizado automático na mineração de dados não é nada animadora.

O FATO DE O FACEBOOK estar disposto a vender sua capacidade de prever nossas ações – e nossa fidelidade – se tornou ainda mais preocupante depois das eleições americanas de 2016, quando a equipe de campanha digital de Donald Trump usou as ferramentas de direcionamento do Facebook com resultados impressionantes. A empresa colabora regularmente com campanhas políticas em todo o mundo e gaba-se de ser capaz de influenciar a taxa de comparecimento às urnas. Um artigo na seção de “histórias de sucesso” do Facebook afirma que a colaboração com o Partido Nacional Escocês teria contribuído para “uma vitória esmagadora”. Depois que Mark Zuckerberg negou vergonhosamente que o Facebook pudesse influenciar eleições – mesmo tendo divulgado esse serviço –, a empresa tem tido dificuldades para se redimir. O Facebook ainda não sabe lidar com a própria capacidade de influenciar o mundo com base no que sabe sobre as pessoas; será que ele deveria realmente começar a influenciar o mundo com base em suas previsões sobre elas?

Jonathan Albright, diretor de Pesquisa do Tow Center for Digital Journalism, da Universidade de Columbia, disse ao The Intercept que, assim como qualquer algoritmo – principalmente os do Facebook – a segmentação de anúncios via inteligência artificial “sempre pode virar uma arma”. Albright, um crítico veemente da liberdade do Facebook para influenciar a política, está preocupado com os possíveis usos dessas técnicas em época de eleição. “Você pode identificar pessoas que podem ser convencidas a não votar, por exemplo”, diz.

Uma parte do documento ressalta como o Facebook ajudou um cliente a lucrar em cima de um grupo racial indeterminado, embora não fique claro se isso foi feito com o FBLearner Flow ou com métodos mais convencionais – o Facebook eliminou a possibilidade de direcionar anúncios a grupos étnicos no fim do ano passado, depois da publicação de um relatório da ProPublica.

Em entrevista ao The Intercept, Frank Pasquale diz que o projeto de previsão comportamental do Facebook é “assustador”. Ele está preocupado com a possibilidade de as previsões do algoritmo serem transformadas pela empresa em profecias autorrealizáveis. “Porque, uma vez feita a previsão, a firma tem um interesse financeiro na sua realização”, afirma. Ou seja, quando o Facebook diz a um cliente que tal pessoa fará tal coisa daqui a um mês, a empresa precisa garantir que a previsão se realize, ou pelo menos mostrar que foi ajudou a evitar a sua realização – mas ainda não se sabe como o Facebook poderia provar para um cliente que foi capaz de mudar o futuro.

Os estímulos gerados pela inteligência artificial já são problemáticos o suficiente quando se trata de incentivar uma compra, e usar a tecnologia para angariar votos é ainda mais delicado. Rumman Chowdhury, diretor da Reponsible AI Initiative, da Accenture, diz que, assim como os algoritmos de sugestões da Netflix e da Amazon, projetos mais ambiciosos poderiam não só adivinhar o comportamento do usuário como também reforçá-lo. “Os algoritmos de recomendação são feitos para que você clique nas sugestões, e não necessariamente para fornecer informações relevantes”, explica.

O Facebook não respondeu a pedidos de resposta sobre exatamente que tipo de dados dos usuários são usados para prever comportamentos ou se essa tecnologia poderia ser usada em contextos mais delicados, como campanhas políticas ou assistência médica. Em vez disso, a equipe de relações públicas da empresa afirmou que ela usa o “FBLearner Flow para gerenciar vários tipos diferentes de fluxos de trabalho” e que o “machine learning é um tipo de fluxo que pode ser gerenciado”. O Facebook negou que o FBLearner Flow seja usado com fins de marketing (uma “descaracterização”) e disse que “deixou publicamente claro que usa o machine learning para anúncios”, em referência ao artigo da Wired.

Outro problema é a relutância do Facebook em discutir abertamente como monetariza a inteligência artificial. Para Albright, essa resistência é um sintoma “do conflito inerente” entre o Facebook e a “prestação de contas”. “[O Facebook] não pode simplesmente divulgar os detalhes dessas coisas, porque o modelo de negócios deles depende justamente disso”, acredita. Mas o Facebook nunca esteve disposto a revelar nada além do que é exigido pela Comissão de Valores Mobiliários dos EUA e suas equipes de gestão de crise. A empresa já provou repetidas vezes que é capaz de adulterar os fatos e, quando a verdade vem à tona, dar um jeito de se safar com declarações vacilantes e tímidos posts de Zuckerberg.

Apesar disso, o número de usuários do Facebook no mundo não para de crescer, assim como o lucro da empresa. Um escândalo, por exemplo, de uma rede de fast-food afundada em acusações de descaso com seus clientes sofreria sérios desgastes em sua imagem, mas o Facebook parece gozar de uma imunidade incomum nesse sentido – pelo menos até o escândalo da Cambridge Analytica. Talvez as pessoas não deem tanta importância à própria privacidade a ponto de pressionarem o Facebook fazer mudanças significativas. Talvez muitos usuários pressuponham que, ao criar uma conta, tenham assinado automaticamente um pacto com o Grande Demônio Digital; talvez eles já tenham aceitado jogar suas vidas privadas nessa máquina de publicidade operada por algoritmos. “Não podemos esquecer a história disso tudo; a indústria da publicidade se baseia há décadas na previsão do comportamento, tanto de indivíduos quanto de grupos. De certa forma, esse é o propósito da publicidade”, afirma Hwang. Mas também não podemos esperar que os usuários do Facebook – ou de qualquer outra tecnologia – sejam capazes de identificar sozinhos o que é ou não perigoso quando são mantidos deliberadamente em uma ignorância quase completa. Uma rede de fast-food é obrigada por lei a revelar os ingredientes – e as quantidades – da comida que serve à sua clientela. Mas não há nenhum mecanismo que obrigue o Facebook a explicar o que é feito exatamente com os dados do usuário; basta divulgar uma política de privacidade arbitrária, que, no máximo, declara o que o Facebook se reserva o direito de fazer. Sabemos que o Facebook já se envolveu nas mesmas práticas indecorosas da Cambridge Analytica, pois eles próprios alardeavam isso em seu site; mas agora os links foram retirados do ar sem nenhuma explicação, e voltamos a ficar no escuro. O que é feito de nossos dados pessoais continua sendo tratado como segredo industrial pelo Facebook, mas, pelo lado positivo, Mark Zuckerberg afirma que sua empresa tem “a responsabilidade de proteger seus dados, e, se não pudermos fazê-lo, não merecemos prestar nossos serviços a vocês”. Só que Zuckerberg é o CEO de uma empresa que usa dados pessoais para alimentar um algoritmo de previsão que será usado para direcionar anúncios e lucrar com o que os usuários possam vir a fazer no futuro. Pode parecer difícil conciliar esses dois lados de Zuckerberg; talvez por ser impossível.

 

Fonte: Por Sam Biddle, no The Intercept/Municipios Baianos

Comentários:

Comentar | Comentários (0)

Nenhum comentário para esta notícia, seja o primeiro a postar!!