Ética da IA Capítulo 4 —— Capitalismo de Vigilância

Abstrato

O capitalismo de vigilância depende da apropriação e comercialização de dados pessoais para fins lucrativos.

Este capítulo destaca três casos ligados ao capitalismo de vigilância: a apropriação de dados, a monetização de dados de saúde e a prática comercial desleal quando “grátis” não é “grátis” . Discute preocupações éticas relacionadas à desigualdade de poder, privacidade e proteção de dados, e falta de transparência e explicabilidade. O capítulo identifica respostas para responder às preocupações sobre o capitalismo de vigilância e discute três respostas principais apresentadas na literatura política e académica e defendidas pelo seu impacto e potencial de implementação no atual sistema socioeconómico: regulamentação antitrust, partilha e acesso a dados e fortalecimento de dados reivindicações de propriedade de consumidores/indivíduos. É necessária uma combinação de medidas de governação activas e funcionais para conter o crescimento e os efeitos nocivos do capitalismo de vigilância e proteger a democracia.

Palavras-chave

Antitruste · Big Tech · Apropriação de dados · Monetização de dados · Capitalismo de vigilância · Práticas comerciais desleais

4.1 Introdução

O florescimento de sistemas e produtos alimentados pela inteligência artificial (IA) e a crescente dependência deles alimentam o capitalismo de vigilância e o “governo baseado em dados” . Argumenta-se que os principais beneficiários são as “Big Tech” ——incluindo Apple, Amazon, Alphabet, Meta, Netflix, Tesla——que parecem estar a consolidar o seu poder sobre os indivíduos e a sociedade e a afectar a democracia.

Descrito de forma simples, o capitalismo de vigilância depende da apropriação e comercialização de dados pessoais com fins lucrativos. Zuboff conceituou-o e definiu-o como uma “nova forma de capitalismo de informação [que] visa prever e modificar o comportamento humano como um meio de produzir receitas e controlar o mercado”. Ela argumenta que o capitalismo de vigilância “efetivamente exila as pessoas do seu próprio comportamento, ao mesmo tempo que produz novos mercados de previsão e modificação comportamental” . É sustentado pela utilização organizacional de dados comportamentais que conduzem a assimetrias de conhecimento e poder . Como resultado, os consumidores muitas vezes podem não perceber até que ponto estão a responder às solicitações motivadas por interesses comerciais.

Doctorow explica que os capitalistas de vigilância se envolvem na segmentação (segmentação baseada em comportamento/atitudes/escolhas), no engano (fazendo afirmações fraudulentas, substituindo crenças por outras falsas ou imprecisas) e na dominação (por exemplo, o domínio do Google nas pesquisas na Internet e a monopolização do mercado através de fusões e aquisições). Ele descreve três razões pelas quais as organizações continuam a coletar e reter dados pessoais em excesso:primeiro, que estão competindo com a capacidade das pessoas de resistir às técnicas de persuasão, uma vez que sejam sábias para elas, e com a capacidade dos concorrentes de atingirem os seus clientes; segundo, que o baixo custo da agregação e armazenamento de dados facilita a aquisição de um ativo pela organização para vendas futuras; e terceiro, que as sanções impostas pela fuga de dados são insignificantes .

O capitalismo de vigilância manifesta-se tanto no sector privado como no sector público; organizações de ambos os setores recolhem e criam vastas reservas de dados pessoais sob vários disfarces. Exemplos para o setor privado podem ser encontrados nos mercados online (por exemplo, Amazon ), na indústria das redes sociais (por exemplo, Facebook ) e na indústria do entretenimento (por exemplo, Netflix ). Os exemplos mais citados de capitalismo de vigilância são as tentativas do Google e do Facebook de alimentar os seus sistemas e serviços. No setor público, isso é muito notável nos setores de saúde e varejo. Durante a pandemia da COVID-19, chamou-se a atenção para o capitalismo de vigilância relacionado com a saúde . Por exemplo, argumentou-se que as tecnologias de telessaúde foram promovidas demasiado rapidamente durante a pandemia da COVID-19.

4.2 Casos de capitalismo de vigilância habilitado para IA

Caso 1: Apropriação de Dados

Clearview AI é uma empresa de software com sede em Nova York especializada em software de reconhecimento facial, inclusive para aplicação da lei. A empresa, que detém dez mil milhões de imagens faciais, pretende obter mais 90 mil milhões , o que equivaleria a 14 fotos de cada pessoa do planeta. Em maio de 2021, foram apresentadas queixas legais contra a Clearview AI em França, Áustria, Grécia, Itália e Reino Unido. Argumentou-se que as fotos foram colhidas de serviços como Instagram, LinkedIn e YouTube, em contravenção com o que os usuários desses serviços provavelmente esperariam ou teriam concordado. Em 16 de dezembro de 2021, a Commission Nationale de l'Informatique et des Libertés francesa anunciou que tinha“ordenou à empresa que cessasse este tratamento ilegal e apagasse os dados no prazo de dois meses”.

As investigações realizadas pela Commission Nationale de l'Informatique et des Libertés (CNIL) sobre a Clearview AI revelaram duas violações do Regulamento Geral de Proteção de Dados ( RGPD ): primeiro, um tratamento ilícito de dados pessoais, como a recolha e utilização de dados biométricos os dados foram realizados sem base jurídica; e em segundo lugar, a incapacidade de ter em conta os direitos dos indivíduos de uma forma eficaz e satisfatória, especialmente no que diz respeito ao acesso aos seus dados.

A CNIL ordenou que a Clearview AI cessasse a recolha e utilização de dados de pessoas em território francês na ausência de base jurídica, para facilitar o exercício dos direitos dos indivíduos e para cumprir os pedidos de apagamento. A empresa teve dois meses para cumprir as liminares e justificar seu cumprimento ou enfrentar sanções.

Este caso é um exemplo de apropriação de dados (ou seja, a recolha ou recolha ilegal, não autorizada ou injusta de dados pessoais para fins conhecidos ou desconhecidos, sem consentimento ou com consentimento coagido ou desinformado). As organizações que se apropriam de dados desta forma não oferecem aos titulares dos dados “compensação comparável”, enquanto as próprias organizações obtêm lucros comerciais e outros benefícios da atividade.

Caso 2: Monetização de Dados de Saúde

Em 2021, os dados pessoais de 61 milhões de pessoas tornaram-se disponíveis publicamente sem proteção por palavra-passe, devido a fugas de dados num fornecedor de serviços de monitorização de saúde com sede em Nova Iorque . Os dados incluíam informações pessoais como nomes, sexo, localização geográfica, datas de nascimento, peso e altura. O pesquisador de segurança Jeremiah Fowler , que descobriu o banco de dados, atribuiu sua origem a uma empresa que oferecia dispositivos e aplicativos para rastrear dados de saúde e bem-estar. Os usuários do serviço cujos dados pessoais foram vazados estavam localizados em todo o mundo. Fowler contatou a empresa, que agradeceu e confirmou que os dados já estavam protegidos.

Este caso destaca problemas com a recolha e armazenamento de dados de saúde em grande escala por empresas que utilizam dispositivos de rastreio de saúde e fitness, e revela a vulnerabilidade de tais dados a ameaças e exposição.

Uma preocupação relacionada é a aquisição desses dados por empresas como a Google através da aquisição de empresas como a Fitbit, produtora de monitores de fitness e software relacionado. Os peritos indicaram que tal aquisição é problemática por várias razões : grandes riscos de “envolvimento da plataforma”, a extensão do poder de monopólio (ao minar a concorrência) e a exploração do consumidor. As suas preocupações também se relacionam com os graves danos que podem resultar da capacidade do Google de combinar os seus próprios dados com os dados de saúde do Fitbit.

A Comissão Europeia realizou uma investigação aprofundada sobre a aquisição da Fitbit pelo Google. As preocupações que surgiram relacionavam-se com a publicidade, na medida em que a aquisição aumentaria a já extensa quantidade de dados que o Google conseguia utilizar para a personalização de anúncios, e a dificuldade resultante para os rivais tentarem igualar os serviços do Google nos mercados de pesquisa online anúncio. Argumentou-se que a aquisição criaria barreiras à entrada e expansão dos concorrentes do Google, em detrimento dos anunciantes, que acabariam por enfrentar preços mais elevados e teriam menos escolha. A Comissão Europeia aprovou a aquisiçãodo Fitbit pelo Google sob o Regulamento de Fusões da UE, condicionado ao cumprimento total de um pacote de compromissos de dez anos oferecido pelo Google.

Caso 3: Práticas Comerciais Desleais

Em 2021, o Consiglio di Stato (Conselho de Estado) da Itália concordou com a Autorità Garante della Concorrenza e del Mercato (Autoridade da Concorrência italiana) e o Tribunale Amministrativo Regionale (Tribunal Administrativo Regional) da região do Lácio em sancionar o Facebook por uma prática comercial desleal . O Facebook foi multado em sete milhões de euros por enganar os seus utilizadores ao não lhes explicar de forma atempada e adequada, durante a ativação das suas contas, que os dados seriam recolhidos com fins comerciais .

Este caso destaca como as empresas enganam os usuários fazendo-os acreditar que estão obtendo um serviço de mídia social gratuitamente, quando isso não é verdade. O problema é agravado pelo facto de as empresas não comunicarem suficientemente bem aos utilizadores que os seus dados são a contrapartida para a utilização do serviço e que o serviço só lhes está disponível mediante a disponibilização dos seus dados e a aceitação dos termos do serviço. O que também é comunicado de forma imprecisa é como e em que medida as empresas utilizam esses dados para utilização comercial e tiram partido deles para fins publicitários direcionados. Os comentadores chegaram ao ponto de afirmar que as próprias pessoas que utilizam esses serviços se tornaram o produto.

4.3 Questões Éticas Sobre o Capitalismo de Vigilância

Uma das principais preocupações éticas que surgem no contexto dos três estudos de caso é a da desigualdade de poder . O poder da Big Tech é significativo; foi até comparado ao dos Estados-nação e é ainda mais fortalecido pelo desenvolvimento e/ou aquisição de soluções de IA. Todos os três casos examinados serviram para aprofundar e reforçar o controlo que os proprietários de IA detêm. O poder concentrado que cabe a um punhado de grandes empresas tecnológicas e o controlo e a influência que têm , por exemplo, na tomada de decisões políticas , na manipulação do mercado e na vida digital, estão a perturbar os processos económicos e a representar uma ameaça à democracia , às liberdades dos indivíduos e às liberdades políticas. e vida social.

Outra preocupação ética fundamental trazida à tona nestes casos é a privacidade e a proteção de dados (ver Capítulo 3 ). A privacidade é fundamental para a autonomia e o bem-estar humanos e ajuda os indivíduos a protegerem-se de interferências nas suas vidas. Por exemplo, os dados pessoais de saúde vazados podem ser apropriados por empregadores ou seguradoras de saúde e utilizados contra os interesses da pessoa em causa. A proteção de dados exige que os dados sejam processados ​​de forma legal, justa e transparente, além de serem limitados por finalidade, precisos e retidos por um período limitado. Exige também que esse tratamento respeite os princípios de integridade, confidencialidade e responsabilização.

A falta de transparência e explicabilidade está associada à apropriação de dados, à monetização de dados e às práticas comerciais desleais. Embora possa parecer óbvio do ponto de vista social e de proteção de dados que os requisitos de transparência devem ser seguidos pelas empresas que adquirem dados pessoais, este imperativo enfrenta desafios. Os desafios de transparência são resultado da estrutura e das operações da indústria de dados. A transparência também é desafiada pela apropriação de valores de transparência nos esforços de relações públicas por parte dos corretores de dados (por exemplo, Acxiom, Experian e ChoicePoint) para diluir a regulamentação governamental. É também realçado que a transparência pode apenas criar uma “ilusão de reforma” e não resolver os desequilíbrios básicos de poder.

Outras preocupações éticas dizem respeito à proporcionalidade e à proibição de causar danos. A Recomendação da UNESCO sobre a Ética da Inteligência Artificial, conforme adotada, sugere:

  1. O método de IA escolhido deve ser adequado e proporcional para atingir um determinado objetivo legítimo;
  2. O método de IA escolhido não deve infringir valores fundamentais; a sua utilização não deve violar ou abusar dos direitos humanos;
  3. O método de IA deve ser adequado ao contexto e basear-se em fundamentos científicos rigorosos;

Nos casos acima examinados, existem falhas evidentes no cumprimento destas verificações. “Adequação” refere-se a se a solução tecnológica ou de IA utilizada é a melhor (no que diz respeito ao custo e à qualidade que justifica quaisquer invasões de privacidade), se existe um risco de direitos humanos, como o da privacidade, de serem abusados ​​e de os dados serem reutilizados e se os objetivos podem ser satisfeitos por outros meios. A conveniência da utilização de soluções de IA também é algo que deve ser devidamente considerado – no que diz respeito à finalidade, às vantagens e aos encargos por elas impostos aos valores sociais, à justiça e ao interesse público.

Um aspecto fundamental da percepção do capitalismo de vigilância como sendo eticamente problemático parece ser a invasão dos mecanismos de mercado em áreas da vida que anteriormente não estavam sujeitas a trocas financeiras. Até certo ponto, isto está ligado à percepção de exploração dos produtores de dados. Muitos utilizadores de serviços online “gratuitos” contentam-se em utilizar serviços como redes sociais ou ferramentas de produtividade online em troca da utilização dos seus dados por fornecedores de aplicações. Há também, no entanto, uma percepção de injustiça, uma vez que os prestadores de serviços têm conseguido obter ganhos financeiros gigantescos que não são partilhados com os indivíduos de cujos dados dependem para gerar esses ganhos. Além disso, a crítica ao capitalismo de vigilância parece basear-se na percepção de que algumas partes da vida social deveriam estar livres de trocas de mercado. Uma manifestação disto pode ser o uso do termo “amigo” nas redes sociais, onde não só a natureza da amizade difere substancialmente daquela no mundo offline, mas o número de amigos e seguidores pode levar a transações financeiras que seriam considerado inapropriado no mundo offline.

Não existe uma única questão ética claramente identificável que esteja na base do capitalismo de vigilância. O termo deve ser entendido como significando oposição a mudanças sociais tecnicamente possíveis que concentram o poder económico e político nas mãos de algumas organizações de alto perfil.

4.4 Respostas ao Capitalismo de Vigilância

Muitos tipos de respostas foram apresentados para responder às preocupações sobre o capitalismo de vigilância: respostas legais ou baseadas em políticas, respostas baseadas no mercado e respostas sociais .

As medidas legais e políticas incluem regulamentação antitrust, regulamentação intergovernamental, reforço das reivindicações de propriedade de dados de consumidores ou indivíduos, socialização da propriedade de tecnologias em evolução, obrigando as grandes empresas tecnológicas a gastar os seus lucros de monopólio na governação , quadros de divulgação obrigatória e maior partilha e acesso a dados.

As respostas baseadas no mercado incluem a valorização das informações fornecidas aos capitalistas de vigilância, reduções de monopólios, retirada de financiamento das grandes tecnologias e reembolso de serviços orientados para a comunidade e utilizadores que empregam o seu poder de mercado, rejeitando e evitando empresas com comportamento antiético percebido .

As respostas sociais incluem indignação, nomeação/indignação pública , espaços de dados pessoais ou serviços intermediários emergentes que permitem aos utilizadores controlar a partilha e utilização dos seus dados, aumentando a literacia em dados e a consciencialização sobre o quão transparente é a política de dados de uma empresa, e melhorando a educação do consumidor.

Esta secção examina três respostas que apresentam formas promissoras de reduzir o impacto do capitalismo de vigilância e as questões éticas estudadas de diversas maneiras, embora nenhuma por si só seja uma solução milagrosa . Estas respostas foram discutidas na literatura política e académica e defendidas pelo seu impacto e potencial de implementação no actual sistema socioeconómico. Os desafios do capitalismo de vigilância surgem do ambiente sócio-político em que a IA é desenvolvida e utilizada , e as respostas que destacamos aqui são informadas por este facto.

4.4.1 Regulamentação Antitruste

“Antitrust” refere-se a ações para controlar monopólios, impedir que as empresas trabalhem em conjunto para controlar injustamente os preços e aumentar a concorrência empresarial leal. As leis antitruste regulam o comportamento monopolista e evitam práticas comerciais ilegais e fusões. Os tribunais analisam as fusões caso a caso em busca de ilegalidade. Muitas chamadas e propostas foram feitas para contrariar o poder das Big Tech (por exemplo, Warren ). Proliferaram as discussões sobre o uso de regulamentações antitruste para desmembrar grandes empresas de tecnologia e a nomeação de reguladores para reverter fusões tecnológicas ilegais e anticompetitivas .

A Big Tech é considerada problemática pela sua concentração de poder e controlo sobre a economia, a sociedade e a democracia, em detrimento da concorrência e da inovação nas pequenas empresas. Grunes e Stucke enfatizam a necessidade do “papel integral da concorrência e do antitruste para garantir que capturamos os benefícios de uma economia baseada em dados e, ao mesmo tempo, mitigamos os riscos associados” . No entanto, a utilização de soluções antitrust para controlar empresas dominantes apresenta alguns problemas , tais como a redução dos incentivos competitivos (forçando a partilha de informações) e da inovação, criando preocupações com a privacidade ou resultando em estagnação e medo entre os fornecedores de plataformas.

Existem vantagens e desvantagens no uso da regulamentação antitruste como medida para conter o poder das Big Tech. As vantagens incluem atrasar ou frustrar aquisições, gerar melhor visibilidade, transparência e supervisão, forçar as Big Tech a melhorar as suas práticas e melhores perspetivas para as pequenas empresas. Uma desvantagem é que, apesar das medidas antitrust tomadas até agora, algumas grandes empresas tecnológicas continuam a aumentar o seu poder e domínio . Outra desvantagem é a implementação e fiscalização que os encargos antitrust impõem aos reguladores . Além disso , as ações antitrust são dispendiosas e perturbadoras para os negócios e podem afetar a inovação.

Os desenvolvimentos (propostas legislativas, desafios de aquisição, processos judiciais e multas) nos EUA e na Europa mostram que o poder das Big Tech está sob um escrutínio mais profundo do que nunca .

4.4.2 Compartilhamento e acesso a dados

Outra resposta às preocupações do capitalismo de vigilância é uma maior partilha e acesso aos dados (sujeito a salvaguardas e restrições legais). Sugere-se que a disponibilização de dados abertos e gratuitos sob um ambiente regulatório rigoroso tenha o potencial de abordar melhor as limitações da legislação antitruste. Na mesma linha, Kang sugere que os mandatos de partilha de dados (aplicados de forma segura através de tecnologias que melhoram a privacidade) “tornaram-se um pré-requisito essencial para que a concorrência e a inovação prosperem”; para contrariar o “poder monopolista derivado dos dados, as Big Tech devem partilhar o que sabem —— e tornar esta informação amplamente utilizável para concorrentes atuais e potenciais”.

A nível da União Europeia , a proposta doA Lei de Governação de Dados é vista como um “primeiro alicerce para estabelecer uma economia sólida e justa baseada em dados” e “criar as condições certas para uma partilha confiável de dados, em linha com os nossos valores europeus e direitos fundamentais”.

A Lei da Governação de Dados visa promover a disponibilidade de dados para uma utilização mais generalizada, aumentando a confiança nos intermediários de dados e reforçando os mecanismos de partilha de dados em toda a UE. Especifica as condições para a reutilização, na União Europeia, de certas categorias de dados detidos por organismos do setor público; um quadro de notificação e supervisão para a prestação de serviços de partilha de dados; e um quadro para o registo voluntário de entidades que recolhem e tratam dados disponibilizados para fins altruístas.

A Comissão Europeia também apresentará “uma segunda grande iniciativa legislativa, a Lei dos Dados, para maximizar o valor dos dados para a economia e a sociedade” e “para promover a partilha de dados entre empresas e entre empresas e governos”. A proposta de Lei dos Mercados Digitais visa estabelecer regras harmonizadas que garantam mercados contestáveis ​​e justos no setor digital em toda a União Europeia. Os gatekeepers estarão presentes e espera-se que o acesso comercial a determinados dados passe por gatekeepers.

4.4.3 Fortalecimento das reivindicações de propriedade de dados de consumidores/indivíduos

Outra resposta ao capitalismo de vigilância é fortalecer as reivindicações de propriedade de dados por parte de consumidores e indivíduos. Jurcys et al. argumentam que mesmo que os dados detidos pelo utilizador sejam intangíveis, cumprem todos os requisitos de um “ativo” nas leis de propriedade e que tais “dados são especificamente definidos, têm valor económico independente para o indivíduo e podem ser livremente alienados”.

Fadler e Legner também sugerem que a propriedade dos dados continua a ser um conceito-chave para esclarecer direitos e responsabilidades, mas deve ser revisto no contexto do Big Data e da análise . Eles identificam três tipos distintos de propriedade de dados —— propriedade de dados, plataforma de dados e propriedade de produtos de dados ——que podem orientar a definição de mecanismos de governança e servir como base para funções e estruturas de governança de dados mais abrangentes.

Tal como Hummel, Braun e Dabrock descreveram, o que há de comum nos apelos à propriedade dos dados relaciona-se com os modos de controlar a forma como os dados são utilizados e com a capacidade de canalizar, restringir e facilitar o fluxo de dados. Sugerem também que, no que diz respeito à mercantilização e à mercantilização dos dados, a propriedade revelou-se uma faca de dois gumes e que a utilização deste conceito exige uma reflexão sobre a forma como os titulares dos dados podem proteger os seus dados e partilhá-los de forma adequada. Além disso, sublinham que “mesmo que os quadros jurídicos impeçam a propriedade genuína dos dados, ainda há espaço para debater se podem e devem acomodar tais formas de quase-propriedade”.

Os desafios que afectam esta resposta incluem a ambiguidade do conceito de propriedade, a complexidade do ciclo de valor dos dados e o envolvimento de múltiplas partes interessadas, bem como a dificuldade em determinar quem poderia ou teria o direito de reivindicar a propriedade dos dados.

4.5 Principais insights

É necessária uma combinação de medidas de governação activas e funcionais para conter o crescimento e os efeitos nocivos do capitalismo de vigilância e proteger a democracia. À medida que avançamos, existem alguns pontos-chave que devem ser considerados.

Romper com a regulamentação antitruste é difícil de fazer

Embora desmembrar a Big Tech usando regulamentação antitruste possa parecer uma proposta muito atraente, é desafiador e complexo. Moss avalia as possíveis consequências das propostas de separação e destaca as três questões a seguir:

  • • Os limites de dimensão poderiam levar a uma ampla reestruturação e regulamentação.
  • • As propostas de dissolução não parecem considerar a dinâmica mais ampla criada pela proibição da propriedade de uma plataforma e de empresas afiliadas.
  • • Novos regimes regulatórios para serviços públicos de plataforma exigirão uma reflexão significativa.

Um relatório do projecto SHERPA financiado pela UE também destaca os encargos de implementação impostos aos legisladores (que devem definir a letra e o âmbito da lei) e às autoridades de aplicação (que devem seleccionar alvos apropriados para a acção de aplicação e tomar decisões de aplicação).

Outros desafios incluem as limitações no conhecimento dos responsáveis ​​pela aplicação da lei antitrust e o impacto potencial de investigações e processos judiciais imprudentes nos mercados, processos intermináveis, definição de que conduta viola a lei antitrust, perturbações nos negócios e no crescimento, e custos elevados, incluindo o impacto sobre inovação.

“Os funcionários da Big Tech são um dos maiores freios ao seu poder”?

Entre as ações mais significativas que mudaram a forma como as empresas digitais se comportam e operam estão as ações tomadas pelos funcionários dessas organizações para responsabilizar seus empregadores por preocupações éticas e práticas ilegais, enquanto no processo arriscam carreira, reputação, credibilidade e até mesmo a vida. . Ghaffary salienta que os funcionários da tecnologia estão numa posição única (com a sua compreensão “nos bastidores” dos algoritmos e das políticas da empresa) para fornecer verificações e permitir o escrutínio necessário para influenciar a Big Tech. No contexto da IA, dadas as questões de falta de transparência, isto é significativo pelo seu potencial de penetrar nos véus corporativos.

Uma variedade de questões foram trazidas à luz por denunciantes de tecnologia: uso indevido ou ilegal de dados , racismo institucional, supressão de pesquisas , supressão do direito de organização , falsificação de dados, falta de controles de segurança e risco de vida por meio de hospedagem discurso de ódio e atividades ilegais .

A denúncia de irregularidades é agora vista no contexto digital e da IA ​​como uma ferramenta positiva de governança corporativa. As leis foram e estão a ser alteradas para aumentar a proteção dos denunciantes, por exemplo em Nova Iorque e na União Europeia. Espera-se que as denúncias de denunciantes aos órgãos responsáveis ​​pela aplicação da lei aumentem à medida que os reguladores melhoram a aplicação e a supervisão da IA. Isso pode fornecer uma verificação necessária da Big Tech. No entanto, a denúncia de irregularidades tem o seu próprio preço , especialmente para as pessoas suficientemente corajosas para dar este passo, e por si só não é suficiente, dados os recursos das Big Tech e os elevados custos humanos e financeiros para os indivíduos que são forçados a realizar tal actividade. .

O capitalismo de vigilância pode ter vindo para ficar, pelo menos durante algum tempo, e os seus efeitos podem ser fortes e duros a curto e médio prazo (e mais longos se não forem abordados), mas como mostrado acima, há uma infinidade de mecanismos e ferramentas para enderece. Além das respostas discutidas neste capítulo, é importante que outras medidas sejam devidamente revistas quanto ao seu potencial para apoiar a IA ética e utilizadas conforme necessário — sejam elas baseadas no mercado, políticas ou baseadas na lei ou intervenções sociais. Ainda mais importante é a necessidade de educar e informar o público sobre as implicações e os efeitos adversos do capitalismo de vigilância para a sociedade. Este é um papel que as organizações da sociedade civil e os meios de comunicação social estão bem posicionados para apoiar.

Acho que você gosta

Origin blog.csdn.net/ycy1300585044/article/details/132732429
Recomendado
Clasificación