Allison Butler e Nolan Higdon discutem os sistemas de “tecnologia educacional” que estão corroendo os direitos de privacidade de menores e discriminando estudantes negros.
AQualquer tecnologia criada pelo complexo industrial militar dos EUA e adotada pelo público em geral sempre veio com uma ressalva.
Para a maioria, a internet, o GPS, a tela sensível ao toque e outras tecnologias ubíquas são ferramentas comuns do mundo moderno. No entanto, na realidade, essas tecnologias servem a “usos duplos”,
Ao mesmo tempo em que elas servem de conveniência para pessoas comuns, elas também permitem a coerção, a vigilância e o controle em massa dessas mesmas pessoas nas mãos do estado corporativo e militar.
Nolan Higdon e Allison Butler, autores de Educação em vigilância: navegando pela ausência flagrante de privacidade nas escolas, junte-se ao apresentador Chris Hedges neste episódio de O relatório de Chris Hedges. Eles exploram os sistemas de software e tecnologia empregados em escolas de ensino fundamental e médio e instituições de ensino superior que vigiam alunos, corroem os direitos de privacidade de menores e, no processo, discriminam alunos de cor.
O uso dessa tecnologia, explica Higdon, se baseia no tratamento dos humanos como produtos por meio do capitalismo de vigilância.
“Você extrai dados e informações sobre humanos de todas essas tecnologias inteligentes, e então você é capaz de fazer determinações sobre o comportamento deles, como eles podem reagir a algo. E há muitas indústrias interessadas nisso”, Higdon conta a Hedges.
Butler explica que os alunos, muitas vezes sem escolha no assunto, são submetidos ao uso dessa tecnologia que explora inerentemente seus dados. Como há um consentimento implícito para que ela seja usada, “a quantidade muito limitada de proteções que existem para manter os dados dos menores seguros desaparece quando você tem uma tecnologia que é colocada em sua sala de aula”, diz Butler. “Há uma aceitação passiva dessa tecnologia.”
Higdon aponta as mudanças feitas pela administração Obama em 2012 no Family Educational Rights and Privacy Act (FERPA) como um fator-chave. Essas mudanças permitiram que dados de alunos fossem compartilhados com empresas privadas que servem como parceiras educacionais.
“Efetivamente, todos os dados que o movimento pelos direitos dos estudantes trabalhou para garantir que fossem privados puderam ser distribuídos para essas empresas”, diz Higdon.
Os autores enfatizam o profundo impacto que essas tecnologias têm nos processos fundamentais de aprendizagem em sala de aula.
“Isso restringe a curiosidade, que é essencial para o processo educacional”, diz Higdon. “O trauma mental e a dificuldade de fechar um dos poucos espaços onde eles podem explorar, eu acho que isso apenas fala sobre o problema com a vigilância e o processo educacional.”
host: Chris Hedges
Produtor: Max Jones
Intro: Diego Ramos
Equipes: Diego Ramos, Sofia Menemenlis e Thomas Hedges
Transcrição: Diego Ramos
Chris Hedges: Ferramentas de vigilância se tornaram onipresentes em escolas e universidades. Tecnologias, prometendo maior segurança e desempenho acadêmico aprimorado, permitiram que Gaggle, Securly, Bark e outros coletassem dados detalhados sobre os alunos. Essas tecnologias, no entanto, não apenas falharam em cumprir suas promessas, mas evisceraram a privacidade dos alunos.
Isso é especialmente verdadeiro em comunidades pobres, onde há pouca verificação da vigilância em massa. Esses dados são frequentemente usados contra os alunos, especialmente os pobres e os alunos de cor, acelerando o pipeline da escola para a prisão. Quando alunos e professores sabem que estão sendo observados e monitorados, isso sufoca o debate intelectual, qualquer desafio à narrativa dominante e investigação sobre abusos de poder.
Mas, mais ameaçadoramente, permite que corporações e agências governamentais estigmatizem e criminalizem estudantes. Essas plataformas digitais podem mirar nos jovens com propaganda e usar engenharia social e análise de tendências para moldar o comportamento. Juntando-se a mim para discutir a vigilância em massa de estudantes está Nolan Higdon, autor, com Allison Butler, de Educação em vigilância: navegando pela ausência flagrante de privacidade nas escolas.
Então, Allison, vamos começar com você e, como você faz no livro, nos dê um retrato de quão intrusiva — o que eu não sabia até ler seu livro — é essa vigilância e como ela funciona.
Allison Butler: Claro. Muito obrigado por nos receber. Eu diria que a resposta mais curta para essa pergunta é que é incrivelmente, totalmente, totalmente intrusivo. E para expandir isso, vivemos em um mundo agora de tecnologias de vigilância. Não há praticamente nenhum lugar que você e eu possamos ir como indivíduos onde não estejamos de alguma forma sendo vigiados. Muito disso é, até certo ponto, por nossa própria escolha. Por exemplo, se entrarmos em nosso carro e usarmos nosso GPS, estamos concordando com esses termos.
O que nos preocupa, em particular com este texto, é que temos uma quantidade esmagadora de vigilância em nossas escolas de ensino fundamental e médio e superior. Especificamente para escolas de ensino fundamental e médio, essa vigilância está acontecendo para menores, para crianças com menos de 12 anos, sem seu consentimento ativo. Nós meio que fomos acostumados, meio que fomos preparados para tecnologias de vigilância por algumas dessas tecnologias suaves, como nosso GPS, como códigos QR que nos ajudam a tornar a visualização de cardápios de restaurantes um pouco mais fácil, como alguns dos aplicativos em nosso telefone que tornam nossas vidas um pouco mais convenientes.
O custo disso é que, quando tecnologias de vigilância mais rígidas e intrusivas chegam aos nossos mundos e, para nossa preocupação em particular, chegam às nossas salas de aula, já temos a base estabelecida para isso, e podemos não necessariamente questionar essas tecnologias na medida em que elas merecem.
Chris Hedges: Bem, essas tecnologias, como você aponta no livro, não são comercializadas como sistemas de vigilância. Elas são comercializadas como melhorias na educação, melhorias na segurança. E apenas me dê uma imagem de algumas delas que embarcam e dessas outras ferramentas de vigilância digital, me dê uma imagem do que elas são e como funcionam.
Nolan Higdon: Sim. Muito obrigado por me receber, Chris. Allison e eu estamos felizes por estar aqui. E acho que a maneira mais fácil de entender isso é, assim como o resto do Vale do Silício, essas empresas de tecnologia educacional ou tecnologia educacional, elas tendem a prometer demais e entregar de menos. Então, muitas das justificativas para adicioná-las às salas de aula são coisas com as quais as pessoas normalmente concordariam, certo? Essas ferramentas vão nos tornar mais seguros ou protegidos. Elas vão melhorar o aprendizado. Elas vão preparar os alunos para o mercado do século XXI. Algumas delas até se anunciam como sendo mais inclusivas. Isso é mais compatível com DEI [diversidade, equidade e inclusão], porque elas eliminam o preconceito humano, ou o elemento humano, é o que elas afirmam. Mas percebemos que em todos esses casos, elas realmente mascaram mais, eu diria, motivos perniciosos.
Há muito dinheiro a ser ganho tendo essas ferramentas na sala de aula e sendo capaz de coletar dados. Então esse é um problema. O outro problema é que, além de mascarar o motivo real, que é lucrar, elas realmente não cumprem muitas dessas promessas. Falamos no livro sobre como, embora eles digam que essas ferramentas são construídas para promover a segurança, elas frequentemente falham nisso. Há uma escassez de evidências para dizer que elas realmente melhoram o aprendizado e então há muitas boas evidências de que elas realmente funcionam contra os objetivos do DEI. Então, em muitos desses casos, parece que as razões que são dadas para ter essas ferramentas de tecnologia educacional nas escolas são muito diferentes do que elas realmente fazem ou do propósito real de adicioná-las a uma escola.
Chris Hedges: Allison, você pode explicar especificamente, como, por exemplo, Bark ou escolher um ou dois desses programas e nos explicar o que eles, claro que eles estão coletando dados, mas o que eles fazem dentro do ambiente escolar? Qual é a função deles?
Allison Butler: Claro. Então, um exemplo que é usado em muitas salas de aula do K ao 12 é uma tecnologia chamada GoGuardian. O GoGuardian é colocado em computadores, laptops de sala de aula. Então, se você tem, para efeito de argumentação, uma sala de aula onde cada aluno tem um laptop atribuído, pode ser a própria atribuição deles de que eles têm aquele laptop em particular para todo o ano letivo ou pode ser laptops de sala de aula, e acontece de ser onde o aluno está sentado.
O GoGuardian monitora suas telas, monitora tudo o que eles estão fazendo, e então o professor na frente da sala de aula, ou onde quer que ele esteja, pode estar olhando para as telas dos alunos durante a aula. Um argumento que o GoGuardian diz é que isso ajuda os professores a manter os alunos no caminho certo, e, portanto, ajuda os alunos a permanecerem no caminho certo. Então, é apresentado como comportamental. É apresentado como uma espécie de ferramenta de foco, porque os professores podem estar olhando para as telas dos alunos, e então há um tipo de elemento de cenoura e vara nisso, que é um professor pode dizer, ei, você precisa sair desse site. Não é nisso que estamos trabalhando.
Ou [o professor] pode olhar diretamente para o trabalho de um aluno e comentar sobre o que ele está fazendo bem ou o que pode precisar ser adaptado. É apresentado como esse tipo de tecnologia comunitária para salas de aula. Aqui estão alguns dos problemas que encontramos com o GoGuardian: Os professores geralmente ouvem que é deles que devem revisar e, de fato, muitos dos professores que entrevistamos para o livro disseram que acreditavam que eram eles que estavam fazendo a vigilância, que estavam um pouco desconfortáveis com isso, mas realmente viam o poder da vigilância em seus computadores. O que não está sendo dito a eles ou não está sendo esclarecido é que, na verdade, é a corporação que está fazendo toda a vigilância. E se estivermos pensando particularmente nas salas de aula do K ao 12, como observei antes, esses são dados de menores.
Então, a quantidade muito limitada de proteções que existem, proteções digitais, para manter os dados dos menores seguros, acaba quando você tem uma tecnologia que é colocada em sua sala de aula, há uma aceitação passiva dessa tecnologia. Os próprios alunos não deram uma aceitação ativa de ter seus dados coletados. É um consentimento implícito. E, de fato, essa é a linguagem que é frequentemente usada, é ao usar a tecnologia, é consentimento implícito, e não há necessariamente uma opção de exclusão. Então, temos uma sala de aula de confusão onde o professor acredita que está no comando e que está tomando uma decisão ética específica, quando, na verdade, não é ele quem está no comando.
Uma vez que algo como o GoGuardian captura os dados dos alunos e suas informações, ele os tem, não há nenhum tipo de botão de desligar para isso, e se em algum momento um aluno conectar seu celular pessoal naquele dispositivo para carregá-lo, o GoGuardian agora tem todos esses dados também por causa da conexão digital desses dispositivos.
Uma professora que entrevistamos ficou um pouco desconfortável, estava contando uma história em que estava um pouco desconfortável com o GoGuardian, em parte porque o aluno estava doente em casa e a professora ainda conseguia ver o que estava acontecendo na tela, como quando o aluno estava em casa, fora da escola por um motivo legítimo, a professora conseguia ver o aluno como se estivesse assistindo a vídeos do YouTube. E foi quando ela meio que pensou, Ah, isso não é o que eu pensava que era. Isso não está diretamente conectado à sala de aula, certo? Acho que às vezes as conveniências de nossas tecnologias digitais nos convidam a esquecer que nossas tecnologias digitais podem ser monitoradas em todos os lugares que estamos, não apenas em nossas salas de aula.
Acho que outro exemplo, algo que é usado tanto no ensino fundamental e médio quanto no ensino superior, seria o Turnitin. O Turnitin é um programa onde os professores podem configurá-lo para que os alunos enviem seus trabalhos escritos por meio desta plataforma, e ele se vende, se apresenta como detecção de plágio, o que eu suponho que, em algum nível, seja verdade. A outra coisa insidiosa é que muitas dessas tecnologias e essas corporações nunca mentem para você. Elas simplesmente não contam toda a verdade e deixam de fora algumas partes realmente importantes. Então, o Turnitin, sim, é um software de detecção de plágio. E também, o Turnitin faz pelo menos duas coisas.
Um, é ensinar IA, certo? Então os alunos que estão enviando seus artigos estão dando mais e mais informações para o desenvolvimento de IA generativa, e então o Turnitin também vende essas informações para anunciantes e profissionais de marketing, para que a linguagem dos jovens esteja sendo analisada e então meio que usada em linguagem de publicidade e marketing e meio que vendida de volta para eles. Então nossos jovens estão, até certo ponto, trabalhando para essa corporação. Eles estão fazendo muito do trabalho, e não estão sendo compensados de forma alguma. Então eu diria que esses são dois grandes exemplos que mostram o quão insidiosas essas tecnologias são, o quão invasivas elas são, e o quão confusas elas podem ser para aqueles que são encorajados a usá-las.
“… a linguagem dos jovens está sendo analisada e então meio que usada em linguagem de publicidade e marketing e vendida de volta para eles. Então nossos jovens estão, até certo ponto, trabalhando para essa corporação. Eles estão fazendo muito do trabalho, e não estão sendo compensados de forma alguma.”
Chris Hedges: Nolan, vamos falar sobre como essas tecnologias são usadas para policiar estudantes, especialmente em bairros pobres, o que afeta desproporcionalmente estudantes negros.
Nolan Higdon: Sim, uma das coisas que notamos com essas ferramentas é que elas, novamente, fazem essas promessas enormes, certo? Então elas prometem coisas como se pudéssemos prever se um aluno pode se envolver em criminalidade, ou se somos capazes de prever se um aluno está tendo problemas de saúde mental que precisam ser resolvidos.
Mas o diabo está nos detalhes. O que essas ferramentas fazem é coletar muitos dados e codificar algoritmos para analisar esses dados, para fazer determinações sobre a saúde mental ou potencial criminalidade de alguém. E é aqui que vemos um grande problema em confiar demais nessas ferramentas. Esses algoritmos que interpretam os dados são codificados com o mesmo viés de seus criadores, e vemos repetidamente como esses algoritmos tiram conclusões racistas ou transfóbicas, e o que quero dizer com isso é que esses algoritmos categorizarão desproporcionalmente os alunos de cor como sendo mais propensos a cometer um crime. Como resultado, eles são mais monitorados pela escola, e isso, novamente, normaliza esse monitoramento de corpos negros.
O mesmo acontece com os detectores de saúde mental: eles categorizam desproporcionalmente coisas como crianças trans por problemas de saúde mental, o que não significa que elas estejam apenas passando por desafios de saúde mental, o que faz parte da vida de algumas pessoas, mas também significa que elas precisam ser observadas por coisas como tiroteios em escolas, suicídio ou automutilação.
“… esses algoritmos categorizarão desproporcionalmente os alunos de cor como sendo mais propensos a cometer um crime.”
E então você tem o policiamento excessivo desses indivíduos também. E então um dos mitos, eu acho, que o Vale do Silício em geral, vendeu, mas essas ferramentas de tecnologia educacional em particular, é que elas têm esses algoritmos objetivos que são livres do viés dos humanos e, portanto, podem tirar conclusões mais precisas. Mas a pesquisa diz que não, esse não é o caso, se alguma coisa, essas ferramentas na verdade complicam ou pioram muitos dos problemas que tivemos com questões como racismo ou transfobia.
Chris Hedges: Allison, quero falar sobre como esses dados, antes de tudo, acabam nas mãos de potenciais empregadores. É uma indústria multibilionária por ano vendendo nossos dados pessoais, tudo o que já fizemos, cada infração de trânsito que já tivemos, porque essencialmente permite que empregadores, talvez até mesmo universidades, que estejam olhando para alunos do ensino médio, tenham informações que deveriam ser privadas e, claro, poderiam ser usadas contra esses alunos ou potenciais funcionários.
Allison Butler: Então eu meio que discordaria de uma palavra que você disse, que é a venda dos nossos dados. Acho que a coisa que talvez precisemos prestar mais atenção, certo, ao ponto de Nolan sobre o diabo estar nos detalhes, e ao tipo de coisa que eu disse antes sobre como eles não mentem para nós, eles simplesmente não necessariamente nos contam tudo.
Muitas dessas tecnologias hoje dirão que não vendemos seus dados, e são vários pontos de exclamação, certo? E isso é algo que deveríamos dizer, "Ah, ok, ótimo. Meus dados estão seguros." Absolutamente não. Primeiro de tudo, seus dados não estão seguros, porque violações acontecem com tanta frequência que nem são manchetes ou notícias mais. Em um ponto da nossa pesquisa, estávamos tentando categorizar ou catalogar todas as diferentes violações, e nós meio que pensamos, apontar isso nesses microdetalhes não vai ser útil, porque isso acontece o tempo todo. Estamos tão acostumados com isso.
Mas o que realmente precisamos considerar é que muitas dessas corporações compartilham nossos dados, certo? Então o que acontece é que temos o que você e eu podemos pensar como corporações diferentes que não têm conexão umas com as outras, e elas fizeram parcerias. Elas compraram os modelos de negócios umas das outras. Elas estão conectadas de alguma forma. Então elas se chamam corporações educacionais ou parceiras educacionais. Isso significa que elas não precisam realmente vender nossos dados. Elas podem compartilhar nossos dados. Então podemos ficar tranquilos em algum nível. Mas, na verdade, é esse outro nível que talvez precisemos pensar com mais cuidado.
Então, quando falamos sobre empregadores, ou quando falamos sobre faculdades, ou mesmo se falamos sobre escolas particulares, temos tantos parceiros educacionais que já têm acesso aos dados, que já podem fazer alguma análise deles, que eles têm permissão para compartilhá-los. Acho que costumávamos falar há vários anos sobre, particularmente com alunos do K ao 12, os empregadores vão olhar para suas mídias sociais. Os escritórios de admissão de faculdades vão olhar para suas mídias sociais. Na verdade, não precisamos mais direcionar nossos jovens a se preocuparem com essas faixas específicas. Essas pessoas não precisam fazer um monte de trabalho de detetive. Já está lá para eles. Então, se eles estão prestando muita atenção ou não, não tenho certeza, mas os dados já estão lá. Estão simplesmente bem na frente deles.
Chris Hedges: Nolan, você pode falar sobre como eles são proativos, engenharia social, como não se trata apenas de coletar dados, mas de usar dados para moldar e moldar o comportamento.
Nolan Higdon: Sim, e para adicionar uma camada a isso, para continuar de onde Allison parou também. E eu até disse isso muito hoje também, essas são empresas de tecnologia educacional, mas isso é meio enganoso. Muitas dessas empresas que administram ou possuem essas plataformas de tecnologia educacional, como falamos sobre algumas, como Gaggle, Bark, há Canvas, outras, geralmente são de propriedade de empresas de capital. Isso realmente começou nos últimos 10 anos, essas empresas de capital compraram essas ferramentas de tecnologia educacional, ostensivamente porque havia uma maneira de entrar na sala de aula. Há toda uma indústria aqui no mundo acadêmico que eles chamam de capitalismo de vigilância, que se baseia na ideia de tratar humanos como produtos. Então você extrai dados e informações sobre humanos de todas essas tecnologias inteligentes e, então, é capaz de fazer determinações sobre o comportamento deles, como eles podem reagir a algo. E há muitas indústrias interessadas nisso, certo? As indústrias de publicidade gostariam de saber como criar o anúncio perfeito para fazer você comprar algo. As seguradoras gostariam de saber como definir seus prêmios, talvez com base na saúde ou em seus padrões de direção, etc. Portanto, os dados podem ser bastante lucrativos para as indústrias nesse sentido.
Mas além de prever comportamento, também há entidades interessadas em cutucar seu comportamento. Então, o que posso fazer? Em que situação posso colocá-lo? Que informações posso lhe dar para que você se comporte assim? E há uma grande crença na indústria de que, se coletarmos dados suficientes, podemos cutucar o comportamento das pessoas na direção certa, principalmente aqui estamos em um ano eleitoral, muitas campanhas, é isso que estão tentando fazer com esses dados. Como podemos usar esses dados para fazer com que essas pessoas votem, ou talvez fazer com que essas pessoas não votem, dependendo de coisas assim? Então, há muito potencial na indústria se você for capaz de coletar vários pontos de dados, e é por isso que as escolas são tão atraentes, certo?
Eles são um dos poucos lugares que foram protegidos como espaço público, então empresas privadas há muito tempo queriam entrar lá e, sob o altruísmo de fornecer ferramentas de tecnologia educacional, esta tem sido uma oportunidade para elas entrarem na sala de aula e obterem acesso a esses dados lucrativos.
“[As escolas] são um dos poucos lugares que foram protegidos como um espaço público, e por isso as empresas privadas há muito tempo querem entrar lá e... ter acesso a dados lucrativos.”
E só para fazer um ponto fino sobre isso, algumas dessas grandes empresas não possuem apenas ferramentas de tecnologia educacional, elas possuem coisas como Baby Connect, que diz aos pais para usarem essas ferramentas para monitorar seus bebês. Elas também possuem plataformas que observam os padrões de trabalho das pessoas após a formatura. Também obtêm dados de escolas de mídia social. O objetivo é fazer o que eles chamam de perfil psicográfico de indivíduos do berço ao túmulo, e as escolas são uma parte importante desse processo.
Chris Hedges: E eu quero deixar claro, você aponta isso no livro, essa é uma indústria enorme. EdTech, você diz, é uma indústria global de US$ 123.4 bilhões. Estamos falando de muito, muito dinheiro. Allison, eu quero falar sobre, nós assistimos durante o verão enquanto universidades e escolas impuseram todos os tipos de novas restrições e regras para encerrar protestos contra o genocídio na Palestina, e isso foi coordenado em todo o país, sem panfletos, sem eventos, mesas, sem acampamentos, etc. Até que ponto ferramentas como essas ajudam universidades e escolas a encerrar a dissidência ou controvérsia, particularmente em torno da Palestina?
Allison Butler: Eu acho que em grande medida, e eu acho que este é um lugar onde é indicativo dos maiores medos das nossas universidades de, bem, provavelmente para ser um pouco irreverente, nossos medos dos jovens e do que eles estão fazendo com suas próprias tecnologias, mas medos do estado da liberdade acadêmica, medos do que a dissidência significa, do que a desobediência significa. Eu acho que passamos tanto tempo em nossas salas de aula elogiando atos históricos de dissidência, atos históricos de desobediência, mas quando isso é confrontado conosco no tempo presente, é de alguma forma assustador.
Se eu vou dar a eles o benefício da dúvida, são administradores procurando alguma maneira de manter seus campi seguros, para manter alunos, professores, funcionários que têm visões diferentes e conflitantes de segurança. Infelizmente, acho que a palavra seguro é frequentemente usada como um por favor, não me processe, certo? É um eufemismo para por favor, não me processe. Então, acho que, por um senso cultivado de medo, as tecnologias de vigilância fazem um ótimo trabalho capitalizando o medo, certo? Quero dizer, mudando um pouco, quando pensamos no início da Covid, ela estava capitalizando o medo do que queríamos ser juntos, certo? Quão perigoso pode ser para nós estarmos no mesmo espaço. E acho que essas corporações continuam a capitalizar esse medo quando estamos olhando para a dissidência, manifestação e desobediência. E então você tem ferramentas universitárias, então você tem ferramentas de estado policial, certo? Que a polícia está chegando com câmeras corporais, que, sejamos honestos, podem ser ligadas e desligadas para criar e enquadrar uma narrativa muito particular, certo? A questão é essa: as tecnologias de vigilância e essas ferramentas cortam em todas as direções.
Temos nossos próprios alunos que estão filmando suas ações, o que significa que há seus rostos, certo? Se eles estão lá em dissidência pacífica, se eles estão lá em desobediência civil, seus rostos estão muito lá, o que significa que, se algo der errado, não importa por quem dê errado, certo? Se for a instigação da polícia ou a instigação de estudantes opostos, já temos todas as informações deles. Então, estamos vivendo em um ambiente onde eu acho que é, como ao longo da história, importante estar presente, importante se levantar, e também essa presença e essa postura estão sendo manipuladas e manobradas de maneiras terríveis por essas tecnologias de vigilância.
Chris Hedges: E, Allison, isso tem uma ramificação global, porque universidades e escolas tradicionalmente são lugares onde a troca de ideias e divergências, em uma democracia funcional, é um dos epicentros, um dos epicentros físicos onde esse tipo de discussão deveria ser permitido.
Allison Butler: Absolutamente e eu acho, novamente, quando olhamos para a história, quando olhamos para o arco da história, de alguma forma temos essa imagem pintada de que isso era dissidência, onde as pessoas estavam se comportando como se tivessem um desacordo civilizado, e parece que não estamos mais tendo isso. Então, nossos desacordos muito incivis, nossos desacordos muito físicos estão sendo pintados e apresentados de uma forma por meio dessas tecnologias que provavelmente não poderíamos ter feito na história, certo?
Acho que muita conversa neste verão, ao abordar as convenções presidenciais, tanto o RNC quanto o DNC estavam dizendo, o DNC em particular, estando em Chicago, tipo, vamos olhar para a história. E acho que isso é importante. Eu nunca diria que não deveríamos fazer isso, mas muita coisa mudou na forma como nossa tecnologia está participando dessas convenções ou dessas dissidências que nossa compreensão do comportamento é total e completamente diferente.
Chris Hedges: Nolan, essas informações, como você escreve no livro, não acabam apenas nas mãos de corporações, elas acabam nas mãos do DHS, do FBI. Fale um pouco sobre como a segurança do estado também usa essas informações.
Nolan Higdon: Sim, a chamada segurança nacional, ou indústria de segurança nacional, está fortemente envolvida com a coleta desses dados. E vale lembrar às pessoas que essas ferramentas — internet, tela sensível ao toque, GPS e muitas outras funções de dispositivos inteligentes na era digital — vêm do complexo industrial militar. Elas foram criadas por meio de financiamento de defesa, trabalhando em colaboração com universidades e escolas em meados do século XX. E, de fato, falamos no livro, quando os alunos descobriram para que essas ferramentas estavam sendo criadas, eles protestaram contra elas.
Mas até hoje, essas ferramentas continuam coletando dados que são compartilhados com o DHS e a comunidade de inteligência, novamente, sob os auspícios de detectar potenciais terroristas, detectar potenciais ameaças. Isso é problemático por inúmeras razões, mas uma delas, apenas de um ponto de vista puramente educacional, realmente impacta negativamente o aprendizado. Estamos dizendo aos alunos efetivamente que quando eles estão no campus, eles são objetos a serem monitorados e protegidos, contra e gerenciados. É muito difícil desenvolver um relacionamento de confiança onde as pessoas se sintam confortáveis em correr riscos e cometer erros, que são centrais para a educação quando é um ambiente onde elas estão sempre sendo policiadas.
“É muito difícil desenvolver um relacionamento de confiança em que as pessoas se sintam confortáveis assumindo riscos e cometendo erros, que são essenciais para a educação, quando se trata de um ambiente em que elas estão sempre sendo policiadas.”
Chris Hedges: Bem, não apenas policiado e monitorado, mas como estamos observando com os protestos estudantis, essas ferramentas de monitoramento, efetivamente, são mais do que vigilância. É sobre desligar porque eles sabem quem está envolvido, instantaneamente. Quero dizer, eles sabiam disso no Occupy. Eu sei porque passei muito tempo no Zuccotti [Parque no centro de Manhattan], e depois que [o prefeito de Nova York Mike] Bloomberg fechou o parque, houve uma série de batidas policiais em lofts e eles pegaram todas as pessoas certas, porque estavam monitorando-as eletronicamente. Allison, quero que você fale sobre, em particular, duas ferramentas de segurança cibernética. Quero que você fale sobre Augury e Pegasus.
Allison Butler: Na verdade... esses são meio que os bebês do Nolan. Então, vou passar isso de volta para ele, se estiver tudo bem.
Nolan Higdon: Sim, o Pegasus é basicamente um pedaço de software espião que vem do governo israelense. Mas o Pegasus foi basicamente colocado em outro software. Então, se você entrasse em outros computadores, basicamente, você poderia monitorar pessoas ao redor do mundo que tinham esse software Pegasus lá, e isso estava basicamente criando uma plataforma de vigilância global. E Israel dificilmente está sozinho nisso. Os Estados Unidos têm sido...
Chris Hedges: E eu só quero interromper Nolan, Pegasus é uma criação israelense. Ele vem de Israel. Foi usado para rastrear Jamal Khashoggi, eu acho.
Nolan Higdon: Certo, sim, e os EUA, como eu disse, estão participando de produção e monitoramento semelhantes, incluindo trabalhar com Israel no Pegasus. Mas, sim, isso, eu acho, para o ponto de Allison sobre a história ter mudado, temos que falar muito sobre nossas expectativas ou o que nossos direitos e leis têm que mudar também.
Essa ideia de buscas e apreensões ilegais ou a ideia de que minha privacidade é algo que possuo, essas estão mudando na era digital, e a lei — e essa é uma das coisas que defendemos no texto — a lei precisa acompanhar isso, porque muitas das proteções que tínhamos sobre privacidade, brechas foram expostas por governos e corporações, como no exemplo da Pegasus. Falamos sobre coisas como, sua Primeira Emenda protege a liberdade de expressão do governo, mas o governo pode trabalhar com empresas de tecnologia para calar certos discursos ou ideias, ou você está protegido em suas comunicações, como em particular em sua casa, mas se for e-mail, isso significa que você entregou essas comunicações a uma empresa privada que pode então entregá-las ao governo.
Então, há muitas dessas brechas que eles estão expondo na era digital, e essa é uma das coisas que defendemos no texto, porque até tivemos um movimento pelos direitos dos estudantes que deu aos estudantes o direito à privacidade nas escolas. Foi isso que criou a FERPA aqui nos Estados Unidos. Mas então, por volta de 2012, a administração Obama mudou algo para FERPA.
Anteriormente, a FERPA significava que a escola não podia compartilhar as informações de um aluno com ninguém. Se eles fossem menores de idade, você poderia compartilhá-las com o responsável. Mas as mudanças na FERPA em 2012 disseram: "Não, você também pode compartilhar as informações deles com parceiros educacionais". Essas são empresas que têm contratos com as escolas. E então, efetivamente, todos esses dados que o movimento pelos direitos dos alunos trabalhou para garantir que fossem privados foram autorizados a serem distribuídos para essas empresas. E, como vimos, é isso que permite que ele entre em outras áreas também.
“Anteriormente, a FERPA significava que a escola não podia compartilhar as informações de um aluno com ninguém... Mas as mudanças na FERPA em 2012 disseram: 'Não, você também pode compartilhar as informações deles com parceiros educacionais.'”
Chris Hedges: E falando sobre o Augury. Ele é desenvolvido por uma empresa de segurança cibernética, equipe… O que é isso, Cymru, que disponibiliza grandes quantidades de dados para clientes governamentais e privados. Vários ramos das forças armadas pagaram coletivamente US$ 3.5 milhões para acessar os dados do Augury.
Nolan Higdon: Sim, empresas como a Augury, eu gosto de pensar nelas como uma espécie de repositórios gigantes de corretores de dados. Então elas saem e têm acesso a quantidades massivas de dados. Elas analisam esses dados em tempo real e, da maneira como a indústria descreve, elas vendem basicamente produtos que analisam esses dados para empresas ou governos.
Mas o Augury é um exemplo de algo que serve aos interesses de governos que talvez queiram atingir pessoas ou entender o comportamento ativista ou entender a comunicação ativista online. O Augury promete ter essa quantidade massiva de dados que ele pode analisar e fornecer algumas respostas para perguntas que os governos possam ter que estejam buscando vigiar, entender, prever ou cutucar o comportamento.
Chris Hedges: Allison, você usa um termo no livro, “racismo algorítmico”. Você pode explicar isso?
Allison Butler: Então, se pensarmos em algoritmos, e todos nós somos meio que, algoritmos são meio que, eu acho que nosso oxigênio hoje em dia, certo? Tudo o que fazemos digitalmente é extraído de um algoritmo. E algoritmos parecem, eu acho, para muitos, particularmente quando estamos falando com alunos do ensino fundamental e médio e até certo ponto no ensino superior, eles parecem esse tipo de coisa misteriosa que de alguma forma no computador... O que temos que lembrar é que algoritmos são, eles são programas, eles são codificação, eles são linguagem, eles são perguntas que são construídas por humanos, então eles são construídos com racismo, sexismo, homofobia, capacitismo, etc. de humanos falíveis, certo?
Então, para o nosso ponto de racismo algorítmico, há racismo embutido nessas tecnologias digitais, o que significa que, desde o início, eles verão pessoas de cor e, por extensão, mulheres de cor, pessoas com habilidades diferentes, qualquer um que se identifique como LGBTQ, basicamente qualquer um que seja ou se identifique fora do que o criador do algoritmo vê como a norma, o que significa que não estamos necessariamente olhando para experiências físicas e tangíveis de racismo. Estamos olhando para o racismo como uma forma de nos ensinar como usar tecnologias digitais, porque, como eu disse, está meio que embutido nisso, então os problemas estão chegando até nós imediatamente.
Portanto, começamos a aprender a administrar as coisas dentro desse quadro racista, e isso se torna uma norma, e se torna uma forma centralizada de ver as coisas, o que torna significativamente mais perigoso para corpos de cor, bem como para aqueles que interagem com corpos de cor, ter uma noção preconcebida embutida em suas tecnologias de quem esses corpos são e como se espera que eles se comportem.
“Estamos encarando o racismo como uma forma de nos ensinar a usar tecnologias digitais.”
Chris Hedges: Bem, um exemplo disso que você tira do livro é o software de reconhecimento facial em software de supervisão de testes como o Proctorio, ele é desenvolvido para alunos brancos. Alunos negros e pardos são menos detectáveis e forçados a fornecer mais informações pessoais do que alunos brancos para confirmar sua identidade.
Em outro exemplo do viés racista codificado em algoritmos, a pesquisa revela que programas que prometem prever com precisão a retenção de alunos e o sucesso no curso assumem falsamente que alunos de cor não terão sucesso. Isso ocorre porque grandes quantidades de dados são necessárias para treinar algoritmos e IA, mas eles são treinados usando lógica indutiva. Então, se eles estão programando para ver vários itens, mas só são mostrados um resultado, o algoritmo comunicará uma variedade de coisas diferentes como apenas uma coisa. Por exemplo, se o algoritmo for programado para reconhecer maçãs, mas só forem mostradas maçãs vermelhas, o código verá tudo naquele agrupamento como uma maçã vermelha. Embora isso seja incorreto na existência real de maçãs, é correto por meio do que o algoritmo foi ensinado.
Allison Butler: O algoritmo responde à entrada humana, certo? Quer dizer, acho que como nos anos 1980, quando estávamos meio que nos familiarizando com computadores, havia uma pequena frase de efeito, "lixo entra, lixo sai" que se você programasse, quero dizer, não eram apenas as pessoas comuns em nossas salas de estar programando computadores naquele momento, certo? Mas se você programasse lixo, então você teria lixo. E acho que vemos isso com nossa IA generativa. Qualquer um de nós que tropeça ou luta com o ChatGPT, por exemplo, talvez o que tenhamos que olhar é o que estamos programando nele. É a sofisticação que está acontecendo que isso não é eu meio que tentando desajeitadamente descobrir se o ChatGPT pode me fazer planos de refeições para a semana para que eu não tenha que pensar tanto quando vou ao supermercado. Esta é uma programação altamente sofisticada que está então enquadrando e construindo como o resto de nós vê o mundo, como nosso exemplo de software de reconhecimento facial, e temos um exemplo bem do século 21 de privilégio imerecido de ser branco. Esse branco se encaixa muito melhor no modelo.
Chris Hedges: Nolan, quero falar sobre migrantes. Você escreve no livro que escolas, especialmente universidades nos EUA, Reino Unido e Austrália, são autorizadas e esperadas pelos legisladores para identificar estudantes migrantes com status de imigração contestado ou ilegal. O Departamento de Segurança Interna dos EUA mantém volumes de dados com o propósito de localizar e rastrear migrantes. Por exemplo, a LexisNexis, que é amplamente usada na educação, vende dados para o Departamento de Segurança Interna, Immigration and Customs Enforcement, ICE. A LexisNexis, uma subsidiária da RELX Corporation, oferece produtos de análise de dados e bancos de dados online. Foi descoberto que ela forneceu informações confidenciais ao ICE, que o ICE presumivelmente estava usando para rastrear e prender indivíduos para deportação.
Nolan Higdon: Sim, isso veio do capítulo que foi motivado pelo fato de que toda vez que falamos sobre esse tópico, sempre recebemos essa pergunta, inevitavelmente de alguém que diz "Bem, e daí? Não tenho nada a esconder. Quem se importa com minha privacidade?" E no capítulo que você está lendo, Chris, tentamos estabelecer uma lista de diferentes vulnerabilidades, e uma em particular são os alunos que contestaram, ou o chamado, status de migrante ilegal. Eles claramente têm um motivo para querer privacidade. Pode nem ser eles, eles podem viver com alguém que contestou o status de migrante, que eles querem proteger por meio de sua própria privacidade também, mas ao participar do processo de aprendizagem onde essas ferramentas estão presentes, eles ameaçam esse status de migrante deles mesmos ou das pessoas com quem vivem, isso pode ser usado contra eles para deportação, prisão ou qualquer outra coisa.
E vemos isso repetidamente. É por isso que achamos que essas ferramentas são tão perniciosas, porque voltando a onde começamos essa conversa, elas são trazidas para coisas como segurança e aprendizado aprimorado e DEI e coisas com as quais acho que a maioria das pessoas concordaria, mas na prática, elas são usadas contra essas medidas, criminalizando pessoas, monitorando-as e, então, usando essas informações, possivelmente para deportar alguém.
“um processo de aprendizagem onde essas ferramentas estão presentes…poderiam ser usadas contra eles para deportação, prisão ou qualquer outra coisa.”
Chris Hedges: Você também destaca porque os dispositivos fornecidos pela escola podem e alertam os campi sobre as pesquisas na web dos alunos, pessoas que estão pesquisando sobre sua sexualidade e eles revelaram a preferência sexual dos alunos. Como resultado, os alunos LGBTQ+ tentam pesquisar informações sobre sua sexualidade ou curiosidade sexual, incluindo questões relacionadas à saúde, eles correm o risco de serem expostos para autoridades escolares, autoridades policiais e qualquer outra pessoa que possa acessar suas informações.
Nolan Higdon: Sim, isso volta ao que estávamos dizendo, certo? Acreditamos que a educação deve ser um exercício de liberdade. As pessoas devem ser capazes de explorar quem são, explorar informações. A expectativa é que eles vão cometer erros na sala de aula como alunos, apenas nossos professores, mas eles precisam se sentir confortáveis para poder cometer esses erros. Quando a ideia é que você está sendo constantemente monitorado, ou isso pode voltar para seus pais, ou isso pode ser transmitido para o mundo, os alunos são menos propensos a compartilhar. Eles são menos propensos a procurar essas informações. Isso restringe a curiosidade, que é essencial para o processo educacional, e sem mencionar que essas pessoas estão lutando com questões críticas sobre sua identidade, então o trauma mental e a dificuldade de fechar um dos poucos espaços onde eles são capazes de explorar, eu acho que isso apenas fala sobre o problema com a vigilância e o processo educacional.
Chris Hedges: Allison, quero falar sobre o que isso faz dentro das escolas e das universidades, você escreve que essa vigilância constante é uma forma de garantir que o corpo docente cumpra a homogeneidade ideológica buscada pela liderança escolar. Começa com o processo de inscrição, quando os candidatos são obrigados a compartilhar detalhes privados, como suas abordagens ao ensino e declarações de diversidade, que são usadas para garantir a homogeneidade ideológica no campus. Continua enquanto os alunos, muitas vezes ilegalmente, registram o que os professores fazem na sala de aula. Isso pode e tem sido usado para pressionar educadores a deixarem sua profissão se forem percebidos como detentores de uma posição ideológica que vai contra o status quo. Temos observado isso desde 7 de outubro, repetidamente.
Allison Butler: Acho que uma das coisas que essas tecnologias de vigilância podem fazer, intencionalmente ou apenas por acaso, é fomentar ambientes de desconfiança, certo? Como Nolan disse, como eu disse, como dizemos o tempo todo em nossas salas de aula, salas de aula escolares, esse é um lugar para cometer erros. É um lugar para tropeçar. É esse lugar para ser curioso. É um lugar onde a ignorância deve ser entendida de uma ótima maneira. Eu entro em uma sala de aula como um aluno que não sabe algo. Eu sou ignorante sobre isso. Eu tenho a oportunidade de aprender com isso.
Quando temos um ambiente onde temos todas essas divisões configuradas para nós via tecnologia, tudo isso corre o risco de desaparecer, desaparecer é uma palavra muito suave, de ser pisoteado, certo? Não estou dizendo que os alunos devem ter ou os professores devem ter seus dias cheios de conversas horríveis e odiosas, mas acho que precisamos aprender tantas perspectivas diferentes para realmente estarmos ensinando e aprendendo completamente.
E nossas tecnologias digitais têm a capacidade de gravar, isso é algo importante, mas elas também têm a capacidade de manipular, o que muda as histórias que professores e alunos estão contando. Elas criam salas de aula que, na melhor das hipóteses, vão correr o risco de serem chatas, ok, mas o que estamos realmente falando é sobre sufocar o aprendizado. Estamos falando sobre sufocar a exposição. Estamos falando sobre sufocar como gerenciar a diferença, certo? Eu acho que, enquanto olhamos para nossos conflitos globais hoje em dia, particularmente o que está acontecendo em Israel/Palestina, estamos aprendendo lições que dizem que a diferença é ruim versus a diferença é uma maneira de começar a tentar aprender uns sobre os outros como seres humanos.
Então, quando a diferença, quando a discussão, quando a pergunta, quando o mal-entendido, a genuína falta de entendimento, é sufocada por essas tecnologias digitais, nossas salas de aula não são mais lugares de curiosidade ou investigação. Elas são fábricas, apenas para nos dar um diploma, e esse diploma pode não significar tanto. Novamente, não estou defendendo de forma alguma, forma ou formato, uma sala de aula cheia de ódio, apenas para provar um ponto de que as coisas são diferentes, mas mais sobre o fato de que devemos ter ambientes onde podemos ficar desconfortáveis, curiosos, inquisitivos, animados, todas as coisas como uma ferramenta de aprendizagem, e que estamos fazendo isso juntos em comunidade, certo?
Acho que outra grande coisa com essas tecnologias de vigilância, com, em particular, nossas tecnologias de mídia social, é que elas são incrivelmente isolantes. Elas são, de fato, bem antissociais. E o que a escola pode fazer, o que as salas de aula podem fazer, o que o ensino e a aprendizagem podem fazer, é construir colaboração e construir comunidade, o que combate o isolamento. Ele combate essa silo-ificação e as tecnologias de vigilância estão trabalhando muito duro para construir isolamento e construir silos.
Chris Hedges: Bem, isso acaba com qualquer questionamento da narrativa dominante, não é?
Allison Butler: Absolutamente, e os alunos não necessariamente entendem ou conhecem a estrutura da narrativa dominante. Eles não necessariamente sabem questioná-la. Temos que começar a falar mais sobre todas essas coisas, e isso significa estarmos juntos nas salas de aula, em nosso mundo, estarmos juntos nas salas de aula e remover, da melhor forma que pudermos, essas tecnologias.
Chris Hedges: Bem, em qualquer sistema totalitário, o ponto é negar a capacidade de fazer perguntas. Nolan, eu quero perguntar, você disse, há um histórico bem documentado de empregadores utilizando vigilância para explorar trabalhadores e minar a negociação coletiva. Em vez de ver a vigilância da EdTech como um benefício para o processo educacional ou uma medida de segurança, os educadores precisam reconhecer que ela pode ser usada para minar o poder como funcionário. Fale sobre isso.
Nolan Higdon: Sim, essa foi uma parte realmente fascinante do livro, e uma que eu sei que estamos tentando levar para os sindicatos de professores. Mas sim, há uma longa história de empregadores que remonta a séculos, usando espiões físicos ou tentando espionar a comunicação para descobrir quem é um agitador trabalhista e removê-los e qualquer um que simpatize com eles. Esta é uma era totalmente nova. Temos essas ferramentas na sala de aula que podem vigiar as pessoas enquanto elas estão trabalhando na sala de aula. Teoricamente, use coisas, seja no contexto ou fora do contexto, para se livrar desses funcionários.
Também falamos sobre Israel, Gaza, muitos funcionários, professores agora, eles não têm proteções. Vimos a adjunctification ou a vontade do ensino superior. Então, independentemente de como as pessoas se sentem sobre esse conflito, elas evitam isso na sala de aula porque têm medo de que o que quer que digam possa ser usado contra elas para perder o emprego, e não são só elas perdendo, são os alunos perdendo uma oportunidade de se envolver em uma questão mundial crítica. E então, mais ainda, como professores, essas ferramentas também estão tentando aprender com o que estamos fazendo, então elas estão coletando nossos dados e lucrando com isso sem nos pagar.
Geralmente o movimento trabalhista quer ser pago pelo trabalho. Mas, além disso, eles também estão treinando essas ferramentas para tentar fazer algumas das funções do que o corpo docente está fazendo. Então você está treinando seu substituto em algum nível, e estou pensando em coisas como classificação inteligente e escrita inteligente de tarefas, essas novas ferramentas que estão surgindo.
Ou há algum lugar onde você pode ter uma imagem do seu rosto, e você pode digitar e a imagem dará uma palestra. Essa é uma maneira de substituir você como palestrante também. Então, muitas dessas coisas estão surgindo, tirando a privacidade, substituindo empregos, e o corpo docente está realmente participando do processo usando essas ferramentas e não obtendo barreiras rígidas em seus contratos para evitar esse tipo de exploração econômica, sem mencionar esse esforço de vigilância para minar o processo de negociação.
“independentemente de como as pessoas se sintam sobre esse conflito, elas o evitam na sala de aula porque têm medo de que o que disserem possa ser usado contra elas e fazer com que percam seus empregos, e não são só elas que estão perdendo, são os alunos que estão perdendo uma oportunidade de se envolver em uma questão mundial crítica.”
Chris Hedges: Allison, se isso não for controlado, sei que você termina o livro com sugestões sobre como coibir essa intrusão em nossa privacidade. Mas se isso não for controlado, em que tipo de ambiente educacional e até mesmo social e cultural viveremos?
Allison Butler: Acho que se não formos controlados, corremos o risco de viver em escolas de fábrica, como eu disse antes, que apenas empurramos nossos alunos para pegar um pedaço de papel. Vamos treinar as gerações futuras que ser monitorado é normal, que não existe privacidade. Teremos tipos de educação de rotina onde informações muito seguras e uma maneira segura de apresentá-las, e nós, pelo menos em termos de uma linguagem digital, saberemos tudo sobre todos, com uma possível ressalva de que aqueles que se encaixam em raça, gênero e capacidade econômica e física, entre aspas, normas, terão mais facilidade, mas começaremos a ver todos os nossos corpos que não se encaixam, todos os nossos humanos que não necessariamente se encaixam nisso, novamente, muito generoso, entre aspas, norma, ser movido cada vez mais para as franjas.
Acho que poderíamos ver que em um curto espaço de tempo, nossas salas de aula não serão pensadas como lugares de curiosidade, de inquisitividade. Elas serão pensadas como lugares de aceitação passiva de informações muito banais e cuidadosas.
Ao mesmo tempo, eles provavelmente vão parecer muito legais, porque nossas tecnologias de vigilância, todas as nossas tecnologias, parecem muito sofisticadas. Elas são de ponta. Elas são frequentemente usadas, certo? Como Nolan mencionou antes, muito do que usamos vem do complexo industrial militar — que podemos dirigir em lugares desconhecidos é GPS, é uma tecnologia militar ultrapassada. Que podemos tirar fotos legais de festas ou casamentos ou imóveis é tecnologia de drones e tecnologia militar ultrapassada. Acho que o conteúdo da nossa sala de aula corre o risco de ser totalmente banal e chato. A aparência deles pode acabar sendo muito legal, o que pode ser realmente chamativo e nos convidar a esquecer de pensar sobre o conteúdo.
Chris Hedges: Bem, quando o governo te vigia 24 horas por dia, você não pode usar a palavra liberdade, essa é a relação entre um mestre e um escravo. Isso foi Nolan Higdon e Allison Butler em seu livro, Educação em vigilância: navegando pela ausência flagrante de privacidade nas escolas. Foi realmente um ótimo trabalho que vocês dois fizeram. Quero agradecer a Sofia [Menemenlis], Diego [Ramos] Thomas [Hedges] e Max [Jones], que produziram o show. Você pode me encontrar em ChrisHedges.Substack.com.
Chris Hedges é um jornalista ganhador do Prêmio Pulitzer que foi correspondente estrangeiro por 15 anos para O Jornal New York Times, onde atuou como chefe da sucursal do Oriente Médio e chefe da sucursal dos Balcãs do jornal. Anteriormente, ele trabalhou no exterior por The Dallas Morning News, The Christian Science Monitor e NPR. Ele é o apresentador do programa “The Chris Hedges Report”.
Este artigo é de Scheerpost.
NOTA AOS LEITORES: Agora não tenho mais como continuar a escrever uma coluna semanal para o ScheerPost e a produzir meu programa semanal de televisão sem a sua ajuda. Os muros estão a fechar-se, com uma rapidez surpreendente, ao jornalismo independente, com as elites, incluindo as elites do Partido Democrata, a clamar por cada vez mais censura. Por favor, se puder, inscreva-se em chrishedges.substack.com para que eu possa continuar postando minha coluna de segunda-feira no ScheerPost e produzindo meu programa semanal de televisão, “The Chris Hedges Report”.
Esta entrevista é de Postagem de Scheer, para o qual Chris Hedges escreve uma coluna regular. Clique aqui para se inscrever para alertas por e-mail.
As opiniões expressas nesta entrevista podem ou não refletir as de Notícias do Consórcio.
Este artigo certamente me deixou mais relutante em persistir no uso do TurnItIn para detecção de plágio nas seções do curso de graduação que eu ensino daqui para frente, me fornecendo um motivo mais tangível para olhar de lado para o TurnItIn além dos meus sentimentos neoluditas abstratos generalizados sobre a natureza intrinsecamente panóptica e de duas faces de toda tecnologia da informação quando combinada com uma luxúria humana por poder. Dada a minha suspeita onipresente de diversas tecnologias de vigilância e marketing, fui ingênuo em não considerar os outros usos não ditos que tal software de detecção de plágio poderia ter antes de ler a transcrição desta entrevista, então agradeço a Chris Hedges e especialmente a Allison Butler por trazerem isso à minha atenção.
Obrigado, Chris, por trazer questões cruciais à nossa atenção, todos os dias.
Também estou pensando se você pode entrevistar Grisham em seu último livro NF.
Na minha experiência, a tecnologia para observar a atividade dos alunos no computador de uma escola existe desde 2007, pelo menos, usando aplicativos como Apple Remote Desktop e Teamviewer. Fiquei chocado ao testemunhar isso diretamente no escritório de Suporte Técnico da escola, principalmente porque meus alunos eram adultos, que tinham acesso às suas contas de e-mail, mas não faziam ideia de que suas comunicações não eram privadas. Naquela época, a espionagem pretendia ser passiva (embora potencialmente obscena), feita no interesse de fornecer suporte eficiente em caso de falha da máquina. O "empurrão" comportamental de que esses autores falam também não é novo. Em 2017, ouvimos relatos de coleta de dados sendo usada para empurrar a votação nos EUA e no Reino Unido, pela Cambridge Analytica e Aggregate IQ, respectivamente. Desde então, serviços como o Newsguard empurram a coleta de informações supostamente seguras e, por sua vez, o comportamento. A novidade aqui é que os dados de menores são compartilhados com intenção semelhante, e o mesmo velho viés de lixo dentro, lixo fora imposto a personalidades que ainda não estão totalmente formadas.
A necessidade de contexto e minúcia são apenas dois dos bons atributos de Chris.
Não vamos confundir um direito à privacidade com um direito inexistente ao anonimato em locais públicos. O primeiro é um direito natural à privacidade na casa e em outros locais privados e ao uso de suas próprias ferramentas e pertences. O último é uma expectativa de nenhuma reação a viver e agir em locais públicos e usar ferramentas e pertences públicos (e de terceiros), o que nunca existiu na história humana e não pode ser esperado, nem é desejável agora e no futuro.
Então, em relação ao artigo, as crianças têm direito à privacidade quando estão em suas próprias casas se elas (1) não convidarem corporações (oi Siri) para suas casas expressamente para espioná-las e (2) não estiverem usando ferramentas públicas fornecidas (laptops escolares) fornecidas para um propósito público para fazer coisas pessoais. Quanto a um ambiente público como a própria sala de aula ou andando pelo campus ou pela cidade em geral, ações tomadas em público são observáveis por qualquer pessoa interessada em tais ações e podem ser usadas para coleta de dados, marketing e qualquer outro motivo.
quanto a "Acho que poderíamos ver que em um curto espaço de tempo, nossas salas de aula não serão pensadas como lugares de curiosidade, de inquisitividade. Elas serão pensadas como lugares de aceitação passiva de informações muito banais e cuidadosas." ... meu Deus, que salas de aula essas pessoas têm visitado? Lugares de inquisitividade e curiosidade? Sério? "Bueller... Bueller... Bueller..."
Tudo o que você disser pode e será usado contra você.
Há realmente necessidade de um artigo tão longo??? Como se não tivéssemos mais nada para ler e nos preocupar! A raça branca ainda não percebeu que PERTURBADORES DE MERDA somos. Mas sempre culpam outra raça... é claro.