Estratégia/Movimento Wikimedia/2017/Fontes/Considerando 2030: Desinformação, verificação e propaganda (julho de 2017)
Enquanto a Wikimedia olha para 2030, como pode o movimento ajudar às pessoas a encontrar fontes confiáveis de conhecimento?[Note 1]
Como parte do processo de estratégia Wikimedia 2030, a Fundação Wikimedia trabalha com consultores de pesquisa independentes para entender as tendências chave que afetarão o futuro do conhecimento livre e compartilhar esta informação com o movimento.[1] Este relatório foi preparado por Dot Connector Studio, uma empresa de pesquisa de mídia e estratégia com sede na Filadélfia, focada em como as plataformas emergentes podem ser usadas para um impacto social, e Lutman & Associates, uma empresa de estratégia, planejamento e avaliação com sede em St. Paul, focada nas interseções de cultura, mída e filantropia.
Construindo em uma base sólida
Desde o lançamento da Wikipédia em 2001, os wikimedistas têm desenvolvido um processo de edição robusto, provado e transparente, confiando que os escritores e editores voluntários referenciarão rigorosamente as frases com fontes verificáveis, para ajudar os leitores a decidir se um determinado verbete está completo, verificada e sustentado em fatos. Os editores podem mudar o conteúdo, e o fazem, se não cumpre com os padrões da Wikipédia, mas é solicitado que incluam explicações das mudanças que fazem.
Claro, o processo de edição da Wikipédia pode ser complicado. Pode ter conflitos, particularmente nas entradas que são política ou culturalmente sensíveis,[2][3] Ao redor do mundo, os projetos Wikimedia poderiam ser afetados por censura governamental, política ou econômica, e campanhas de desinformação, bem como por conteúdo totalmente falsificado. Tudo isto poderá ser exacerbado por desenvolvimentos atuais e futuros em manipulação e verificação de mídias audiovisuais. Muitos dos mesmos desafios que a indústria das notícias está a enfrentar, podem também afetar os esforços dos wikipedistas para criar conteúdo confiável para audiências de todo mundo. As controvérsias com respeito a materiais educativos — que poderiam ser utilizados como material de referência na Wikipédia — são outro exemplo das formas que a informação pode ser suprimida ou manipulada.
Como parte de nossas pesquisas para o processo de estratégia de Wikimedia 2030, temos revisado mais de uma centena de relatórios, artigos e estudos acadêmicos para determinar as tendências atuais e futuras na desinformação que poderiam afetar a Wikimedia, e que baseiam o quadro seguinte.
O horizonte da desinformação
Ao considerar os desafios que Wikimedia poderá ter que abordar sobre a desinformação durante os próximos 10-15 anos, pode ser útil dividir as tendências em duas categorias: "conteúdo" e "acesso". Cada uma tem três influências globais principais.
- Conteúdo refere-se às tendências que podem afectar às fontes atuais usadas pelos wikimedistas para desenvolver informação fiável.
- Acesso refere-se a se e como os usuários da Wikipédia são capazes de usar a plataforma.
As influências globais que compõem estas duas tendências incluem tecnologia, governo e políticas e comércio.
Conteúdo | Acesso | |
---|---|---|
Influência: tecnologia | a informação criada por novas formas, como inteligência artificial, bots, big data, realidade virtual, manipulação dos formatos de mídia | novas maneiras de enviar conteúdo, como vestíveis, experiências de imersão, assistentes digitais ativados por voz |
Influência: governo e política | aumento na desinformação, ameaças às liberdades de imprensa ou acadêmica | censura/bloqueio à plataforma da Wikipédia ou a outras fontes, bloquear o acesso total a internet, monitorar/vigiar o acesso online |
Influência: comércio | pesquisas patrocinadas, reportagens pagas, defesas promocionais pagas, manchetes para atrair tráfico (clickbait) | "bolhas de filtro", dispositivos e plataformas proprietárias |
Influência: tecnologia
A tecnologia continua evoluindo rapidamente, apresentando um contínuo desafio de adaptação.
Conteúdo
A tecnologia cria numerosas oportunidades e desafios à criação de conteúdo. Por exemplo, os bots têm sido parte da Wikimedia desde o início, muitos desenhados para fazer "tarefas de manutenção", como acrescentar links, corrigir erros de ortografia e evitar o vandalismo. Algumas Wikipédias mantêm uma política de bots, que requer que os bots sejam registados; na Wikipedia em inglês, são supervisionados por um comité humano conhecido como o Grupo de Aprovações de Bots.
Esta criação de conteúdo aumentado pela tecnologia pode ser só o início. Nos próximos dez a quinze anos, espera-se que as ferramentas de inteligência artificial cresçam significativamente e sejam mais sofisticadas. De facto, segundo uma análise recente publicada na Scientific American, "espera-se que os supercomputadores ultrapassem cedo as capacidades humanas em quase todas as áreas; entre o 2020 e o 2060".[4] Big data crescerá e as formas automatizadas de colectar e analisar informação se tornarão mais poderosas.
A Wikimedia já tem observado este futuro, com ferramentas como Objective Revision Evaluation Service (ORES), que ajuda aos editores a identificar edições potencialmente "prejudiciais" baseado num cálculo prévio da qualidade dos artigos feito por editores da Wikimedia. Em uma rodada de perguntas (AMA) no Reddit de junho de 2017, o principal investigador cientista da Fundação Wikimedia, Aaron Halfaker, apontou tanto os pontos fortes como os perigos desta abordagem de etiquetar edições. "As predições podem afetar o julgamento das pessoas", escreveu. "Se temos uma inteligência artificial com algum viés, isto pode levar diretamente às pessoas a perpetuar esse viés... por isso somos muito cautelosos sobre o treinamento relativo ao comportamento passado". [5]
O aumento sem precedentes na automação da criação e análise de conhecimentos traz vantagens e desafios.
Pelo lado positivo, estas ferramentas estão a ajudar aos produtores de informação. Por exemplo, os pesquisadores estão a trabalhar em métodos para aplicar ferramentas de inteligência artificial a transmissoras de televisão para identificar mais facilmente oradores e temas de debate. [6] Desenvolver formas para extrair este tipo de informação pode se tornar útil para os wikimedistas na revisão de conteúdos de vídeo que são fontes para artigos. Em um relatório sobre o futuro do jornalismo aumentado, a Associated Press observa que os avanços na inteligência artificial permitirão aos repórteres (e a outros) "analisar dados; identificar padrões, tendências e ideias factíveis desde múltiplas fontes; ver as coisas que o olho humano não pode ver; levar os dados e as palavras faladas a texto; de texto ao áudio e vídeo; entender opiniões; analisar cenas e seus objetos, caras, texto ou cores; e mais".[7]
A inteligência artificial também pode dar forma a ambientes de aprendizagem, dirigindo usuários a fontes de conhecimento adequadas baseadas em dados sobre como têm interagido previamente com recursos de informação similares, e revelar ideias sobre como e quando tais recursos têm sido valiosos.[8] Como resultado, por exemplo, a inteligência artificial poderia inclusive ser usada para compilar vários artigos da Wikipédia em livros de texto instantâneos. Não é difícil imaginar como os editores da Wikipédia poderiam desenvolver ferramentas a partir desses avanços para fortalecer o conteúdo da Wikipédia.
No entanto, o desenvolvimento de novas ferramentas também pode levar a mais conteúdo enganoso que poderia propor desafios para referenciar entradas: "Em empresas e universidades [nos Estados Unidos], as tecnologias incipientes parecem próximas a apagar a linha entre o real e falso... Progressos na tecnologias de áudio e vídeo estão a se tornar tão sofisticadas que serão capazes de parecer as notícias reais — transmissões de televisão reais, por exemplo, ou entrevistas de rádio — de formas sem precedentes, e verdadeiramente indecifráveis", segundo prediz o escritor da Vanity Fair Nick Bilton.[9]
Em resposta, entre hoje e 2030, o movimento de Wikimedia terá que permanecer vigilante e desenvolver novos métodos de verificação que coincidam com estas novas capacidades tecnológicas. Isto significará que o processo para determinar a verificabilidade e as fontes confiáveis precisará evoluir, ou que o movimento poderia precisar construir suas próprias ferramentas equivalentes para responder ás edições com interesses contrapostos.
Tal como Kevin Kelly observa em The Inevitablel: Understanding the 12 Technological Forces That Will Shape Our Future, "A Wikipédia continua evoluindo seu processo. A cada ano sobrepõe-se mais estrutura. Os artigos controversos podem ser 'congelados' por editores superiores para que não possam ser editados por qualquer pessoa, só por editores designados. Há mais regras sobre o que é permitido escrever, mais formato obrigatório, mais aprovações necessárias. Mas a qualidade também melhora. Apostaria que em 50 anos uma porção significativa dos artigos de Wikipedia terão edições controladas, revisão de pares, travas de verificação, certificados de autenticidade, e mais".[10]
Acesso
A tecnologia também apresenta inúmeros obstáculos para acessar o conteúdo que se oferece nas plataformas da Wikimedia. Por exemplo, o modelo da Wikipédia baseado em navegadores e acessado por computador já tem foi superado; dependendo do lugar em que vivas, é provável que estejas a ler e editar artigos de Wikipedia desde um dispositivo móvel em vez de um computador. Esta tendência para dispositivos móveis está bem encaminhada e é a cada vez mais global.[11](Em relatórios futuros, exploraremos como outros desenvolvimentos em tecnologia, como a crescente sofisticação dos dispositivos móveis e o aumento dos assistentes virtuais baseados em áudio, afetarão o acesso a Wikipédia e a outros projetos da Wikimedia).
Influência: governo e política
Os governos e atores políticos têm o poder tanto para suprimir como para distorcer o conteúdo, e de restringir o acesso às plataformas Wikimedia. Por exemplo, a Agência de Internet turca bloqueou o acesso a todas as versões da Wikipédia em 29 de abril de 2017.
Conteúdo
Os governos de todo mundo podem monitorar (e o fazem) e reprimir a ativistas, jornalistas, acadêmicos e outros cidadãos que em outras condições poderiam ser criadores de materiais confiáveis para citar na Wikimedia ou criar e editar o conteúdo da Wikimedia. Os livros de texto e conteúdos de referência também são alvo para os regimes repressivos, tal como identificou um relatório de junho de 2017 da Freedom House, uma organização de direitos políticos com sede nos Estados Unidos.[12] Na Índia, por exemplo, os livros modelos publicados pelo Conselho Nacional de Investigação Educativa e Formação têm sido acusados de promover as ideias políticas de quem estão no poder.
Isto continuará sendo um desafio crucial para conseguir a visão da Wikimedia nos próximos 15 anos. A análise mais recente da liberdade de imprensa mundial dos Repórteres Sem Fronteiras declarou que o globo se está "a escurecer", ao se reduzir a liberdade de imprensa em certos países, e de forma geral no mundo.[13]
Enquanto isso, os governos autoritários continuam perseguindo e processando jornalistas. A Turquia encarcerou 120 jornalistas entre julho e novembro de 2016, depois do golpe de estado frustrado contra o governo atual.[14] Repórteres Sem Fronteiras alega que a "retórica política" utilizada pelo presidente de Estados Unidos Donald Trump na eleição presidencial de 2016 tem influído no discurso político sobre a imprensa em todo mundo. Por exemplo, o presidente de Tanzânia John Magufuli advertiu aos jornais que "seus dias estavam contados".[15] Esse tipo de repressão governamental não só reduz o material de fontes para os editores da Wikipédia, mas também pode resultar em um efeito amedrentador geral tanto para quem procura como para quem produz ou verifica informação.
Uma tendência relacionada entre os governos e os atores políticos é a propagação intencional de informação falsa, desinformação ou propaganda. Este tipo de manipulação pode debilitar o ecossistema geral de informação, criando uma cultura geral de dúvida relacionada com a confiabilidade da informação online. Isto poderia ter um impacto na confiabilidade das fontes, e portanto do conteúdo na Wikipédia. A atual batalha mundial para identificar e controlar a desinformação parece dar forma ao ambiente da informação durante os próximos 15 anos. E nem toda a desinformação é igual: a confluência do que, exatamente, constitui "notícias falsas", inspirou a Claire Wardle, diretora de pesquisa da First Draft News, para criar uma taxonomia de informação falsa, desde a sátira de propaganda até perfis falsos.[16]
Por exemplo, um jornal publicado em 2016 pela RAND Corporation acusa a Rússia de traficar com uma "fonte de falsidade", transmitindo "verdades parciais ou abertamente fictícias" sobre um grande número de canais de comunicação, seguindo uma filosofia de quantidade sobre qualidade.[17] BuzzFeed informou em janeiro de 2017 que na França, os seguidores de Trump nos Estados Unidos estavam a publicar como cidadãos franceses para manipular eleições da França. [18] Dias antes da eleição francesa, hackers entraram nos servidores do candidato líder (e eventual ganhador) Emmanuel Macron, em um ataque unido ao roubo de e-mails do Comitê Nacional Democrata dos Estados Unidos.[19]
Esta propagação da desinformação online está a ocorrer apesar do recente crescimento no número de organizações dedicadas a verificar factos: em todo mundo, ao menos 114 "equipes dedicadas a verificação de factos" estão a trabalhar em 47 países.[20]
Olhando para o futuro, que podemos esperar? Em primeiro lugar, a liberdade de expressão mundial oscilará em função dos acontecimentos políticos nacionais e internacionais. É menos claro se as tendências mundiais para a autocracia continuarão ou se as sociedades livres terão um ressurgimento, lutando exitosamente com as pressões sobre a imprensa e a academia, e a politização dos fatos como simples perspectivas individuais enviesadas.
Segundo, podemos esperar que a desinformação ou informação falsa com motivos políticos sempre estará conosco. De fato, o fenômeno das "fake news", informação falsa ou "fatos alternativos" pode ser identificado desde o início da história registrada, com exemplos que datam da idade antiga.[21]
O movimento Wikimedia precisará manter-se flexível e os editores bem versados sobre as formas sempre dinâmicas nas quais informações podem ser distorcidas ou falsificadas. Será útil manter-se atualizados nas técnicas desenvolvidas pelos jornalistas e pesquisadores quando verificam informação, como aquelas descritas no Manual de Verificação, disponível em vários idiomas.[22]
Acesso
Um estudo publicado em maio de 2017 pelo Berkman Klein Center de Harvard, solicitado pela Fundação Wikimedia, mostra que a censura absoluta da plataforma de Wikipedia ou de seus artigos está a reduzir globalmente, e já estavam inclusive antes que a Fundação Wikimedia implementasse a tecnologia "HTTPS" em junho de 2015, que faz que o bloqueio de páginas individuais seja mais difícil.[2]
Com HTTPS, censuradores não podem ver qual página foi visitada em um site, pelo que precisam escolher se bloqueiam ou não o site completo para evitar o acesso a certas páginas individuais. O estudo de Berkman Klein usou tanto dados de monitorização de disponibilidade do cliente para recopilar informação de 40 países, bem como dados de servidor para encontrar anomalias nas solicitações de um conjunto de 1,7 milhões de artigos que cobriam 286 projetos de idiomas da Wikipédia. [2]
No entanto, ainda que a tendência geral esteja reduzindo, a análise mostrou que certos governos, como a China, continuam censurando, com uma censura completa do domínio zh.wikipedia.org até 2016. (O acesso parece estar permitido a outros subdominios da Wikimedia). A análise também mostrou anomalias que poderiam indicar censura, mas que não têm sido explicadas, como o aparente bloqueio em Tailândia da Wikipedia em ídiche.[2]
Em general, os autores concluem: "A mudança para HTTPS tem sido boa em termos de assegurar a acessibilidade ao conhecimento". Uma mudança tecnológica na infraestrutura, em outras palavras, tem melhorado o acesso na interface. Em geral, as soluções tecnológicas (HTTPS) aos problemas tecnológicos (bloqueio absoluto) podem às vezes trazer alívio, até que surja o próximo desafio tecnológico.
Influência: Comércio
Os atores comerciais podem também influenciar tanto no acesso como no conteúdo do movimento Wikimedia, que intencionalmente define uma plataforma que é livre e aberta à colaborações.
Conteúdo
O surgimento das plataformas de redes sociais comerciais, tais como o Twitter e o Facebook na última década, tem acompanhado um declive simultâneo da confiança nas instituições tradicionais de mídia modernas. Isto é verdadeiro dentro de sociedades abertas que alguma vez desfrutaram de uma imprensa competitiva e produtiva, criando preocupações sobre as novas formas em que a desinformação é filtrada e entregue online, e depois se utiliza no discurso público e na tomada de decisões.
Também há algumas sobreposição com outros desafios apontados anteriormente; por exemplo, as afirmações falas sobre a tecnologia podem ser disseminadas com o fim de elevar os preços das ações, ou as campanhas de desinformação dirigidas a afetar política pública podem ser dirigidas por razões de lucro, como quando as empresas ou grupos da indústria pagam pesquisas para demonstrar um ponto favorável aos seus interesses. Por exemplo, um exame dos documentos da indústria ao longo do tempo demonstrou que a indústria do açúcar dos Estados Unidos ao longo dos anos 1960 e 1970 patrocinava investigações que promoviam a gordura alimentar como um risco maior para a saúde que o açúcar.[23]
As plataformas online recentemente têm anunciado medidas para abordar a disseminação de informação errônea. O Google tem introduzido mudanças em sua função de busca, apresentando o conteúdo de organizações de verificação de fados junto com os resultados. Também têm introduzido meios para reportar resultados problemáticos (por exemplo, o autocompletar que sugere perguntas sobre se ocorreu o Holocausto).[24] O Facebook ofereceu verificação de fatos em artigos baseados em suas URLs e tipos de educação midiática.[25]
As mudanças em características e funcionalidades destas grandes plataformas nos próximos anos podem informar e competir com enfoques paralelos desenvolvidos para os projetos da Wikimedia.
A fronteira seguinte para entender como combater a desinformação implica desenvolver um entendimento mais sofisticado de como as redes ajudam à difundir. A Public Data Lab, com sede na Europa, publicou os primeiros vários capítulos de um "Guia prático para as notícias falsas", que enfatiza a importância de construir ferramentas que revelem a "rede grossa" de como as notícias falsas se propagam online; mostrando como uma história ou ideia é compartilhada entre redes para ajudar aos espectadores pôr em contexto.[26]
O nível seguinte de inovação pode implicar uma verificação mais frequente de factos, uma solução que potencialmente poderia aproveitar o conteúdo da Wikipédia como uma fonte chave. Por exemplo, a organização sem fins lucrativos Hypothes.is continua desenvolvendo uma plataforma aberta que proporciona uma camada sobre o site onde os usuários podem criar anotações que deem contexto ao conteúdo.[27] Ademais, "big data" pode ser usado para dar contexto ao discurso público, por exemplo, aproveitando os dados sobre os fluxos de dinheiro entre entidade políticas envolvidas em desinformação.[Note 2]
Com a infusão de investimento filantrópico e a experimentação generalizada, existe a possibilidade de que as redes sociais ou empresas de informação online como o Google possam alterar com sucesso os algoritmos para evitar alguns dos compartilhamentos de informações falsa mais comuns online. No entanto, é provável que as novas tecnologias inspirem aos buscadores lucros e aos atores políticos a desenvolver novas maneiras de manipular os sistemas e estender estas manipulações, para além do texto, a outros meios, como dados, vídeos, fotos e outros.
Acesso
As preocupações sobre como as companhias comerciais poderiam limitar o acesso às plataformas da Wikimedia durante os próximos 15 anos serão abordadas nos próximos relatórios sobre o futuro dos bens comuns e o aparecimento e uso de novas plataformas. Estes incluem, mas não se limitam, a batalhas sobre a neutralidade da rede, o aumento de aplicativos e plataformas proprietárias, e a vontade (ou falta dela) das empresas para proporcionar acesso ao conteúdo de Wikipedia desde suas próprias conteúdos e dispositivos proprietários.
Ideias e perguntas finais
Como poderia a Wikimedia se preparar para combater a desinformação e a censura nas décadas seguintes?
- Encorajar e apoiar experimentos em inteligência artificial e aprendizagem de máquinas que poderiam ajudar a enriquecer o conteúdo da Wikipédia.
- Seguir a evolução do jornalismo e o mundo acadêmico para encontrar novas formas de comprovar e verificar a informação que pode se utilizar como fontes das plataformas de Wikimedia, tais como a avaliação de vídeos ou outras mídias novas, que também são valiosos para o conteúdo.
- Colaborar com outras organizações de interesse público para advogar pela liberdade de imprensa, a liberdade de expressão, o acesso universal a internet e outros objetivos políticos que garantam o acesso e a livre circulação da informação.
- Seguir supervisionando atenciosamente o acesso às plataformas da Wikimedia em todo mundo, implementando mudanças técnicas quando apropriado.
- Monitorar as soluções que estão a desenvolver as plataformas e as publicações comerciais, tanto para ver como se podem aplicar para melhorar os métodos de verificação do conteúdo nas plataformas de Wikimedia, e como poderia oferecer oportunidades para incrementar o acesso a esse conteúdo.
Notes
- ↑ Enquanto muitos dos links desta página dirigem à Wikipédia em inglês, a linguagem em que foi escrito originalmente, há páginas e políticas similares em muitos outros lugares da Wikimedia. Os tradutores são bem-vindos a substituir os enlaces com seus equivalentes em wikis da Wikimedia em outros idiomas.
- ↑ Veja, por exemplo, os dados disponíveis do Center for Responsive Politics sobre doadores de campanha, lobistas, e outros nos Estados Unidos; e os dados da Transparência Internacional sobre lobistas na União Européia, bem como outros dados.
References
- ↑ "Como as forças externas atrapalham ou ajudam no futuro do movimento Wikimedia? – Blog da Wikimedia". Retrieved 2017-07-13.
- ↑ a b c d Clark, Justin, Robert Faris, Rebekah Heacock Jones. Analyzing Accessibility of Wikipedia Projects Around the World. Cambridge: Berkman Klein Center for Internet & Society, 2017. Acessado 25 de maio de 2017.
- ↑ Alcantara, Chris. "The most challenging job of the 2016 race: Editing the candidates' Wikipedia pages." Washington Post. 27 de outubro de 2016. Acessado 25 de maio de 2017.
- ↑ Helbing, Dirk, Bruno S. Frey, Gerd Gigerenzer, Ernst Hafen, Michael Hagner, Yvonne Hofstetter, Jeroen vão dêem Hoven, Roberto V. Zicari e Andrej Zwitter, "Will Democracy Survive Big Data and Artificial Intelligence?" Scientific American. 25 de fevereiro de 2017. Acessado 28 de maio de 2017. https://www.scientificamerican.com/article/will-democracy-survive-big-data-and-artificial-intelligence/.
- ↑ Halfaker, Aaron. "I'm the principal research scientist at the nonprofit behind Wikipedia. I study AIs and community dynamics. AMA!" Reddit. 2 de junho de 2017. Acessado 7 de junho de 2017.
- ↑ Watzman, Nancy. "Internet Archive's Trump Archive launches today." Internet Archive Blogs. 5 de janeiro de 2017. Acessado 19 de maio de 2017.
- ↑ Marconi, Francesco, Alex Siegman e Machine Journalist. The Future of Augmented Journalism. Nova York: Associated Press, 2017. Acessado 30 de maio de 2017.
- ↑ Luckin, Rose, Wayne Holmes, Mark Griffiths e Laurie B. Forcier. Intelligence Unleashed: An Argument for AI in Education. Londres: Pearson, 2016. Acessado 8 de junho de 2017.
- ↑ Bilton, Nick. "Fake news is about to get even scarier than you ever dreamed." Vanity Fair. 26 de janeiro de 2017. Acessado 30 de maio de 2017.
- ↑ Kelly, Kevin. The Inevitável: Understanding the 12 Technological Forces That Will Shape Our Future. Nova York: Viking, 2016.
- ↑ GSMA. "The Mobile Economy 2017." Acessado 1 de junho de 2017.
- ↑ Puddington, Arch. Breaking Down Democracy: Goals, Strategies, and Methods of Modern Authoritarians. Washington, D.C.: Freedom House, 2017. Acessado 8 de junho de 2017.
- ↑ Repórteres Sem Fronteiras. "2017 World Press Freedom Index – tipping point?" 26 de abril de 2017. Atualizado o 15 de maio de 2017. Acessado 28 de maio de 2017.
- ↑ Nordland, Rod. "Turkey's Free Press Withers as Erdogan Jails 120 Journalists." The New York Times. 17 de novembro de 2016. Acessado 7 de junho de 2017.
- ↑ Repórteres Sem Fronteiras. "Journalism weakened by democracy's erosion." Acessado 29 de maio de 2017.
- ↑ Wardle, Claire. "Fake News. It's Complicated." First Draft News. 16 de fevereiro de 2017. Acessado 7 de junho de 2017.
- ↑ Paul, Christopher e Miriam Matthews. The Russian "Firehose of Falsehood" Propaganda Model: Why It Might Work and Options to Counter It. Santa Monica: RAND Corporation, 2016.
- ↑ Broderick, Ryan. "Trump Supporters On-line Are Pretending To Be French To Manipulate France's Election." BuzzFeed. 2 de janeiro de 2017. Acessado 7 de junho de 2017.
- ↑ Tufekci, Zeynep. "Dear France: You Just Got Hacked. Dom't Make The Same Mistakes We Did." BuzzFeed. 5 de maio de 2017. Acessado 7 de junho de 2017.
- ↑ Stencel, Mark. "International Fact-Checking Gains Ground, Duke Census Finds." Duke Reporters Lab. 28 de fevereiro de 2017. Acessado 7 de junho de 2017. https://reporterslab.org/international-fact-checking-gains-ground/.
- ↑ Darnton, Robert. "The True History of Fake News". The New York Review of Books. 13 de fevereiro de 2017. Acessado 7 de junho de 2017.
- ↑ Silverman, Craig, ed. Verification Handbook: A Definitive Guide to Verifying Digital Content for Emergency Coverage. Maastricht: European Journalism Centre, 2016. Acessado 29 de maio de 2017.
- ↑ Kearns, Cristin E., Laura A. Schmidt e Stanton A.glantz. "Sugar Industry and Coronary Heart Disease Research: A Historical Analysis of Internal Industry Documents." JAMA Intern Med 176, não. 11 (2016): 1680-1685. Acessado 8 de junho de 2017. doi:10.1001/jamainternmed.2016.5394.
- ↑ Gomes, Ben. "Our latest quality improvements for search". The Keyword. Google. 25 de abril de 2017. Acessado 19 de maio de 2017.
- ↑ Simo, Fidji. "Introducing: the Facebook Journalism Project". Facebook Media. 11 de janeiro de 2017. Acessado 19 de maio de 2017.
- ↑ Public Data Lab e First Draft News. "A Field Guide to Fake News". Acessado 19 de maio de 2017.
- ↑ The Hypothesis Project. "To Enable a Conversation Over the World's Knowledge: Hypothesis Mission". Acessado 22 de maio de 2017.