Quando falamos de Jornalismo Automatizado, muitos imaginam redações repletas de “robôs humanoides” trabalhando dia e noite para publicar informações que impactam diretamente nossas decisões. Em alguma parcela, sim, essas notícias podem influenciar nossos dias, mas não são construídas da forma que as obras de ficção científica remetem.

De acordo com Silvia Dal Ben, autora da pesquisa “Abrindo as caixas pretas das notícias escritas por robôs: uma cartografia do Jornalismo Automatizado”, essas tecnologias existem há mais tempo do que percebemos. Para chegarmos à inteligência artificial (AI), que é “a capacidade de maquinas e computadores executarem tarefas humanas de forma autônoma e terem o poder de aprender, raciocinar, perceber, deliberar e decidir de forma racional e inteligente”, são necessários vários elementos que ocupam lugar comum em nosso cotidiano.

Leia também

As AIs são sustentadas por um tripé composto pela Big Data, que é a imensa quantidade de dados que podem ser usados para gerar valor; pelos modelos de estruturação dos dados, que já existem e orientam a formação dos valores para a inteligência artificial; pela capacidade de processamento desses dados, que podem ou não estar em uma nuvem virtual.

Dados são gerados constantemente e dobram de tamanho a cada dois anos. Segundo Silvia Dal Ben, em 2003, eram 4,4 trilhões de gigabytes (GB) de informação no mundo e, em 2020, a expectativa é que sejam 44 trilhões. No Brasil, o crescimento para o mesmo período parte de 212 bilhões de GB para 1,6 trilhão.

Silvia Dal Ben - Jornalista e mestranda

Silvia Dal Ben – Jornalista e mestranda

O Big Data se fundamenta no que é chamado de “5Vs”: velocidade, variedade, valor, veracidade e volume. Todavia, dados não remetem diretamente à informação.

“Apenas 22% desses dados, aproximadamente, seriam informações úteis, ou seja, perto de 80% disso não é estruturado. Ainda, desses 22%, somente 5% são analisados e usados de alguma forma”, diz Silvia Dal Ben.

Para estruturar essa quantidade de elementos, existem os algoritmos, que trabalham com operações de filtragem, classificação, relevância, e outros dados interpretados para determinar uma gradação de valor. Os algoritmos são sequências lógicas programadas para resolverem problemas, darem respostas e executarem tarefas automaticamente, obedecendo linhas de comando definidas.

São tantas situações inseridas nas linhas de código de um algoritmo que alguns têm a capacidade de aprender, o que é chamado de Machine Learning. Um exemplo desses “bots” existentes no Google e Facebook é o resultado de pesquisas e postagens.

Quando fazemos pesquisas no Google, podemos definir qual a região dos resultados, a partir de qual data são importantes e outros itens, como imagem e palavras relevantes. Com o tempo, o “bot” do Google aprende as nossas preferências e começa a anteceder e sugerir opções com base nos dados que ele colheu sobre as nossas escolhas.

No Facebook, as postagens que aparecem em nossa timeline são definidas, também, por algoritmos. Muitas vezes, o “bot” do Facebook pode preferir esconder um conteúdo postado por nossos amigos por decidir que aquilo é agressivo ou irrelevante, o que abre margem para o debate sobre a neutralidade desses Robots.

Imagem por Nick Ut/AP

Imagem por Nick Ut/AP

Um exemplo clássico citado por Sílvia é o da famosa foto, em preto e branco, em que uma menina corre nua e com os braços abertos após os EUA terem atacado a vila em que ela morava no Vietnã. Essa imagem foi censurada pelo algoritmo do Facebook, enquanto várias outras fotografias de homens com os mamilos à mostra não são sequer cogitadas.

De todo modo, essas tecnologias já estão em nosso cotidiano há muito tempo, então por que não pensá-las no jornalismo?

Jornalismo Automatizado

Foco da pesquisa de Silvia Dal Ben, segundo a autora, o Jornalismo Automatizado é o “fenômeno observado em redações jornalísticas que adotam softwares de natural language generations (geração de linguagem natural) para produzir conteúdo automatizado em editorias como finanças, esportes, crimes, transito, previsões do tempo etc”.

Por ser um fenômeno recente, tem várias denominações e por isso o título serve como um guarda-chuva para esses assuntos. De acordo com Silvia, alguns autores dizem que esse tipo de jornalismo não tem intervenção humana devido à automatização.

Por esse motivo, na pesquisa desenvolvida pela autora, foi atacada qual a dimensão humana detrás dessa tecnologia, qual a autonomia dela e que redes seriam aceitas entre os objetos técnicos e humanos observados – um esforço para evidenciar a atuação humana nessa esfera e minimizar a sensação dos “Robôs Humanóides”.

Como exemplo dessa prática, o jornal The Washington Post fez uso da tecnologia quando cobriu as olimpíadas do Rio de Janeiro – parcela dos artigos foram escritos automaticamente por um algoritmo.

No ano passado, o Google investiu 706 mil euros na empresa inglesa Press Association (PA) para o fomento do Reporters and Data and Robots (Radar), um robô que, segundo a agência, poderia escrever mais de 30 mil notícias por mês.

Ainda mais recente, a startup norte americana chamada Knowhere lançou uma plataforma de notícias baseada na produção de informação por meio de “bots”. Conforme a empresa, na própria página de descrição da missão, valores e visão, são o portal de jornalismo mais imparcial do mundo.

O Jornalismo Automatizado da Knowhere contempla as notícias que encabeçam os trending topics de outros algoritmos e produz três matérias com viés diferentes para cada assunto: uma a favor, uma contra e uma neutra.

A prática eleva outro debate ético, segundo Silvia: quem é responsável pelo conteúdo produzido pelos “bots”? Alguns desses algoritmos e softwares assinam, inclusive, suas matérias com um perfil descritivo de quem são. Entretanto, todos foram criados por seres humanos e tiveram incutidos os valores de seus criadores.

Neste ano, o escândalo da Cambridge Analytica, que obteve dados de pessoas por meio da plataforma Facebook, levou Mark Zuckerberg, fundador da rede social, a prestar esclarecimentos sobre os usos e formas de operação de seus algoritmos. Diante da pressão e da alteração das leis europeias sobre a internet, Mark assumiu a necessidade de mudanças, mas apenas para a Europa e Estados Unidos.