Rubens de Almeida – Fundador do GisBI e mestrando em Gestão e Políticas Públicas na FGV EAESP.
Eduardo de Rezende Francisco – eduardo.francisco@fgv.br – Fundador do GisBI, professor e chefe do Departamento de Tecnologia e Data Science da FGV EAESP.
Ao que parece, os chatbots vieram para ficar. Quem não fica impressionado com uma inteligência artificial que produz textos como humanos, sobre qualquer assunto, na linguagem e no estilo que for solicitado, com detalhamento impressionante, em questão de segundos? E, pelas experiências que vêm sendo realizadas por experts, jornalistas e professores, quase sempre fazem isso com alguma competência linguística e de conteúdo, ainda que demonstrem visões simplificadas sobre os temas tratados e uma ingenuidade que, provavelmente, deve-se ao “treinamento” ainda limitado recebido pelo robô-escritor.
Em um país como o Brasil, que se comunica muito mal, lê com sérias limitações de compreensão e, nos últimos anos, adotou a contração linguística da rede social como via preferencial para expressar publicamente seus pensamentos, raciocínios, ódios e afetos, saber escrever um texto ou saber como obter um texto pronto de forma facilitada pode ser um diferencial e tanto para melhor se posicionar no mercado de trabalho e, até mesmo, em situações no mundo acadêmico ou na vida civil, como elaborar um contrato, uma proposta ou uma resposta a indagações por escrito. Quiçá produzir um artigo acadêmico ou um resumo compilado sobre determinado assunto.
Talvez, por isso, o mais famoso desses bots no momento, o ChatGPT, tenha causado frisson nas primeiras semanas de testes públicos e incorporação de suas habilidades (e limitações) à realidade das redações jornalísticas, ambientes universitários, estudiosos da linguagem e o público geral. E fica uma dúvida: com a evolução desses sistemas, o que acontecerá com o escritor humano? Ele ainda será necessário?
A tecnologia que se apresenta – GPT, ou Generative Pretrained Transformer – é a evolução da inteligência artificial, mais precisamente no ramo de deep learning, programada previamente a partir de uma quantidade absurdamente grande de informações em formato de texto e preparada para responder − de maneira impressionante − a perguntas em linguagem natural em praticamente todas as línguas ocidentais usuais.
A poderosa Microsoft promete adotar a ferramenta em todas as suas frentes de aplicativos, o que pode determinar um espalhamento rápido da aplicação da chamada inteligência artificial para a produção de textos nas escolas, nas empresas, na disponibilização de documentos jurídicos e até na criação de conteúdos mais pretensiosos e críticos, como teses acadêmicas e reportagens. Até então, as técnicas de NLP (ou Processamento de Linguagem Natural − PLN, em português) estavam mais focadas na compreensão de textos e/ou catalogação de demandas, preferências ou reclamações derivadas de sistemas de atendimento de call centers, de modo a otimizar respostas e automatizar algumas reações e serviços. Com a exposição das habilidades de escrita, até mesmo as perspectivas do NLP mudaram. Segundo a turma de Data Science que estuda o tema, estamos inaugurando o conceito de NLU (Natural Language Understanding), trocando o “P” pelo “U”, que significa entendimento, compreensão ou inteligência, entre muitas aspas, mesmo sabendo que o domínio da cognição pelas máquinas é uma discussão filosófica mais profunda e não cabe neste artigo.
O fato é que o tal chat não se faz de rogado. Perguntado se ele pode produzir reportagens jornalísticas, respondeu que sim e que:
E prossegue:
Para um velho jornalista e escritor e um professor e cientista da computação, a resposta arrogante pode soar como uma ameaça. Afinal, até há pouco, o que diferenciava um bom profissional era sua capacidade de processar informações e distribuí-las com competência, tarimba e sagacidade em um texto que supostamente ganharia leitura pelas estratégias linguísticas autorais e narrativas únicas adotadas por seu autor.
Na mesma resposta, o bot também teve o cuidado de alertar o que é preciso fazer para produzir notícias jornalísticas de qualidade:
Um professor universitário de comunicação e semiótica não faria melhores alertas. A dúvida que fica é se o humanoide que dá recomendações será capaz de segui-las.
Um temerário “erro” do robô, porém, nesta consulta específica, foi considerar que a produção de notícias jornalísticas de qualidade pode se resumir ao que no jargão dos jornalistas é conhecido como “cozinha” de outras fontes jornalísticas e/ou bibliotecárias. O bot “esqueceu” ou talvez não considerou nessa resposta que matérias jornalísticas não se iniciam com o tema da notícia que deseja escrever ou ainda a partir de textos ou outros materiais jornalísticos ou de referências já produzidos e disponíveis sobre um fato que se deseja relatar; mas sim, de alguma ocorrência da vida real das pessoas.
A produção de um texto (hoje em dia fotos, vídeos e áudios) original e, portanto, jornalístico sobre determinado fato ou ocorrência deve necessariamente ir ao encontro da notícia, na realidade da vida, por meio de fontes primárias de informação. Se não fizer isso, não serão produzidos textos jornalísticos verdadeiros e originais, mas apenas reproduzindo partes de textos e informações que alguém já disponibilizou nas redes.
A mesma análise poderá ser feita em breve quando começarem a pipocar textos produzidos por bots nas escolas, universidades ou tribunais. Não se trata apenas de aproveitá-los e fazer adaptações que os tornem mais críveis, menos ingênuos ou mais autorais. Será preciso verificar a sua originalidade em termos de ideias e reflexões inéditas e verdadeiramente vinculadas ao intelecto de quem as produziu.
Na produção jornalística, da mesma forma, o texto que sairá do aplicativo (ou do modelo de inteligência artificial) será mais ou menos convidativo e/ou agradável aos leitores conforme o estilo escolhido por quem o solicitou no ChatGPT. Mas não terá vínculo direto com o real. Qualquer texto escrito a distância carecerá de alma e não aterrissará sobre o território dos humanos, pois virá de um conjunto de referências digitais sem vínculos físicos diretos com os fatos que pretenderá relatar. Será vazio de autoria e correrá o risco de ser restrito à base de dados e às referências que o sistema estará programado para acessar e manipular na produção de um novo texto.
No âmbito da academia, em praticamente qualquer ramo da ciência, as questões e preocupações são essencialmente de mesma natureza. Caberá ao chatbot a tarefa de auxiliar o pesquisador na compilação e articulação de referências ou seu trabalho irá muito além disso?
O texto como expressão e reflexão da realidade, crível e profundo como um ser humano o faria, poderá ser produzido pela inteligência artificial generativa que ora se apresenta?
Papo para um próximo artigo, escrito (supostamente) por estes meros autores humanos…