A GPT-3 (sigla em inglês para “Transformador Generativo Pré-Treinado”) é uma ferramenta de IA desenvolvida pela organização OpenAI para fins de preenchimento automático de formulário. Seu funcionamento constitui-se, a grosso modo, de prever o que o usuário pretende escrever e completar a frase, termo ou trecho para ele. O programa vinha sendo desenvolvido pela organização há três anos e foi recentemente liberado para pesquisadores técnicos, como uma espécie de teste beta privado. Conforme a documentação da ferramenta, pela própria página da OpenAI: “Ao inserir qualquer trecho textual, a API vai retornar uma sugestão completa, tentando imitar o padrão [de escrita] que você estabeleceu. Você pode ‘programá-la’ ao mostrar a ela apenas alguns exemplos do que você gostaria de fazer: seu sucesso geralmente varia de acordo com a complexidade da tarefa à mão”. O blog de Porr, que ainda está no ar, foi a forma que ele encontrou para testar as capacidades da ferramenta. Evidentemente, o resultado não é perfeito, mas considerando que muitas pessoas que escrevem na internet cometem erros bem crassos, a GPT-3 acaba se destacando por uma qualidade mediana. Confira você mesmo no trecho a seguir: Em seu teste, Porr, um estudante de Ciências da Computação na Universidade de Berkeley, Califórnia, conta que encontrou um estudante de Ph.D da instituição com acesso à ferramenta, convencendo-o a trabalharem juntos. A partir daí, ele escreveu um script automatizado que geraria sugestões de título e introdução, como um texto de blog. A GPT-3 seguiria a partir daí, criando várias amostras completas de redação para que Porr selecionasse a mais (humanamente) verossímil. O resultado mais acessado foi o post cujo trecho foi citado acima (título traduzido: “Sentindo-se pouco produtivo? Talvez você deva parar de pensar demais”), que Porr afirma ter amealhado 26 mil visitas. Sendo justo com o seu público, o estudante reconheceu que uma única pessoa chegou a enviar uma mensagem a “Adolos”, o pseudônimo que assina o texto, perguntando se a redação havia sido gerada por uma inteligência artificial. Outros usuários, porém, levantaram a possibilidade de uso do GPT-3 nos comentários, mas a própria comunidade marcou tais manifestações com “descurtidas”. O teste de Porr sugere, segundo ele próprio, que sistemas de inteligência artificial suficientemente avançados podem, um dia, vir a substituir produtores de conteúdo escrito: “O motivo de isso ter sido lançado em um teste beta privado é para que a comunidade possa mostrar à OpenAI estes novos formatos de uso que eles podem ou encorajar, ou tomar cuidado”, disse Porr ao MIT Technology Review, antes de reconhecer que a própria organização não deve gostar do que ele fez, considerando que ele não tinha acesso à API do GPT-3. “É possível que eles fiquem irritados comigo”.
GPT-3 não é a única inteligência artificial trabalhando com notícias
O emprego da inteligência artificial na escrita não é algo exclusivo da OpenAI, uma organização que possui suporte financeiro de pessoas grandes no mercado tecnológico, como Elon Musk. Em junho de 2020, a Microsoft comunicou a não-renovação dos contratos de cerca de 50 jornalistas que atuavam no Microsoft News, trocando-os por uma curadoria de notícias feita por inteligência artificial desenvolvida internamente. Normalmente, a Microsoft paga pelo licenciamento de conteúdos publicados por agências de notícias, para que sejam publicadas em portais como o MSN e o feed de notícias do navegador Edge. Entretanto, os jornalistas internos é quem selecionava quais notícias entrarão nas plataformas. Desde junho, isso foi trocado por uma IA que promove a troca de títulos, a inserção de imagens mais coerentes ou criando apresentações de slides. Tudo no intuito de otimizar a abrangência dos canais da empresa dentro do conceito de SEO (sigla em inglês para “otimização para mecanismos de busca”). A decisão encontrou certa crítica, haja vista que a diretriz editorial da Microsoft preza pela não veiculação de material violento ou inapropriado, já que muito do público alvo do MSN é constituído de jovens. Essa rigidez, argumentaram detratores e ex-funcionários, só era possível mediante a análise crítica de um humano. Fonte: MIT Technology Review, via The Verge