IAgora?

Por Dora Kaufman*


Produzir artigos com a colaboração de sistemas de IA, em alguns casos integralmente produzidos por IA, não é novidade — Foto: GETTY IMAGES via BBC
Produzir artigos com a colaboração de sistemas de IA, em alguns casos integralmente produzidos por IA, não é novidade — Foto: GETTY IMAGES via BBC

Em setembro último, a deputada democrata da Califórnia Anna G. Eshoo, por meio de uma carta aberta ao Conselho de Segurança Nacional (NSA) e ao Escritório de Política de Ciência e Tecnologia (OSTP), alertou as autoridades federais sobre o uso perverso do sistema de IA generativa Stable Diffusion, lançado pela Stability AI em agosto de 2022: com base em imagens de pessoas reais, estão sendo geradas e disseminadas na internet imagens de natureza violenta ou sexual. A deputada conclama o governo americano a empreender ações concretas para tornar os sistemas de inteligência artificial (IA) mais seguros e éticos. A IA generativa, como o ChatGPT e o Bard, agudiza os desafios postos à sociedade com o avanço da IA; cada domínio de aplicação, contudo, tem suas particularidades e polêmicas.

A edição especial da "Human Communication Research (HCR)" (Rethinking Communication in the Era of Artificial Intelligence, 29 de junho de 2022) aborda o papel da inteligência artificial na comunicação com base em uma seleção de seis artigos (entre 56 submetidos aos editores) agrupados em dois grandes temas -- "interação humana - IA" e "comunicação mediada por IA” --, identificando as influências positivas e negativas. Os autores argumentam que a IA "está substituindo, auxiliando e/ou aumentando os comunicadores humanos, em vez de permanecer como um mero canal de trocas de mensagens entre humanos, potencialmente alterando os processos e resultados da comunicação” (como já defendia, aliás, Marshall McLuhan nos anos 1960).

O estudo cita como exemplo de impacto negativo a “crise de autenticidade” e a lacuna de transparência na produção e disseminação de mensagens automatizadas; e como impacto positivo, a potencial contribuição da IA no enfrentamento do discurso de ódio e da desinformação (fake news). Percepção alinhada, inclusive, com os pressupostos do acordo de colaboração firmado, em 2021, entre a UNESCO e o Oxford Internet Institute (United Nations Strategy and Plan of Action on Hate Speech: Detailed Guidance on Implementation for United Nations Field Presences”).

Especificamente sobre o jornalismo, Mathew Ingram, em recente artigo na Columbia Journalism Review, pondera sobre o efeito adverso do ChatGPT sobre os profissionais remunerados para gerar conteúdo, e antevê a forte adoção da IA pelos veículos de mídia estimulados pela oportunidade de cortar custos (Is AI software a partner for journalism or a disaster? 9 de fevereiro de 2023). Essa previsão, contudo, já é realidade e tem polemizado o setor.

O Futurism “denunciou” que o site de notícias de tecnologia CNET, secretamente, postou dezenas de artigos escritos por sistemas de IA sem a devida transparência, classificando esses artigos como imprecisos, plagiados e maçantes; a CNET reagiu de imediato ajustando os erros e explicitando as notícias geradas automaticamente. Segundo fontes anônimas, contudo, vários outros conteúdos não foram rotulados como "escrito por IA", gerando uma aura de desconforto sobre a veracidade das notícias. A CNET não se pronunciou oficialmente, mas o portal de notícias The Verge não só atestou as informações, como acrescentou que a CNET faz uso de IA há cerca de 18 meses (o primeiro conteúdo marcado oficialmente como “produzido por IA” data de apenas dois meses).

A prática está se disseminando. O Grupo Arena, responsável pela publicação da revista Sports Illustrated, segundo o Wall Street Journal, está usando inteligência artificial para gerar artigos; de acordo com seu CEO, Ross Levinsohn, o propósito não é substituir os jornalistas, mas “apoiar fluxos de trabalho de conteúdo, criação de vídeo, boletins informativos, conteúdo patrocinado e campanhas de marketing”. Provavelmente pela perspectiva de redução de custos, o uso de sistemas de IA está sendo visto como positivo pelos investidores, pelo menos é o que atesta a reação ao anúncio do BuzzFeed: suas ações dobraram de valor após a empresa de mídia declarar que planeja usar o ChatGPT para elaborar questionários e personalizar o conteúdo para os leitores.

Produzir artigos com a colaboração de sistemas de IA, em alguns casos integralmente produzidos por IA, não é novidade. A Reuters, por exemplo, em 2018 lançou o Lynx Insight: sistema de IA para analisar dados, sugerir temas para matérias, e escrever algumas frases; a época, seu editor executivo Reg Chua declarou que o objetivo era "maximizar o melhor das máquinas inteligentes (identificar padrões e fatos em grandes bases de dados) e das equipes humanas (fazer perguntas, avaliar relevância, entender o contexto). A Associated Press (AP), desde 2015 utiliza IA para redigir relatórios corporativos que, em geral, seguem um formato padrão (tema da coluna “Inteligência Artificial no Jornalismo: ameaça ou oportunidade?”, 6 de agosto de 2021).

Não há consenso, contudo, em relação aos impactos do ChatGPT e demais sistemas generativos sobre o jornalismo. Jack Schafer, colunista de mídia do Político, vê com otimismo o avanço da IA: “o jornalismo não existe para dar aos repórteres e editores credenciados um contracheque estável. Existe para servir os leitores. Se a IA ajudar as redações a atender melhor os leitores, elas devem dar as boas-vindas à sua chegada”. Schafer advoga que os jornalistas seriam mais inteligentes se reconhecessem o potencial da IA para melhorar seu trabalho e atender melhor os leitores: "o ChatGPT não é a primeira tecnologia a invadir as redações para tornar o jornalismo mais exato, mais oportuno e mais barato de criar, e não será a última”. Para ele, a parte mais vital da criação de uma história de jornal está na reportagem, não na redação, e vaticina que, a curto prazo, a IA ainda dependerá da inteligência humana. "O jornalismo sempre foi um ofício colaborativo, unindo fontes e repórteres, repórteres e editores e leitores de volta à publicação em um loop infinito de produção de conhecimento. Se a IA pode se juntar a esse ciclo para ajudar a tornar o jornalismo mais preciso e legível com maior impacto, não devemos bani-la”, conclui Schafer.

Com uma postura cautelosa, Mathew Ingram finaliza seu longo artigo ponderando que, "embora existam algumas razões óbvias para se preocupar com o impacto do software de IA (ChatGPT) no jornalismo, parece um pouco cedo para dizer definitivamente se é bom ou ruim”, ou seja, como nos demais domínios, precisamos experimentar essas novas tecnologias ainda em seus primórdios (vale lembrar que, além de diversas deficiências, para o ChatGPT o mundo deixou de existir em 2021, seu conhecimento é limitado aos dados até 2021).

*Dora Kaufman é professora do TIDD PUC - SP, pós-doutora COPPE-UFRJ e TIDD PUC-SP, doutora ECA-USP com período na Université Paris – Sorbonne IV. Autora dos livros "A inteligência artificial irá suplantar a inteligência humana?" e "Desmistificando a inteligência artificial".

Mais recente Próxima Data-self: autoaperfeiçoamento com os algoritmos de IA