Você está em:
Como o ChatGPT impacta a comunicação

volta
  • compartilhe

Por Iraci Falavina

Em dezembro de 2022, um professor de filosofia da Universidade de Furman, nos Estados Unidos, percebeu que seus alunos estavam utilizando a ferramenta de Inteligência Artificial ChatGPT para escrever trabalhos acadêmicos. Apesar disso, segundo o professor, é praticamente impossível provar que o texto foi escrito por Inteligência Artificial, já que nem mesmo uma ferramenta de detecção de plágio pôde identificar isso. 

A responsividade desse software o tornou extremamente popular, principalmente entre comunicadores e vem levantando diversos debates sobre ética no uso de Inteligência Artificial na profissão. A All Press entrevistou o professor Dr. Rogério Christofoletti, co-fundador do Observatório da Ética Jornalística (objETHOS), para entender mais os dilemas e desafios da inteligência artificial na comunicação.

Veja a entrevista completa abaixo.

Reprodução: Om siva Prakash/Unsplash

O ChatGPT entrou no radar de comunicadores e jornalistas por ser uma ferramenta útil no cotidiano desses profissionais. O software oferece um modo fácil de construir ótimos textos — se usado com responsabilidade. Como o senhor vê essa discussão inicial?

Jornalistas e professores não podem ignorar esse debate porque recursos desse tipo, como a mais recente versão do ChatGPT, oferecem resultados muito promissores se comparados aos dos anos anteriores. Há um poder de processamento de dados muito mais robusto, mais velocidade de resposta, mais articulação verbal e capacidade de construção de pequenos e médios textos que chegam a impressionar.

Como em outros momentos, quando surgem tecnologias que chamamos de disruptivas — e esta parece ser o caso —, sempre há receio de extinção de empregos, de mudanças drásticas nos processos, e de substituição de humanos por máquinas.

Esses riscos não são totalmente fantasiosos, mas precisamos ir além dessas perguntas e tentar entender como essas novas tecnologias podem não só nos ajudar em nosso cotidiano, mas também como podem chegar a mais gente do que um punhado de bilionários e países ricos.

A IA é um segmento de desenvolvimento tecnológico que não vai regredir. Pelo contrário. Só tende a avançar, e por isso, precisamos discutir aspectos sociais, econômicos, políticos, geográficos e éticos que atravessam essas novidades todas.

Todas as polêmicas envolvendo o ChatGPT — desde alunos o utilizando para trabalhos acadêmicos e afins — reavivaram a discussão sobre se esse seria um “substituto” para algumas profissões, incluindo a área da comunicação. Em 2020, por exemplo, o G1 utilizou Inteligência Artificial para elaborar textos sobre os resultados das eleições municipais. Essa preocupação tem fundamento?

Ainda é cedo para medir o impacto dessas IAs avançadas, mas é esperado, sim, que haja automatização de processos tanto para ganho de velocidade quanto de escala de trabalho. Profissões que se habituaram a desempenhar funções manual ou artesanalmente podem, em breve, “terceirizar” algumas tarefas enfadonhas e repetitivas para as máquinas. Pode ser um ganho.

Mas toda adoção tecnológica precisa vir junto com reflexão crítica. Isso significa discutir riscos, danos, vantagens em níveis variados. Grandes novidades costumam causar dois tipos de sentimento: fascínio e medo. Precisamos atravessar rápido essa fase de deslumbramento e temor para discutir e avaliar os benefícios reais que o ChatGPT e outras ferramentas podem nos trazer.

Uma polêmica ainda mais recente envolve a sugestão de artigos falsos e informações imprecisas por parte do ChatGPT. Isso levantou diversos debates sobre ética e uso do ChatGPT em ambientes profissionais. Na sua opinião, isso pode impactar o jornalismo, que já sofre com a disseminação de fake news?

Sim, máquinas costumam fazer exatamente o que mandamos. Se programamos um computador com viés sexista ou racista, ele vai executar tarefas a partir desses parâmetros de análise e julgamento. Logo, suas tomadas de decisão serão guiadas por isso. Daí a necessidade de uma discussão e intensa vigilância ética sobre as pessoas, empresas e grupos responsáveis por essas IAs. Já “conversei” duas ou três vezes com o ChatGPT, insistindo para que ele produzisse textos falsos, por exemplo, para certos efeitos.

Em todas as vezes, de forma automática — como não poderia deixar de ser, é uma máquina! —, o ChatGPT afirmou que estava programado para manter um diálogo construtivo, ético e transparente com os usuários, e que disseminar notícias falsas ou informações fraudulentas era antiprofissional e inapropriado, “dado o treinamento a que ele havia sido submetido”.

Mas máquinas podem errar e difundir mentiras? Podem. Vai depender de como serão programadas, como vão “aprender” novos conteúdos e a quais acervos e repertórios terão acesso para formular suas respostas.
É tudo muito complexo, mas ao mesmo tempo fascinante e urgente.