segunda-feira, 12 de maio de 2025

Metodologias para a Aprendizagem Criativa

 As IAs chegaram com toda força no universo acadêmico.

É preciso muita conduta ética para transformar as realidades e contextos.

Ernesto Spinak faz um relato acerca dessa transformação...

Leia:

Introdução

A introdução de Inteligência Artificial (IA), Large Language Models (LLM), ChatGPT, Bard e Bing , em particular, mudou o cenário da redação, criação e produção de trabalhos de pesquisa, gerando uma revolução irreversível no mundo editorial acadêmico. Não há retorno. precisamos aprender a conviver com um novo ambiente que irá gerar rupturas em nossos velhos paradigmas em muitos aspectos.

Apenas para mencionar alguns temas críticos:

  • Quem deve ser considerado autor.
  • Quais são as ferramentas válidas de IA na publicação científica original, quais não seriam aceitáveis, e quais deverão ser avaliadas progressivamente.
  • Que papel deverá ter os editores científicos e os julgados.
  • O que significará plágio e o que acontecerá com as “ papelmills ”
  • O que dizem as sociedades científicas, as universidades, e o mundo acadêmico em geral.
  • Dispomos de procedimentos de software para detectar o uso de IA nos textos produzidos.
  • Como deveriam ser modificadas as instruções dos periódicos para autores, editores etc.
  • Como mudarão as regulamentações dos países… etc.

Começaremos hoje com o tema sobre quem pode ser “autor/coautor” propriamente aqui, segundo indicado pelas associações científicas e editores de periódicos que consultamos. A lista de editores e associações científicas consultadas está relacionada ao final deste post (em Notas). Nas Referências encontram-se os documentos consultados.

Considerações prévias

A adoção de IA apresenta questões éticas chave em torno da responsabilidade ( accountability ), das obrigações e da transparência dos autores.

As ferramentas de IA já estão sendo utilizadas em publicações acadêmicas, por exemplo, em verificações previstas à avaliação por pares (qualidade do idioma, confirmação de que uma submissão está dentro do escopo do periódico etc.). O uso de IA não é intrinsecamente pouco ético e pode ser útil, por exemplo, para autores que não escrevem em inglês como seu primeiro idioma. Mesmo que o uso de ferramentas de IA para as traduções possa trazer problemas além dos direitos autorais, dependerá do ser humano assumir a responsabilidade de garantir o cumprimento das regulamentações. Porque, na última análise, a aplicação responsável da tecnologia requer supervisão, controles e monitoramento humano.

IA e comunicação de pesquisa

Os problemas e as objeções

O uso de IA como o ChatGPT, Bard ou outros que certamente virão, para escrever, traduzir, revisar e editar manuscritos acadêmicos apresenta desafios éticos para pesquisadores e periódicos. Por esta razão, alguns periódicos, como Science , Nature e muitos outros, proibiram o uso de aplicações de LLM nos artigos recebidos.

Por exemplo, as ferramentas de IA não podem cumprir com os requisitos de autoria, uma vez que não podem assumir a responsabilidade pelo trabalho enviado, pelo fato de que não são “pessoas”, nem têm personalidade jurídica (o estado legal de um autor difere de um país para outro, porém, na maioria das jurisdições, um autor deve ser uma pessoa jurídica). Tampouco pode afirmar a existência ou ausência de conflitos de interesse, nem negociar acordos de licença e direitos de autor. Devido a estas e outras razões, o mundo da ética está se voltando decisivamente contra esta ideia, e é fácil compreender por quê.

Os autores que utilizam ferramentas de IA na redação de um manuscrito, na produção de imagens ou elementos gráficos de um artigo, ou na compilação e na análise de dados, devem ser transparentes ao revelar nas descrições de Materiais e Métodos do artigo (ou uma seção semelhante) detalhes de como foi utilizada a ferramenta de IA e qual ferramenta foi utilizada.

As instruções de todas as sociedades científicas e editores de periódicos acadêmicos consultados incluem a exclusão de que a IA seja classificada como autor dos artigos acadêmicos e livros que são publicados.

Servidores de preprints como medRxiv , seu colega bioRxiv , assim como o editor Taylor & Francis , da Universidade de Cambridge, e o Office of Research Integrity do Reino Unido destacam que as diretrizes de autoria vigentes indicam que o ChatGPT não deve ser acreditado como autor nem como coautor.

O que importa é quem (o que) é um autor, e se este pode responder pela ética e confiabilidade de seu trabalho. No caso de que se forneça informações de ferramentas de IA, as visões nas fontes de dados e as possíveis visões na concepção dos instrumentos devem ser identificados e corrigidos, pois, na última análise, é o ser humano que continua a ser moral e legalmente responsável por quaisquer erros de publicação ou de violação dos direitos de autor.

Além disso, qualquer uso da IA ​​não deve infringir a política de plágio. Os trabalhos acadêmicos deverão ser originais do autor e não apresentar ideias, dados, palavras ou material de outros autores sem uma citação adequada e referenciação transparente. Muitas das perguntas mais inadiáveis ​​sobre IA e plágio estão relacionadas com conteúdo não textual: imagens, audiovisuais, tabelas, ideias etc. Novamente, a atribuição é chave: os editores assumem que todo o conteúdo é gerado por autores humanos, a menos que haja uma declaração em contrário.

As Recomendações das sociedades científicas e editores de periódicos

  1. Apenas humanos podem ser autores;
  2. Os autores devem considerar as fontes de seus materiais;
  3. Os autores devem assumir a responsabilidade pública de seu trabalho;
  4. Os autores devem se certificar de que todo o material citado seja mencionado corretamente, incluído nas citações completas, e que as fontes citadas respaldem as declarações do chatbot , pois não é incomum que os chatbots gerem referências a obras que não existem.
  5. Qualquer uso de chatbots na avaliação do manuscrito e na geração de revisões e correspondência deve ser expressamente indicado.
  6. Os editores de discussões de ferramentas digitais conversam para lidar com os efeitos dos chatbots na publicação. Quando se usa uma ferramenta de IA para realizar ou gerar trabalho analítico, ajudar a informar os resultados (por exemplo, gerar tabelas ou figuras) ou escrever códigos de computador, isso deve ser indicado no corpo do artigo, tanto na seção Resumo como na de Métodos , para permitir o escrutínio científico, incluindo a replicação e a identificação.
  7. Os editores discutem as discussões que os ajudam a detectar conteúdo gerado ou alterado por IA. Essas ferramentas devem estar disponíveis para os editores, independentemente da capacidade de pagamento por elas. Isso é de particular importância para os editores de periódicos da área médica, pois as consequências adversas da desinformação incluem possíveis danos às

O modelo de IA não foi desenhado para tomar decisões críticas nem para usos que tenham consequências materiais sobre o sustento ou bem-estar de uma pessoa. Isso inclui situações nas quais se trata de atenção médica, sentenças judiciais, ou finanças: áreas que estão representadas por muitos jornais e editoras acadêmicas.

Os chatbots são acionados por meio de uma instrução em linguagem simples, ou “ prompts ”, fornecida pelo usuário. Geram respostas modelos de linguagem estatísticos e baseados em probabilidades que dão coerência e, em geral, são linguisticamente precisos e fluidos. No entanto, até ao momento, com frequência se encontram compromissos de várias maneiras. Por exemplo, as respostas de chatbots atualmente comportam o risco de incluir vieses, distorções, irrelevâncias, deturpações e plágios, muitos dos quais são causados ​​pelos algoritmos que regem a sua geração e dependem, em grande medida, do conteúdo dos materiais utilizados na sua formação. O problema pode ter consequências graves em algumas situações, o que levou a FTC dos EUA a abrir recentemente uma investigação contra a OpenAI por possíveis danos causados ​​aos clientes do ChatGPT .

A utilização de IA na escrita científica deveria ser proibida?

Há três razões para se opor às políticas dos periódicos que proíbem o uso de LLM ao escrever ou editar manuscritos acadêmicos.

  • Primeiro, as proibições não se aplicam. Os textos certamente serão gerados à medida que os informáticos e os pesquisadores encontrem formas de trabalhar com eles.
  • Em segundo lugar, as proibições podem estimular o uso não divulgado do LLM, o que prejudicaria a transparência e a integridade da pesquisa.
  • Em terceiro lugar, o LLM pode desempenhar um papel importante para ajudar os pesquisadores que não dominam bem o inglês a escrever e editar seus trabalhos, e além disso, uma quantidade de tarefas acessórias de pesquisa.

A resposta mais razoável aos dilemas suscitados pelo LLM reside no desenvolvimento de políticas que promovam a transparência, a responsabilidade (accountability ) , a atribuição justa do crédito e a integridade.

Que aplicações de IA são aceitáveis ​​na redação científica

As ferramentas de IA podem ser de grande ajuda para editores, periódicos e autores acadêmicos (de fato, muitas já estão sendo utilizadas). Permitem identificar pareceristas adequados, resumir conteúdo, podem marcar metadados, identificar imagens duplicadas etc.

De acordo com a Association for Computational Linguistics (ACL), seriam atividades válidas para usar a IA na preparação de um artigo acadêmico:

  • Assistência puramente com o idioma do artigo. Quando os modelos generativos são usados ​​para parafrasear ou aperfeiçoar o conteúdo original do autor, ao invés de sugerir conteúdo novo, tornam-se similares ferramentas como Grammarly , corretores ortográficos, dicionários e dicionários de sinônimos, que têm sido perfeitamente aceitáveis ​​durante anos.
  • Busca de literatura . Os modelos de texto generativo podem ser utilizados como assistentes de busca e para identificar literatura relevante. Os regulamentos são aplicados para as especificações das especificações e a minúcia das especificações bibliográficas; é preciso ter cuidado com as possíveis vieses nas sugestões sugeridas.
  • Textos pouco inovadores . Alguns autores consideram que descrever conceitos amplamente conhecidos é uma perda de tempo e uma tarefa que pode ser automatizada. O manuscrito deveria especificar onde se forneceu um texto desta natureza e convencer os pareceristas de que se fornecem que a geração seja precisa e que se trate de restrições relevantes e observações (por exemplo, usar aspas em bloco para copiar palavra por palavra).

Se bem o LLM pode cometer alguns erros evidentes, são suscetíveis a vieses e inclusive podem fabricar fatos ou obrigações; No entanto, estes erros não devem ser recriminados, pois investigadores humanos também podem cometer erros semelhantes.

Reflexões e consequências

Do ponto de vista do Modelo SciELO de Publicação, pode parecer que é importante que os mais de 1.300 periódicos ativos atualmente publicados de modo descentralizado nas coleções da Rede SciELO operem com critérios comuns nas instruções aos autores sob este novo cenário que incorpora IA, ChatGPT e similares.

Seja que os periódicos já tenham sido publicados na forma convencional do SciELO, ou já utilizem os serviços de preprints , é necessário informar aos autores, dar instruções para incorporar os conceitos nas rotinas editoriais, e que os pareceristas estejam conscientes a respeito do tema.

Aqui não haverá retrocesso.

Sociedades científicas e editoras consultadas

Posts da série sobre Inteligência Artificial (IA)

Referências

Inteligência artificial (IA) e artigos falsos [online]. COPE: Comitê de Ética em Publicações. 2023 [consultado em 30 de agosto de 2023]. Disponível em: https://publicationethics.org/resources/forum-discussions/artificial-intelligence-fake-paper

Inteligência artificial (IA) na tomada de decisões [online]. COPE: Comitê de Ética em Publicações. 2023 [consultado em 30 de agosto de 2023]. https://doi.org/10.24318/9kvAgrnJ . Disponível em: https://publicationethics.org/node/50766

Inteligência artificial e autoria [online]. COPE: Comitê de Ética em Publicações. 2023 [consultado em 30 de agosto de 2023]. Disponível em: https://publicationethics.org/news/artificial-intelligence-and-authorship

Autoria e ferramentas de IA – Declaração de posicionamento do COPE [online]. COPE: Comitê de Ética em Publicações. 2023 [consultado em 30 de agosto de 2023]. Disponível em: https://publicationethics.org/cope-position-statements/ai-author

Autoria e contribuição [online]. Cambridge University Press. 2023 [consultado em 30 de agosto de 2023]. Disponível em: https://www.cambridge.org/core/services/authors/publishing-ethics/research-publishing-ethics-guidelines-for-journals/authorship-and-contributorship#ai-contributions-to-research-content

BOYD-GRABER, J., OKAZAKI, N. e ROGERS, A. 2023. Política da ACL 2023 sobre Assistência à Redação de IA [online]. Blog da ACL 2023 , 2023 [visualizado em 30 de agosto de 2023]. Disponível em: https://2023.aclweb.org/blog/ACL-2023-policy/

Chatbots, IA Generativa e Manuscritos Acadêmicos – Recomendações da WAME sobre Chatbots e Inteligência Artificial Generativa em Relação a Publicações Acadêmicas [online]. Associação Mundial de Editores Médicos. 2023 [visualizado em 30 de agosto de 2023]. Disponível em: https://wame.org/page3.php?id=110

HOSSEINI, M., RESNIK, DB e HOLMES, K. ​​A ética da divulgação do uso de ferramentas de inteligência artificial na escrita de manuscritos acadêmicos. Ética em Pesquisa [online]. 2023, vol. 0, n.º 0 [visualizado em 30 de agosto de 2023]. https://doi.org/10.1177/17470161231180449 . Disponível em: https://journals.sagepub.com/doi/10.1177/17470161231180449

STOKEL-WALKER, C. ChatGPT listado como autor em artigos de pesquisa: muitos cientistas desaprovam. Nature [online]. 2023, vol. 613, n.º 7945, pp. 620-621 [visualizado em 30 de agosto de 2023]. https://doi.org/10.1038/d41586-023-00107-z . Disponível em: https://www.nature.com/articles/d41586-023-00107-z

ZAKRZEWSKI, C. FTC investiga OpenAI por vazamento de dados e imprecisão do ChatGPT [online]. The Washington Post. 2023 [visualizado em 30 de agosto de 2023]. Disponível em: https://www.washingtonpost.com/technology/2023/07/13/ftc-openai-chatgpt-sam-altman-lina-khan/

Links externos

Associação de Linguística Computacional (ACL): https://www.aclweb.org/portal/

bioRxiv: https://www.biorxiv.org/

Imprensa da Universidade de Cambridge: https://www.cambridge.org/

Comitê de Ética em Publicações (COPE): https://publicationethics.org/

Comitê Internacional de Editores de Revistas Médicas (ICMJE): https://www.icmje.org/

Revista da Associação Médica Americana (Rede JAMA): https://jamanetwork.com/

medRxiv: https://www.medrxiv.org/

Escritório de Integridade de Pesquisa (ORI): https://www.research.uky.edu/office-research-integrity

Taylor & Francis: https://www.tandfonline.com/

Associação Mundial de Editores Médicos (WAME): https://www.wame.org/

Fonte: https://blog.scielo.org/blog/2023/08/30/inteligencia-artificial-e-a-comunicacao-da-pesquisa/

Nenhum comentário:

Princípios da Educação Online

Princípios da Educação Online: para sua aula não ficar massiva nem maçante! - Horizontes ...