Orientação aos autores e aos avaliadores dos artigos da Revista REDECA

2024-01-31

Atualmente, estamos “maravilhados” com algumas novidades da IA, entre elas processos de reconstrução de textos. Destaca-se que a base destas reconstruções, no momento presente, são os modelos de aprendizagem não supervisionados, denominados modelos generativos.
Um modelo generativo é um modelo estatístico que faz uso da distribuição conjunta de probabilidades, muito utilizado ultimamente em pesquisas e principalmente nos aplicativos de conversação (chats) que reconstroem textos.
Nestes processos, é relevante considerar os potenciais pontos tidos como não estacionários, aumentando-se assim o processo de aprendizagem. Os algoritmos preparados aprendem com os dados fornecidos, gerando novos conteúdos, novas informações ou dados de saída, semelhantes, porém não idênticos, todos obtidos na fase do treinamento. Em outras palavras, reduzem a dimensionalidade dos dados de entrada (pesquisa) e em seguida reconstrói-se uma saída de dados para fazer corresponder o mais possível à entrada original.
São exemplos destes modelos na atual literatura as Large Language Model (LLM), as Redes Adversárias Generativas (GAN), os Modelos Baseados em Transformador (Transformer), e finalmente os Modelos de Autoencoder Variacional (VAEs).
Sabemos o quanto isso é transformador para processo de aprendizagem, contudo é nosso dever nos pautarmos nas questões éticas da IA, mantendo a integridade da pesquisa científica nos parâmetros de originalidade, criatividade, contribuição, debates e as investigações acadêmicas.
Por isso, nos sentimos no dever de combater as fraudes nas burlas de artigos construídos artificialmente e atualmente incrementados por IA. Pensando nisso, recomendamos pontos de atenção que são alguns inconvenientes da IA, detectados principalmente na construção de artigos artificiais. O nosso objetivo visa garantir a integridade e a ética.
1º Os processos de referenciação são importantes meios para demonstrar a evolução das ideias, contudo tal fato pode ser utilizado como ideias próprias de outro autor quando o verdadeiro autor é encapsulado. Nota-se que os algoritmos de IA trazem um número expressivo de referenciação sem uma ideia conclusiva ou própria e isto pode ser um indício de fraude. Verifica-se que os “fatos nus” ou originários raramente são referenciados em IA, normalmente são trazidos de forma encoberta com uma visão direcionada em certo ângulo de observação.
2º Os algoritmos de IA são treinados com uma base de dados em larga escala, por isso formam vieses na formação da opinião. Os algoritmos muitas vezes não discernem uma tendência formada nas classificações e raramente apresentam contrapontos. É desta forma que as desigualdades, caso não discutidas, ficam prevalentes no texto. Os debates não são estimulados e as hipóteses contrárias e as argumentações opostas são escassas. Temos notícias que já existem algoritmos de IA que inclusive mitigam tal situação.
3º Os textos preparados por meio de IA dificilmente detectam certas particularidades ou nuances, pois o treinamento opera na direção da massa majoritária, muito raramente apresentam pensamentos críticos ou até meios alternativos à tese.
4º Textos em IA raramente tem um “estado da arte” pois não possuem criatividade, apenas juntam uma grande quantidade de informações bem concatenadas e coordenadas com a aparência de um texto “bem construído”.
5º Os algoritmos acessam dados às vezes não disponibilizados para reprodução causando grandes problemas nas questões de direitos autorais. Muitas vezes burlando os mecanismos de segurança que protegem aquelas informações. Pode-se constatar isso com o uso de imagens, dados, informações e outras, sem as referenciações pertinentes.

Os Editores