
Pesquisadores da Universidade de Samara desenvolveram uma nova metodologia capaz de determinar com precisão o grau de envolvimento da inteligência artificial (IA) na criação de textos. Os detalhes desta pesquisa foram publicados na revista `Estudos Semióticos`.
A crescente integração de redes neurais na atividade científica levanta a questão se os sistemas de inteligência artificial podem ser considerados coautores plenos de publicações. De acordo com sociólogos da Universidade Nacional de Pesquisa de Samara, nomeada em homenagem ao acadêmico S.P. Korolev, a prática de incluir a inteligência artificial (IA) entre os autores de artigos científicos, e em algumas situações até como o único criador do trabalho, já é observada globalmente.
Os especialistas da universidade analisaram o processo de criação de textos com o uso de IA e examinaram práticas semelhantes em bases de dados internacionais como Web of Science e Scopus. Eles identificaram quatro artigos onde o ChatGPT foi listado como autor, incluindo dois casos de autoria exclusiva. Além disso, a base Scopus registrou pelo menos duas publicações com coautoria de IA, embora em um dos casos, o chatbot tenha sido posteriormente removido da lista de autores a pedido da editora da revista.
Os cientistas afirmam que seus achados indicam a necessidade de reavaliar o conceito tradicional de autoria no contexto da IA generativa. Neste cenário, o ser humano atua não apenas como criador, mas também como curador, editor e intérprete.
“Concluímos que tais trabalhos possuem uma natureza híbrida. Essa abordagem abre caminho para novos modelos de autoria `distribuída` e `entrelaçada`, onde a IA se torna participante do processo criativo, mas a responsabilidade final pelo conteúdo recai sobre o `pesquisador humano`”, comentou Natalia Maslenkova, Professora Associada do Departamento de Sociologia e Culturologia da Universidade de Samara.
Os pesquisadores da universidade dedicaram atenção especial às questões éticas associadas ao uso de inteligência generativa para a produção de textos científicos. Existem riscos conhecidos de “fraude” acadêmica, como quando um indivíduo apresenta conteúdo inteiramente gerado por IA como seu próprio, sem assumir o papel de editor e autor responsável.
“Nossas conclusões podem servir de base para normas éticas e legais que aumentam a transparência no uso da IA e previnem abusos. Isso é particularmente crucial para os campos educacional, científico e midiático, onde surge a questão de quem assume a responsabilidade pelo conteúdo criado com a participação da IA”, explicou Maslenkova.
Os especialistas da instituição destacam que a originalidade de seu trabalho reside em não se limitar à análise jurídica, mas em empregar uma abordagem abrangente que combina análises filosóficas, socioculturais e legais. Os pesquisadores conectam as práticas modernas de trabalho com IA a teorias de autoria distribuída e em rede, permitindo uma compreensão mais profunda da transformação do papel do ser humano e da máquina na criação de textos.
“Uma das perspectivas argumenta que a IA é um `papagaio estocástico`, imitando a fala humana com base em estatísticas. Sua `subjetividade` é, por enquanto, um construto social que reflete a contribuição coletiva de desenvolvedores e usuários”, ponderou Maslenkova.
Atualmente, os cientistas têm como objetivo desenvolver recomendações para o uso transparente e responsável de modelos generativos na educação e em publicações científicas, bem como investigar como as percepções de autoria mudam entre diferentes grupos sociais à medida que a IA se dissemina.
