• Sobre a Revista
  • Editorial E&S
  • Artigos
    • Análise de Conjuntura
      • Edição atual
      • Edições anteriores
    • Educação
      • Edição atual
      • Edições anteriores
    • Gestão
      • Edição atual
      • Edições anteriores
  • Colunistas
    • Colunas
  • Mídias
    • Entrevista
  • Contato
EntrarCadastre-se
Edição atualGestão

Gestão de dados em pesquisas científicas: abordagens éticas e práticas de integridade

25 de março de 2025

13 min de leitura

DOI: 10.22167/2675-6528-20240052
E&S 2025, 6: e202400052

Ana Paula Lopes Marinho e Alex Nunes de Almeida

Com a crescente disponibilização de dados digitais e o uso de métodos de Inteligência Artificial (IA) e Aprendizado de Máquina (AM) nas ciências de dados, surge um novo paradigma para a gestão e segurança das informações. A produção científica, baseada na coleta, manipulação e compartilhamento de dados por pesquisadores[1], torna a Gestão de Dados (GD) essencial. A qualidade e a transparência das informações devem ser aprimoradas, garantindo técnicas adequadas para replicação[2], especialmente em sistemas que utilizam Grandes Modelos de Linguagem (GML), como o ChatGPT®[3, 4]. Entretanto, a implementação de boas práticas de GD enfrenta desafios significativos, especialmente na necessidade de garantir a conformidade com leis de proteção de dados e a promoção de ações transparentes[2].

A aplicação de IA e AM tem automatizado diversas áreas, mas enfrenta riscos de vieses estatísticos pela falta de diversidade nos modelos, gerando desconfiança em relação aos seus resultados[4]. Este estudo teve como objetivo aprimorar boas práticas em GD e integridade na pesquisa, mapeando ferramentas que auxiliam pesquisadores no gerenciamento de informações científicas. Assim, foi apresentada a proposta inicial de um modelo abrangente para um Plano de Gestão de Dados (PGD), integrando métodos e procedimentos globais em uma abordagem unificada.

A implementação de boas práticas de GD é desafiadora, pois pesquisadores enfrentam dificuldades em cumprir legislações que assegurem a reprodutibilidade e integridade dos dados, fundamentais para atender requisitos legais e critérios epistêmicos rigorosos[5,6]. Algumas plataformas, pagas ou gratuitas, oferecem sistemas de PGD que permitem aos pesquisadores preencher informações, especialmente em projetos financiados[7]. Contudo, para assegurar qualidade e transparência dos dados é preciso ampliar o uso dessas ferramentas[3]. Para discutir a importância da GD nas pesquisas, relacionando valores éticos e práticas de integridade, a literatura sugere analisar como os pesquisadores adquirem e valorizam conhecimento, realizam tarefas e atribuem responsabilidades[1].

A questão central do estudo é: como implementar efetivamente um PGD, considerando valores éticos e práticas de integridade? O que busca avançar nas discussões sobre boas práticas de GD, destacando como o PGD pode garantir qualidade e transparência das informações, e incentivando o uso de ferramentas para o gerenciamento de dados científicos, visando a disseminação e reprodutibilidade do conhecimento.

A metodologia foi estruturada em duas etapas principais de modo a equilibrar a abrangência do conhecimento científico para comunicar a essência da pesquisa. Na primeira, realizou-se uma revisão bibliométrica, dividida em três fases (Tabela 1), para identificar tendências, padrões e lacunas em áreas específicas do conhecimento[8] . Essa busca preliminar foi fundamental para estabelecer uma base sólida de literatura, refinando os critérios de inclusão e exclusão e identificando palavras-chave e fontes relevantes, garantindo que a pesquisa fosse embasada em estudos com impacto significativo na área. Contudo, a busca na base Scopus® revelou que há poucos estudos sobre Data Science com foco em integridade em PGD.

Tabela 1. Resultados consolidados da pesquisa bibliográfica

FasesEstudos preliminaresEstudos via ScopusEstudos via SnowballTotal de amostra final
Resultados pesquisa bibliográfica66517
Fonte: Elaborado pelos autores

Diante dessa dificuldade, utilizou-se a estratégia de amostragem em “bola de neve” (snowball) para ampliar a base de referências, conectando redes de pesquisadores e identificando pesquisas adicionais[9], facilitando o acesso a dados interconectados conforme as necessidades do projeto. Para a estratégia snowball, utilizou-se a plataforma Research Rabbit® como ferramenta exploratória, conforme descrito no protocolo da revisão (Tabela 2). A escolha atende às exigências éticas e regulamentares.

Tabela 2. Protocolo de pesquisa da revisão sistemática – “snowball sampling”

AtividadesDescrição
Escolha das palavras-chavesA pesquisa teve dois conjuntos de palavras chaves: Integridade em Pesquisa; Plano de Gestão de Dados
Acesso a artigos e leitura dos AbstractsIdentificação de artigos pertinentes ao tema de pesquisa relacionados aos termos de busca.
Exploração de Referências e CitaçõesAo escolher as referências e citações dos artigos iniciais, permitiu-se que novas fontes fosse identificada a partir da pesquisa inicial, combinando outras novas a partir de dados representativos.
Ampliação da buscaA partir das novas referências e citações encontradas, ampliou-se a busca na plataforma incluindo novas fontes adicionais.
Análise e sínteseAvaliação das informações e síntese. O processo do “snowballing” repetiu-se para expandir a pesquisa e aumentar a compressão do tema.
Registro e gestão das referênciasAo longo do processo, as referências encontradas foram salvas na plataforma Research Rabbit®. Isso facilitou a organização e o acompanhamento dos artigos utilizados no TCC.
Fonte: Elaborado pelos autores com base em Naderifar e Ghaljaie[9].

Foram incluídos trabalhos de Cardoso et al.[7], Ministério da Saúde[10], Doorn[3], Engelhardt[11], e Governo Digital[12]. Para atualizar os dados, a segunda fase utilizou a base Scopus (Alam et al.[6]; Bolland & Grey[13]; Bouter[14]; Carcausto-Calla et al.[15]; Valkenburg et al.[1]; Van den Hoven et al.[16]). Em seguida, ampliou-se a busca com a técnica de snowball sampling[9] para obter amostras qualitativas e identificar lacunas sobre integridade na pesquisa (Beugelsdijk & Meyer[2]; McGovern et al.[4]; Hosseini et al.[5]; Wilkinson et al.[17]; Van den Eynden et al.[18]).

Na segunda etapa, foram mapeados repositórios e plataformas de GP científicos, nacionais e internacionais, regulamentados e recomendados por editores comprometidos com a integridade desta pesquisa. Foram realizadas uma busca no Google Scholar® e consultas em revistas de universidades para verificar políticas de submissão, integridade e transparência de dados em seus sites. Foram analisados estudos de caso empresariais e acadêmicos que evidenciam erros na GD, especialmente quando algoritmos de IA, baseados em fórmulas matemáticas, são erroneamente considerados infalíveis. Esses casos, conduzidos por especialistas, destacam a necessidade do uso de ferramentas de GD para garantir a replicabilidade dos estudos.

O acesso restrito a recursos abertos é um desafio significativo que dificulta a disseminação e validação dos resultados[5,2]. A falta de acessibilidade aberta prejudica a replicabilidade, criando barreiras para a validação das pesquisas[4], pois, mesmo com verificações automatizadas, falhas persistem, permitindo práticas irresponsáveis como falsificação ou plágio de informações[1]. Na Tabela 3, destaca-se as limitações e potencialidades enfrentadas no acesso e replicabilidade de dados na ciência computacional.

A educação sobre integridade enfrenta uma lacuna no entendimento de ética e replicabilidade, evidenciando a necessidade de treinamentos específicos[2, 6, 14]. Estudos de Carcausto-Calla et al.[15] e Van den Hoven et al.[16] apontam resultados positivos com treinamentos estruturados que utilizam metodologias ativas, como oficinas, análise de casos, jogos de simulação e até a pedagogia freiriana, promovendo autonomia crítica e integridade na pesquisa.

Tabela 3. Limitações e potencialidades de acesso a recursos de acesso aberto

LimitaçõesAutor(es)
Acesso a infraestruturas gratuitas e de alto desempenho para realização de pesquisas e criação de PGD´sMcGovern et al.[4]; Beugelsdijk et al.[2]
Desenvolvimento de aplicações simples, transparentes de AM e com infraestrutura de verificação de prevenção de plágioValkenburg et al.[1]
O uso de LLMs possui dilemas quanto ao emprego da transparência. A responsabilidade é essencial para garantir a integridade, rigor legal para a replicabilidade dos dados.Hosseini et al.[5]; Beugelsdijk et al.[2]
Conhecimento científico falsos e plagiados que entram em bases de dados.Valkenburg et al.[1]
A cultura de conhecimento compartilhado (Creative Commons) cresce, mas ainda enfrentamos desafios com licenciamento de domínio público e custos para liberar o acesso à pesquisa.Beugelsdijk et al.[2]
A principal limitação à compreensão pública do processo científico é a falta de treinamento, infraestrutura adequada, relatórios consistentes, procedimentos claros e atenção à ética de publicação.Alam et al.[6]; Bouter[14]
Os pesquisadores precisam de ajuda de suas instituições de pesquisa para otimizar o funcionamento de sua bússola moral.Bouter[14]
Há poucas oportunidades comunidades interessadas possam interagir no sentido de buscar colaborativamente soluções desafiadoras aos problemas de integridade na pesquisa.  Alam et al.[6]
PotencialidadesAutor(es)
A utilização do LLMs como ferramenta para facilitar a redação ou edição de textos é uma prática que promove a inclusão e diversidade.Hosseini et al.[5]
A maioria das revistas científicas adotou boas práticas de pesquisa, incorporando processos de revisão e códigos de ética que promovem o acesso aos dados e a transparência da pesquisa, conhecidos em inglês como Data Access and Research Transparency (DART).Beugelsdijk et al.[2]
Comitês de Ética são responsáveis por criar, disseminar e aprovar os protocolos de pesquisa. Prática disseminada em muitos países, incluindo o Brasil.Beugelsdijk et al.[2]; Ministério da Saúde[10]
Lei de Proteção de dados propõe e estimula que os pesquisadores elaborem um PGD com os detalhes dos tipos de dados coletados, como foram analisados e armazenados.Beugelsdijk et al.[2]
Programas de treinamento desenvolvidos com uso de metodologias ativas para desenvolvimento de integridade e pesquisa para comunidade científica.Carcausto-Calla et al.[15]
Evidências mostram que os treinamentos fortaleceram conceitos normativos, promoveram autonomia crítica, abertura, autoconfiança e coragem para lidar com questões de integridade na prática.Van den Hoven et al.[16]
Fonte: Elaborado pelos autores

Nas publicações acadêmicas, há uma crescente adoção de políticas de transparência e acesso a dados, com muitas revistas integrando o Comitê de Ética em Publicação (COPE). No entanto, como apontam Beugelsdijk et al.[2] e Bolland et al.[13], ainda que o COPE não defina padrões metodológicos específicos, essa mudança visa uma cultura de pesquisa mais ética, mas o uso de recursos “Creative Commons” pode enfrentar desafios financeiros. A Lei Geral de Proteção de Dados no Brasil e a legislação correspondente na União Europeia, sancionadas em 2018, reforçam a necessidade de um PGD, que é avaliado pelos Comitês de Ética em Pesquisa (CEP). O PGD deve respeitar as políticas específicas da revista, CEP e leis de proteção de dados.

Na Tabela 4, observa-se que a integridade na pesquisa é vista como uma responsabilidade individual dos pesquisadores[1]  o que requer cuidado em todas as etapas, ressaltando a transparência e segurança na gestão de informações, independentemente das tecnologias empregadas[2,6,16],pois o compromisso com a integridade exige conduta responsável dos pesquisadores.

Tabela 4. Síntese teórica sobre a integridade na pesquisa

AutoresConceito de integridade na pesquisa
Valkenburg et al.[1]A integridade na pesquisa é vista pelos autores como uma questão de responsabilidade dos pesquisadores em termos individuais em relação as suas respectivas atividades na pesquisa.
Beugelsdijk et al.[2]A transparência é condição básica na pesquisa científica que decorre desde a etapa de produção de dados até o resultado das análises, desde a produção de dados até os resultados das análises, acumulando credibilidade no desenvolvimento da teoria sobre o fenômeno.
Alam et al.[6]De acordo com os autores a integridade na pesquisa consiste em agregar o valor e benefícios sociais a pesquisa. A aplicação da integridade na pesquisa é marcada pela adesão de forma consistente de honestidade, responsabilidade, cortesia profissional, justiça e boa gestão.
Van den Hoven et al.[16]Compreende que integridade na pesquisa é o efeito de estimular o empoderamento em direção à conduta responsável de pesquisa.
Fonte: Elaborado pelos autores

A maioria dos periódicos científicos exige que os autores enviem documentos separados, como tabelas e figuras, detalhando a base de dados. Também recomendam disponibilizar os dados em repositórios legais, acessíveis via “Digital Object Identifier” (DOI), permitindo citações como bibliografia formal[2].  A identificação por DOI de um artigo conecta-o ao pesquisador ou à organização de pesquisa. Algumas plataformas cruzam dados exigindo login com o identificador “Open Researcher and Contributor ID” (ORCID), uma iniciativa sem fins lucrativos que fornece um identificador único e permanente para pesquisadores e colaboradores acadêmicos[19]. Utilizado para validar a inclusão de informações associadas ao DOI, essa abordagem promove transparência na pesquisa, embora nem todos os sistemas ofereçam essa integração[6].

Plataformas e repositórios pesquisados

Foram consultados repositórios que fornecem DOI, com destaque para os recomendados pelos revisores e que oferecem uma interface de metadados padronizada e acessível globalmente para exportação de dados[8,20]. Para cada repositório listado, é apresentada uma breve explicação sobre sua função principal no contexto da replicabilidade de dados (Tabela 5).

Tabela 5. Repositórios indicados por revisores que fornecem DOI

Nome do repositórioDados de acessoFunção
DataCite Commonshttps:// repositoryfinder.datacite.orgPermite ao pesquisador realizar pesquisas, acessar e reutilizar conjuntos de dados
Dryadhttps://datadryad.org/stashRepositório de dados que oferece armazenamento e compartilhamento de dados científicos  
Harvard Dataversehttps://dataverse.org/Permite que os pesquisadores compartilhem, preservem e citem seus dados
Mendeleywww.elsevier. com/solutions/mendeleyGerenciamento de referências e rede social acadêmica. Apresenta funções de organização de documentos e redes de pesquisa
ROR – Research Organization Registryhttps://ror.org/Registro global de identificadores únicos para organizações de pesquisa
Fonte: Elaborado pelos autores

Diversas ferramentas para a elaboração de PGD, ou Data Management Plans (DMP) em inglês, foram investigadas. A seguir, listamos as ferramentas identificadas nesta pesquisa, acompanhadas de uma breve explicação (Tabela 6).

Tabela 6. Ferramentas para elaboração de Plano de Gestão de Dados (DMPtools)

NomeDados de acessoFunção
DCC – Digital Curation Centrehttps://www.dcc.ac.uk/Centro de curadoria digital que oferece recursos e orientações para a GD de pesquisa
DMPtoolhttps://dmptool.org/authFerramenta online que auxilia os pesquisadores na elaboração de planos de GD. Ferramenta utilizada por várias universidades
DMPTuuli https://www.dmptuuli.fi/Similar ao DMPtool, porém específica para pesquisadores finlandeses
Mendeleyhttps://data.mendeley.com/Embora mais conhecido como serviço de gerenciamento de referências. Oferece recursos para a GD de pesquisa
USGS – Science for a Changing Worldhttps://www.usgs.gov/data-managementAgência governamental dos Estados Unidos que se dedica à gestão e análise de dados geoespaciais e ambientais
Fonte: Elaborado pelos autores

Modelo de Plano de Gestão de Dados

O PGD é um documento essencial que organiza e detalha o desenvolvimento da pesquisa. Ele deve incluir a descrição dos protocolos de coleta de dados, a avaliação de riscos e benefícios, e os procedimentos necessários para garantir a confidencialidade e privacidade das informações, além das práticas de retenção[2]. A gestão eficaz de dados garante sua curadoria, beneficiando a comunidade científica e cumprindo as diretrizes de governança estabelecidas por órgãos reguladores[12].

Um PGD bem elaborado garante o arquivamento adequado dos dados, definindo diretrizes para sua preservação e facilitando o uso por futuros pesquisadores. Conforme Wilkinson et al.[17], um PGD converte metadados em conjuntos de dados aptos a receber um identificador DOI. Para tanto, decisões estratégicas, como o uso de ferramentas computacionais, são essenciais.

A governança dos dados deve seguir os princípios FAIR — Findable (localizáveis), Accessible (acessíveis), Interoperable (interoperáveis) e Reusable (reutilizáveis) — para fortalecer a transparência e integridade dos dados, além de promover a colaboração acadêmica[11, 8]. Complementarmente, os princípios CARE (Coletivo, Autoridade, Responsabilidade e Ética), introduzidos por Souza et al.[21], focam na gestão ética de dados, especialmente para populações vulneráveis. Criado na Conferência Internacional de Dados, o princípio CARE foi originalmente voltado ao tratamento de dados indígenas, mas se estende a todas as populações nas quais estudos científicos são baseados.

Seguindo Van den Eynden[21]e Beugelsdijk et al.[2], a implementação de boas práticas de GD exige uma abordagem meticulosa e organizada. O modelo de PGD deve alinhar-se aos princípios FAIR e CARE (Figura 1) e ser desenvolvido seguindo as seguintes etapas:

1) Descrição dos dados, normas de metadados e interoperabilidade: o processo exige informações detalhadas sobre os dados utilizados na pesquisa, garantindo a interoperabilidade. Os dados devem estar disponíveis em uma plataforma compatível que permita sua interação.
2) Restrições legais, éticas, afiliações e autores:  pesquisadores devem cumprir leis e regulamentos sobre uso e compartilhamento de dados, como proteção de dados, direitos autorais e propriedade intelectual, considerando também limitações de comitês de ética e questões éticas relacionadas à privacidade e consentimento dos participantes.
3) Política de preservação, compartilhamento e reuso dos dados:  envolve a preservação, compartilhamento e reutilização dos dados, baseada em práticas de armazenamento que garantem acesso a longo prazo. Isso inclui sistemas digitais, backups regulares, documentação adequada e padrões de preservação para evitar perdas e acessos inadequados.
4) Formatos e padrões: um PGD bem estruturado deve indicar os formatos de arquivo e a estrutura dos dados, informações essenciais para garantir a interoperabilidade e portabilidade entre sistemas e plataformas[3, 2,10].
5) Repositórios: locais específicos armazenam e organizam dados de forma sistemática e segura, permitindo que os autores os estruturem de forma a facilitar o acesso, compartilhamento e preservação permanente.

Figura 1. Etapas para desenvolvimento do Plano de Gestão de Dados
Fonte: Elaborado pelos autores com base em Van den Eynden[18] e Beugelsdijk et al.[18,2].

O modelo de PGD proposto neste estudo abrange cinco etapas essenciais para seu desenvolvimento, alinhadas às três fases do ciclo de desenvolvimento de um Trabalho de Conclusão de Curso (TCC). Embora voltado para estudantes de Data Science Analytics, ele pode ser aplicado em outras disciplinas que exijam um PGD. Considerando a complexidade das bases de dados utilizadas, é indispensável um sistema computacional robusto que assegure agilidade, eficiência e segurança. O uso de plataformas ou repositórios integrados para coleta, criação e compartilhamento de dados também é fundamental. As diretrizes do modelo, ilustradas na Figura 2, buscam orientar os pesquisadores a adotar práticas cuidadosas e responsáveis, promovendo a credibilidade dos estudos e contribuindo para o avanço do conhecimento em suas áreas.

Ciclo da pesquisa

1) Projeto de pesquisa: envolve as atividades iniciais para a concepção do projeto, garantindo que a integridade e a confiabilidade dos dados sejam definidas desde o início.
2) Resultados preliminares: representam um marco crucial, no qual é fundamental assegurar a aplicação da metodologia e dos materiais estabelecidos no projeto.
3) Texto final: embora seja a etapa final, essa atividade é crucial para revisar padrões e formatos, estimar o volume de dados gerado e especificar as ferramentas para seu processamento.

Figura 2. Ciclo da pesquisa
Fonte: Elaborado pelos autores.

Em cada uma das três etapas, foram incorporadas atividades essenciais para a gestão abrangente de dados. Essa integração ao ciclo de pesquisa garantiu a aplicação dos princípios CARE e FAIR, promovendo um modelo que alinha ações éticas e responsáveis. Assim, o pesquisador pode conduzir suas atividades de forma transparente, descrevendo detalhadamente a base de dados e comunicando com clareza a confiabilidade dos resultados do estudo. Este estudo apresentou um modelo para facilitar a implementação do PGD em pesquisas de GD e outros trabalhos acadêmicos, enfatizando a importância da integridade nas três fases do ciclo de pesquisa: concepção, desenvolvimento e redação final. Ao incorporar práticas éticas desde o início até a conclusão do projeto, reforça-se a conduta responsável dos pesquisadores e a necessidade de uma gestão rigorosa dos dados. Essa abordagem não só eleva a qualidade dos trabalhos acadêmicos, mas também promove o diálogo sobre transparência na disseminação e reutilização de dados.

Referências

[1] Valkenburg, G.; Dix, G.; Tijdink, J.; Rijcke, S. 2021. Expanding research integrity: A cultural-practice perspective. Science and engineering ethics 27(10):1-23. https://doi.org/10.1007/s11948-021-00291-z.

[2] Beugelsdijk, S.; Van Witteloostuijn, A.; Meyer, K.E. 2020. A new approach to data access and research transparency (DART). Journal of International Business Studies 51:887-905. https://doi.org/10.1057/s41267-020-00323-z.

[3] Doorn, P.K. 2018. Science Europe Practical Guide to the International Alignment of Research Data Management. https://doi.org/10.5281/zenodo.4915862.

[4] McGovern, A.; Ebert-Uphoff, I.; Gagne, D.J.; Bostrom, A. 2022. Why we need to focus on developing ethical, responsible, and trustworthy artificial intelligence approaches for environmental science. Environmental Data Science, 1, p.e6. DOI: 10.1017/eds.2022.5.

[5] Hosseini, M.; Resnik, D.B.; Holmes, K. 2023. The ethics of disclosing the use of artificial intelligence tools in writing scholarly manuscripts. Research Ethics 19(4):449-465. https://doi.org/10.1177/17470161231180449.

[6] Alam, S.; Burley, R.; Graf, C.; Meadows, A.;  Mejias, G.; Pattinson, D. 2024. (Re?) Building trust in research integrity. Information Services & Use 44(1):1-4. DOI: 10.3233/ISU-230200.

[7] Cardoso, J.; Pereira, F.; Moreira, J.M. 2024. Serviço de Repositório Digital de Dados de Investigação. Revista Científica Da UEM: Série Letras E Ciências Sociais, 4(1). Disponível em: http://196.3.97.23/revista/index.php/lcs/article/view/223. Acesso em: 21 jan. 2025.

[8] Gottardi, T.; Medeiros, C.B.; Reis, J.C., 2021. Semantic Search to Foster Scientific Findability: A Systematic Literature Review. Journal of Information and Data Management 12(5). https://doi.org/10.5753/jidm.2021.1919.

[9] Naderifar, M.; Goli, H.; Ghaljaie, F. 2017. Snowball sampling: A purposeful method of sampling in qualitative research. Strides in development of medical education, 14(3). https://doi.org/10.5812/sdme.67670.

[10] Ministério da Saúde [MS]. 2023. Conselho Nacional de Saúde. Comitê de Ética em Pesquisa. Disponível em: < https://conselho.saude.gov.br/comites-de-etica-em-pesquisa-conep?view=default>. Acesso em: 11 de abril de 2024.

[11] Engelhardt, C. 2022. D7. 4 How to be FAIR with your data. Disponível em: https://library.oapen.org/handle/20.500.12657/54460. Acesso em: 21 jan. 25.

[12] Governo Digital. 2024. Governança de Dados. Disponível em: https://www.gov.br/governodigital/pt-br/infraestrutura-nacional-de-dados/governancadedados/governanca-de-dados. Acesso em: 11 de abril de 2024.

[13] Bolland, M.J.; Avenell, A.; Grey, A. 2024. Publication integrity: what is it, why does it matter, how it is safeguarded and how could we do better?. Journal of the Royal Society of New Zealand, 55(1541):1-20. DOI: 10.1080/03036758.2024.2325004.

[14] Bouter, L. 2020. What research institutions can do to foster research integrity. Science and engineering ethics, 26(4):2363-2369. DOI: 10.1007/s11948-020-00178-5.

[15] Carcausto-Calla, W.; Zapata, N.A.; Cueva, F.E.I.; Morales, S.A.G.; Rios, A.R. 2023. Mapping of Empirical Studies on Research Integrity in University Institutions 12(5):9-22. https://doi.org/10.36941/ajis-2023-0122.

[16] Van den Hoven, M.; Lindemann, T.; Zollitsch, L.; Prieß-Buchheit, J. 2023. A Taxonomy for Research Integrity Training: Design, Conduct, and Improvements in Research Integrity Courses. Science and engineering ethics, 29(14):1-21.  https://doi.org/10.1007/s11948-022-00425-x.

[17] Wilkinson, M.D.; Dumontier, M.; Aalbersberg, I.J.; Appleton, G.; Axton, M.; Baak, A.; Mons, B. 2016. The FAIR Guiding Principles for scientific data management and stewardship. Scientific data, 3(1):1-9. https://doi.org/10.1038/sdata.2016.18.  

[18] Van den Eynden, V.; Corti, L.; Woollard, M.; Bishop, L.; Horton, L. 2011. Managing and sharing data; a best practice guide for researchers. Disponível em: https://dam.ukdataservice.ac.uk/media/622417/managingsharing.pdf. Acesso em: 21 jan. 2025.

[19] ORCID. (2024). ORCID – Connecting Research and Researchers. Disponível em: https://orcid.org/. Acesso em: 11 de abril de 2024.

[20] Laender, A.H.F.; Medeiros, C.M.B.; Cendes, I.L.; Barreto, M.L.; Van Sluys, M.A.; Almeida, U.B.D. 2020. Abertura e gestão de dados: desafios para a ciência brasileira. Disponível em: https://www.abc.org.br/wp-content/uploads/2020/09/ABC-Abertura-e-Gest%C3%A3o-de-Dados-desafios-para-a-ci%C3%AAncia-brasileira.pdf. Acesso em: 21 jan. 2025.

[21] Souza, L.P.; Sousa, R.S.C.; Löw, M.M.; Barros, T.H.B. 2023, August. Promovendo a justiça epistêmica: uma análise dos princípios CARE na gestão de dados de pesquisa em relação aos povos indígenas. In Anais do Workshop de Informação, Dados e Tecnologia-WIDaT 6. https://doi.org/10.22477/vi.widat.73.

Como citar

Marinho A.P.L.; Almeida A.N. Gestão de dados em pesquisas científicas: abordagens éticas e práticas de integridade. Revista E&S. 2025; 6: e20240052.

Sobre os autores

Ana Paula Lopes Marinho – Mestre em Administração. Centro Estadual de Educação Tecnológica Paula Souza. Praça Coronel Fernando Prestes, 30, Bom Retiro, 1124-060, São Paulo, São Paulo, Brasil.
Alex Nunes de Almeida – Doutor em Ciências. Pecege. Rua Cezira Giovanoni Moretti, 580, Santa Rosa, 13414-157, Piracicaba, São Paulo, Brasil

Baixe este artigo em PDF

Quem editou este artigo

Foto do Colunista

Luiz Eduardo Giovanelli

Created with Sketch. Created with Sketch.

Você também pode gostar

Edições anterioresGestão
ISO 21001: a compreensão de gestores escolares sobre sistemas de gestão da qualidade em organizações educacionais

ISO 21001: a compreensão de gestores escolares sobre sistemas de gestão da qualidade em organizações educa...

22 de abril de 2024

DOI: 10.22167/2675-6528-20240006 E&S 2024, 5: e20240006 Érika Dayane Rodrigues Moreira; Maria Cecília Perantoni Fuchs Ferraz A gestão da qualidade evolui...

Luiz Eduardo Giovanelli
Edições anterioresGestão
Planejamento tributário de empresa de prestação de serviços para construção civil no município de Curitiba

Planejamento tributário de empresa de prestação de serviços para construção civil no município de Curit...

21 de julho de 2022

DOI: 10.22167/2675-6528-20220025 E&S 2022,3: e20220025 Dayane Campos Souza e Raissa Alvares de Matos Miranda O planejamento tributário, também denominado...

Edson Mota
Edições anterioresGestão
Procedimento e treinamento – uma dupla para padronizar a rotina e eliminar desperdícios

Procedimento e treinamento – uma dupla para padronizar a rotina e eliminar desperdícios

26 de maio de 2021

DOI: 10.22167/2675-6528-20210004 E&S 2021.2: e.20210004 Marcos Milan, Leandro Maria Gimenez, Thiago Libório Romanelli Uma organização de qualquer ramo e...

Edson Mota
Edições anterioresGestão
<i>Employee Experience</i> e sua importância na área de gestão de pessoas

Employee Experience e sua importância na área de gestão de pessoas

22 de julho de 2024

DOI: 10.22167/2675-6528-20240044E&S 2024, 5: e202400044 Luis Humberto Cortes Reyes e Adriana Villanova de Almeida Há algum tempo as pessoas deixaram de ser...

Luiz Eduardo Giovanelli

Mais recentes

Estratégias de marketing digital das marcas brasileiras de moda de luxo
Edição atualGestão

Estratégias de marketing digital das marcas brasileiras de moda de luxo

Imposto de Renda 2025: principais mudanças e os desafios para o contribuinte
Análise de ConjunturaEdição atual

Imposto de Renda 2025: principais mudanças e os desafios para o contribuinte

A inclusão dos surdos no trabalho: um desafio bilíngue e bicultural
Edição atualGestão

A inclusão dos surdos no trabalho: um desafio bilíngue e bicultural

Inscreva-se em nossa newsletter!

Receba indicações de conteúdos e fique por dentro das novidades sobre gestão, liderança e carreira com a Revista E&S

Logo Revista E&S

Revista de caráter técnico-científico que visa publicar artigos inovadores de excelência, abordando estratégias e soluções nas áreas de gestão e educação.

Created with Sketch.

Onde estamos

Rua Cezira Giovanoni Moretti, 580 Bairro Santa Rosa, Piracicaba, SP - 13.414-157

Tel: (19) 3377 0937

E-mail: esrevista@pecege.com

Acesso Rápido

  • Editorial E&S
  • Sobre a Revista
  • Colunistas
  • Artigos
  • Contato
Patrocínio
Apoio

Parceiros

Revista E&S - Todos os direitos reservados - Copyright © 2025 · Criado por Pecege