Portal do Governo Brasileiro
BDPA - Bases de Dados da Pesquisa Agropecuária Embrapa
 






Acesso ao texto completo restrito à biblioteca da Embrapa Territorial. Para informações adicionais entre em contato com cnpm.biblioteca@embrapa.br.
Registro Completo
Biblioteca(s):  Embrapa Territorial.
Data corrente:  14/08/2020
Data da última atualização:  17/08/2020
Tipo da produção científica:  Artigo em Periódico Indexado
Autoria:  MARTINS, V. S.; KALEITA, A. L.; GELDER, B. K.; SILVEIRA, H. L. F. da; ABE, C. A.
Afiliação:  VITOR S. MARTINS, IOWA STATE UNIVERSITY; AMY L. KALEITA, IOWA STATE UNIVERSITY; BRIAN K. GELDER, IOWA STATE UNIVERSITY; HILTON LUIS FERRAZ DA SILVEIRA, CNPM; CAMILA A. ABE, UNIVERSITY OF WISCONSIN-MADISON.
Título:  Exploring multiscale object-based convolutional neural network (multi-OCNN) for remote sensing image classification at high spatial resolution.
Ano de publicação:  2020
Fonte/Imprenta:  ISPRS Journal of Photogrammetry and Remote Sensing, v. 168, p. 56-73, oct. 2020.
ISBN:  0924-2716
DOI:  https://doi.org/10.1016/j.isprsjprs.2020.08.004
Idioma:  Inglês
Conteúdo:  Convolutional Neural Network (CNN) has been increasingly used for land cover mapping of remotely sensed imagery. However, large-area classification using traditional CNN is computationally expensive and produces coarse maps using a sliding window approach. To address this problem, object-based CNN (OCNN) becomes an alternative solution to improve classification performance. However, previous studies were mainly focused on urban areas or small scenes, and implementation of OCNN method is still needed for large-area classification over heterogeneous landscape. Additionally, the massive labeling of segmented objects requires a practical approach for less computation, including object analysis and multiple CNNs. This study presents a new multiscale OCNN (multi-OCNN) framework for large-scale land cover classification at 1-m resolution over 145,740 km2. Our approach consists of three main steps: (i) image segmentation, (ii) object analysis with skeleton-based algorithm, and (iii) application of multiple CNNs for final classification. Also, we developed a large benchmark dataset, called IowaNet, with 1 million labeled images and 10 classes. In our approach, multiscale CNNs were trained to capture the best contextual information during the semantic labeling of objects. Meanwhile, skeletonization algorithm provided morphological representation (?medial axis?) of objects to support the selection of convolutional locations for CNN predictions. In general, proposed multi-OCNN presented... Mostrar Tudo
Palavras-Chave:  Aerial imagery; Convolutional neural network; Deep learning.
Thesaurus Nal:  Land cover.
Categoria do assunto:  --
Marc:  Mostrar Marc Completo
Registro original:  Embrapa Territorial (CNPM)
Biblioteca ID Origem Tipo/Formato Classificação Cutter Registro Volume Status URL
CNPM5315 - 1UPCAP - DD20/067AP2020.067
Voltar






Acesso ao texto completo restrito à biblioteca da Embrapa Agricultura Digital. Para informações adicionais entre em contato com cnptia.biblioteca@embrapa.br.

Registro Completo

Biblioteca(s):  Embrapa Agricultura Digital; Embrapa Pecuária Sudeste.
Data corrente:  09/10/2023
Data da última atualização:  24/10/2023
Tipo da produção científica:  Artigo em Anais de Congresso
Autoria:  AFONSO, J.; FORTES, M. R. S.; SHIM, W. J.; CARDOSO, T. F.; BRUSCADIN, J. J.; LIMA, A. O. de; DINIZ, W. J. S.; SILVA-VIGNATO, B.; TAN, W. L. A.; CESAR, A. S. M.; BODEN, M.; MOURÃO, G. B.; ZERLOTINI NETO, A.; COUTINHO, L. L.; REGITANO, L. C. de A.
Afiliação:  MARINA RUFINO SALINAS FORTES, THE UNIVERSITY OF QUEENSLAND; JENNIFER JESSICA BRUSCADIN, UNIVERSIDADE FEDERAL DE SÃO CARLOS; ANDRESSA OLIVEIRA DE LIMA, UNIVERSITY OF WASHINGTON; AUBURN UNIVERSITY; UNIVERSIDADE DE SÃO PAULO; THE UNIVERSITY OF QUEENSLAND; ALINE SILVA MELLO CESAR, UNIVERSIDADE DE SÃO PAULO; MIKAEL BODEN, THE UNIVERSITY OF QUEENSLAND; GERSON BARRETO MOURÃO, UNIVERSIDADE DE SÃO PAULO; ADHEMAR ZERLOTINI NETO, CNPTIA; UNIVERSIDADE DE SÃO PAULO; LUCIANA CORREIA DE ALMEIDA REGITANO, CPPSE.
Título:  Epigenetic repression of genes associated with ribeye area of nelore cattle.
Ano de publicação:  2023
Fonte/Imprenta:  In: CONFERENCE OF THE ASSOCIATION FOR THE ADVANCEMENT OF ANIMAL BREEDING AND GENETICS, 25., 2023, Perth. Animal breeding at the crossroads: proceedings. Armidale: Association for the Advancement of Animal Breeding and Genetics, 2023. p. 206-209.
ISSN:  1328-3227
Idioma:  Inglês
Notas:  AAABG 2023. Na publicação: A. Zerlotini.
Conteúdo:  SUMMARY. Understanding the epigenetic repression role in regulating genes involved with the ribeye area (REA) of bovine muscle can help us to predict this trait in the future. Here, we identified genes putatively regulating REA in Nelore cattle and divergently epigenetically repressed between contrasting sample groups. For that, we applied the TRIAGE method with a Rank Product analysis using bovine muscle expression data on high versus low REA groups. Further, we identified overrepresented pathways and biological processes linked to candidate genes, searching for their regulatory direction. This result advances the knowledge about how epigenetic regulation may impact production traits in Nelore cattle.
Palavras-Chave:  Área de olho de lombo; Candidate regulatory genes; Epigenetic repression; Genes candidatos a reguladores; Longissimus thoracis muscle´s expression data; Repressão epigenética; Ribeye area.
Thesagro:  Gado Nelore.
Categoria do assunto:  --
G Melhoramento Genético
Marc:  Mostrar Marc Completo
Registro original:  Embrapa Agricultura Digital (CNPTIA)
Biblioteca ID Origem Tipo/Formato Classificação Cutter Registro Volume Status
CNPTIA21842 - 1UPCAA - DD
CPPSE26188 - 1UPCAA - DDPROCI-2023.00065AFO2023.00226
Fechar
Nenhum registro encontrado para a expressão de busca informada.
 
 

Embrapa
Todos os direitos reservados, conforme Lei n° 9.610
Política de Privacidade
Área Restrita

Embrapa Agricultura Digital
Av. André Tosello, 209 - Barão Geraldo
Caixa Postal 6041- 13083-886 - Campinas, SP
SAC: https://www.embrapa.br/fale-conosco

Valid HTML 4.01 Transitional