|
|
Registro Completo |
Biblioteca(s): |
Embrapa Agricultura Digital. |
Data corrente: |
07/07/2005 |
Data da última atualização: |
27/02/2024 |
Autoria: |
SOUZA, K. X. S. de. |
Afiliação: |
KLEBER XAVIER SAMPAIO DE SOUZA, CNPTIA. |
Título: |
Aplicação da inteligência artificial para recuperar informação. |
Ano de publicação: |
2005 |
Fonte/Imprenta: |
Com Ciência: Revista Eletrônica de Jornalismo Científico, n. 66, jun. 2005. |
Idioma: |
Português |
Conteúdo: |
O sucesso da recuperação de informação está vinculado a dois conceitos: revocação e precisão. O primeiro mede a capacidade que um sistema computacional possui de recuperar o máximo de documentos que puder sobre a consulta que lhe foi formulada pelo usuário, enquanto o segundo avalia, dentre os documentos recuperados, quais correspondem realmente ao que o formulador da consulta tinha em mente. A precisão, portanto, é um conceito que pressupõe que a máquina possua um certo grau de inteligência e isto a vincula a uma outra área da Ciência da Computação, a Inteligência Artificial. A discussão do que significa ser inteligente tem ocupado os filósofos há mais de 2.300 anos. Aristóteles foi o primeiro a formular um conjunto de leis que governam a razão e desenvolveu um sistema informal (de silogismos) para se chegar às conclusões mecanicamente a partir de um conjunto de premissas. Na Ciência da Computação o problema também não é novo. Na tentativa de estudar e simular os processos mentais, Warren McCulloc e Walter Pitts propuseram os neurônios artificiais em 1943, e sugeriram que estes possuíam capacidade de aprendizado, fato demonstrado por Donald Hebb em 1949. Marvin Minsky e Dean Edmonds construíram a primeira rede neural em 1951, utilizando válvulas, dado que os transistores não existiam naquela época. Isto gerou grande expectativa na ocasião, pois se imaginava que os computadores não poderiam ir muito além dos cálculos aritméticos. Foi, entretanto, Alan Turing que formulou o primeiro teste para verificar se um computador poderia ser considerado inteligente ou não. No Teste de Turing, o computador deve ser capaz de manter um diálogo (em forma de chat) com um interlocutor humano que dure cinco minutos. Caso o humano não perceba em 30% do tempo, ou seja, um minuto e quarenta segundos, que está dialogando com uma máquina, o programa que está dialogando passa no teste.Turing previu que por volta do ano 2000 algum programa passaria no teste, o que não ocorreu. O tempo que os programas conseguem enganar os interlocutores humanos é bem inferior ao estipulado no teste. Alguns programas conseguem enganar interlocutores inexperientes por cinco minutos, mas não experts treinados, que sabem formular as perguntas de modo a descobrir eventuais falhas que tornariam os programas menos humanos. Naturalmente, existem os que refutam o teste, afirmando que o computador não seria inteligente de fato, mas apenas capaz de simular a inteligência, sem saber exatamente o que estaria fazendo, ou seja, o computador não teria consciência. Para a área de recuperação da informação, entretanto, este problema não existe, pois não se deseja fazer com que o programa passe por um humano, mas apenas que forneça as respostas corretas à onsulta formulada. Ainda assim, as dificuldades são enormes, pois, para fornecer respostas com precisão, o sistema necessita "compreender" os textos que processou, o que demanda pesquisa em áreas como processamento de linguagem natural, representação de conhecimento, raciocínio automatizado e aprendizado de máquina. A Representação do Conhecimento tem evoluído bastante nos últimos dez anos, principalmente devido ao surgimento da web. Quando se percebeu que os motores de busca não forneciam respostas satisfatórias às consultas que lhes eram formuladas, a recuperação da informação voltou a despertar grande interesse. O principal resultado deste movimento foi a iniciativa da Web Semântica, que desenvolveu uma série de padrões de representação de conhecimento a serem embutidos nas páginas web, de forma que estas pudessem ser processadas com maior precisão pelos motores de busca. As páginas podem ser conectadas por ontologias, que definem o significado preciso dos termos nelas contidos, além de conter cláusulas lógicas conectando um ou mais termos. A hipótese subjacente à Web Semântica é que as ontologias permitiriam às máquinas entender o contexto em que os documentos se inserem. Por exemplo, quando alguém fala de manga rosa, o sistema saberá se a manga rosa em um determinado texto é a fruta ou a manga de camisa, dependendo da ontologia à qual estiver associada. Ainda é cedo para se dizer aonde esta iniciativa irá levar, considerando que não existem muitos sítios cujas páginas seguem os padrões da Web Semântica. Alguns críticos, como Marvin Minsky, ressaltaram que o contexto não pode ser programado em máquinas através de definições lógicas que se sustentam fora de qualquer contexto. Outros, como Douglas Lenat, propõem expressar até o senso comum utilizando-se apenas de ontologias e cláusulas lógicas em um projeto em andamento há mais de 15 anos. No projeto Agência de Informação Embrapa, em execução na Embrapa Informática Agropecuária, construiu-se ontologias sobre vários temas do domínio agropecuário, como gado de corte, feijão, leite etc. Os documentos existentes são catalogados manualmente, selecionando-se termos de tesaurus e a quais ontologias estão associados. Fazendo-se a catalogação manual, garante-se a perfeita sintonia entre o assunto que o texto trata e melhora-se a relevância. Entretanto, esta atividade também tem feito com que a catalogação seja um gargalo para o sistema, o que tem motivado a busca por sistemas automatizados que auxiliem nesta tarefa. Uma das áreas mais promissoras para auxiliar nesta tarefa também está vinculada à Inteligência Artificial e é chamada Processamento Probabilístico da Linguagem. Nesta, os documentos são analisados por programas que usam estatística e aprendem, com exemplos, como classificar um subconjunto de documentos. A partir daí, ele sugere a probabilidade da classificação de um documento em um determinado assunto. Por exemplo, se um documento menciona manga, plantar e sabor, é improvável que ele se refira à manga de camisa. Portanto, o sistema sugere que ele seja classificado como fruta. As abordagens probabilísticas para processamento de linguagem natural também têm despertado grande interesse recentemente, e com bastante sucesso. Koller e Sahami relataram precisão de até 98,6% na classificação de documentos. A principal vantagem da abordagem probabilística, e que norteou a sua escolha como base para a melhoria do sistema, é que ela fornece uma excelente solução do ponto de vista de engenharia, podendo ser imediatamente aplicada ao problema prático que a Agência de Informação possui de ter seus documentos classificados e catalogados. Baseado em: Diversas fontes. Texto completo do documento. MenosO sucesso da recuperação de informação está vinculado a dois conceitos: revocação e precisão. O primeiro mede a capacidade que um sistema computacional possui de recuperar o máximo de documentos que puder sobre a consulta que lhe foi formulada pelo usuário, enquanto o segundo avalia, dentre os documentos recuperados, quais correspondem realmente ao que o formulador da consulta tinha em mente. A precisão, portanto, é um conceito que pressupõe que a máquina possua um certo grau de inteligência e isto a vincula a uma outra área da Ciência da Computação, a Inteligência Artificial. A discussão do que significa ser inteligente tem ocupado os filósofos há mais de 2.300 anos. Aristóteles foi o primeiro a formular um conjunto de leis que governam a razão e desenvolveu um sistema informal (de silogismos) para se chegar às conclusões mecanicamente a partir de um conjunto de premissas. Na Ciência da Computação o problema também não é novo. Na tentativa de estudar e simular os processos mentais, Warren McCulloc e Walter Pitts propuseram os neurônios artificiais em 1943, e sugeriram que estes possuíam capacidade de aprendizado, fato demonstrado por Donald Hebb em 1949. Marvin Minsky e Dean Edmonds construíram a primeira rede neural em 1951, utilizando válvulas, dado que os transistores não existiam naquela época. Isto gerou grande expectativa na ocasião, pois se imaginava que os computadores não poderiam ir muito além dos cálculos aritméticos. Foi, entretanto, Alan Turing que formulou o p... Mostrar Tudo |
Palavras-Chave: |
Inteligência artificial; Recuperação da informação; Web semântica. |
Categoria do assunto: |
-- |
Marc: |
LEADER 07121nam a2200145 a 4500 001 1001252 005 2024-02-27 008 2005 bl uuuu u0uu1 u #d 100 1 $aSOUZA, K. X. S. de 245 $aAplicação da inteligência artificial para recuperar informação.$h[electronic resource] 260 $aCom Ciência: Revista Eletrônica de Jornalismo Científico, n. 66, jun. 2005.$c2005 520 $aO sucesso da recuperação de informação está vinculado a dois conceitos: revocação e precisão. O primeiro mede a capacidade que um sistema computacional possui de recuperar o máximo de documentos que puder sobre a consulta que lhe foi formulada pelo usuário, enquanto o segundo avalia, dentre os documentos recuperados, quais correspondem realmente ao que o formulador da consulta tinha em mente. A precisão, portanto, é um conceito que pressupõe que a máquina possua um certo grau de inteligência e isto a vincula a uma outra área da Ciência da Computação, a Inteligência Artificial. A discussão do que significa ser inteligente tem ocupado os filósofos há mais de 2.300 anos. Aristóteles foi o primeiro a formular um conjunto de leis que governam a razão e desenvolveu um sistema informal (de silogismos) para se chegar às conclusões mecanicamente a partir de um conjunto de premissas. Na Ciência da Computação o problema também não é novo. Na tentativa de estudar e simular os processos mentais, Warren McCulloc e Walter Pitts propuseram os neurônios artificiais em 1943, e sugeriram que estes possuíam capacidade de aprendizado, fato demonstrado por Donald Hebb em 1949. Marvin Minsky e Dean Edmonds construíram a primeira rede neural em 1951, utilizando válvulas, dado que os transistores não existiam naquela época. Isto gerou grande expectativa na ocasião, pois se imaginava que os computadores não poderiam ir muito além dos cálculos aritméticos. Foi, entretanto, Alan Turing que formulou o primeiro teste para verificar se um computador poderia ser considerado inteligente ou não. No Teste de Turing, o computador deve ser capaz de manter um diálogo (em forma de chat) com um interlocutor humano que dure cinco minutos. Caso o humano não perceba em 30% do tempo, ou seja, um minuto e quarenta segundos, que está dialogando com uma máquina, o programa que está dialogando passa no teste.Turing previu que por volta do ano 2000 algum programa passaria no teste, o que não ocorreu. O tempo que os programas conseguem enganar os interlocutores humanos é bem inferior ao estipulado no teste. Alguns programas conseguem enganar interlocutores inexperientes por cinco minutos, mas não experts treinados, que sabem formular as perguntas de modo a descobrir eventuais falhas que tornariam os programas menos humanos. Naturalmente, existem os que refutam o teste, afirmando que o computador não seria inteligente de fato, mas apenas capaz de simular a inteligência, sem saber exatamente o que estaria fazendo, ou seja, o computador não teria consciência. Para a área de recuperação da informação, entretanto, este problema não existe, pois não se deseja fazer com que o programa passe por um humano, mas apenas que forneça as respostas corretas à onsulta formulada. Ainda assim, as dificuldades são enormes, pois, para fornecer respostas com precisão, o sistema necessita "compreender" os textos que processou, o que demanda pesquisa em áreas como processamento de linguagem natural, representação de conhecimento, raciocínio automatizado e aprendizado de máquina. A Representação do Conhecimento tem evoluído bastante nos últimos dez anos, principalmente devido ao surgimento da web. Quando se percebeu que os motores de busca não forneciam respostas satisfatórias às consultas que lhes eram formuladas, a recuperação da informação voltou a despertar grande interesse. O principal resultado deste movimento foi a iniciativa da Web Semântica, que desenvolveu uma série de padrões de representação de conhecimento a serem embutidos nas páginas web, de forma que estas pudessem ser processadas com maior precisão pelos motores de busca. As páginas podem ser conectadas por ontologias, que definem o significado preciso dos termos nelas contidos, além de conter cláusulas lógicas conectando um ou mais termos. A hipótese subjacente à Web Semântica é que as ontologias permitiriam às máquinas entender o contexto em que os documentos se inserem. Por exemplo, quando alguém fala de manga rosa, o sistema saberá se a manga rosa em um determinado texto é a fruta ou a manga de camisa, dependendo da ontologia à qual estiver associada. Ainda é cedo para se dizer aonde esta iniciativa irá levar, considerando que não existem muitos sítios cujas páginas seguem os padrões da Web Semântica. Alguns críticos, como Marvin Minsky, ressaltaram que o contexto não pode ser programado em máquinas através de definições lógicas que se sustentam fora de qualquer contexto. Outros, como Douglas Lenat, propõem expressar até o senso comum utilizando-se apenas de ontologias e cláusulas lógicas em um projeto em andamento há mais de 15 anos. No projeto Agência de Informação Embrapa, em execução na Embrapa Informática Agropecuária, construiu-se ontologias sobre vários temas do domínio agropecuário, como gado de corte, feijão, leite etc. Os documentos existentes são catalogados manualmente, selecionando-se termos de tesaurus e a quais ontologias estão associados. Fazendo-se a catalogação manual, garante-se a perfeita sintonia entre o assunto que o texto trata e melhora-se a relevância. Entretanto, esta atividade também tem feito com que a catalogação seja um gargalo para o sistema, o que tem motivado a busca por sistemas automatizados que auxiliem nesta tarefa. Uma das áreas mais promissoras para auxiliar nesta tarefa também está vinculada à Inteligência Artificial e é chamada Processamento Probabilístico da Linguagem. Nesta, os documentos são analisados por programas que usam estatística e aprendem, com exemplos, como classificar um subconjunto de documentos. A partir daí, ele sugere a probabilidade da classificação de um documento em um determinado assunto. Por exemplo, se um documento menciona manga, plantar e sabor, é improvável que ele se refira à manga de camisa. Portanto, o sistema sugere que ele seja classificado como fruta. As abordagens probabilísticas para processamento de linguagem natural também têm despertado grande interesse recentemente, e com bastante sucesso. Koller e Sahami relataram precisão de até 98,6% na classificação de documentos. A principal vantagem da abordagem probabilística, e que norteou a sua escolha como base para a melhoria do sistema, é que ela fornece uma excelente solução do ponto de vista de engenharia, podendo ser imediatamente aplicada ao problema prático que a Agência de Informação possui de ter seus documentos classificados e catalogados. Baseado em: Diversas fontes. Texto completo do documento. 653 $aInteligência artificial 653 $aRecuperação da informação 653 $aWeb semântica
Download
Esconder MarcMostrar Marc Completo |
Registro original: |
Embrapa Agricultura Digital (CNPTIA) |
|
Biblioteca |
ID |
Origem |
Tipo/Formato |
Classificação |
Cutter |
Registro |
Volume |
Status |
URL |
Voltar
|
|
Registro Completo
Biblioteca(s): |
Embrapa Tabuleiros Costeiros. |
Data corrente: |
19/11/2009 |
Data da última atualização: |
27/01/2023 |
Tipo da produção científica: |
Artigo em Anais de Congresso / Nota Técnica |
Autoria: |
CARVALHO, H. W. L. de; FARIA, L. C. de; OLIVEIRA, I. R. de; PELOSO, M. J. D.; FERREIRA, F. M. de B.; PEREIRA, H. S.; MELO, L. C.; FEITOSA, L. F. |
Afiliação: |
HELIO WILSON LEMOS DE CARVALHO, CPATC; LUIS CLAUDIO DE FARIA, CNPAF; IVENIO RUBENS DE OLIVEIRA, CPATC; MARIA JOSE DEL PELOSO, CNPAF; FRANCISCO MÉRICLES DE BRITO FERREIRA, SECRETARIA DA AGRICULTURA DO ESTADO DE ALAGOAS; HELTON SANTOS PEREIRA, CNPAF; LEONARDO CUNHA MELO, CNPAF; LÍVIA FREIRE FEITOSA, UFS. |
Título: |
Adaptabilidade e estabilidade de variedades de feijoeiro no nordeste brasileiro |
Ano de publicação: |
2009 |
Fonte/Imprenta: |
In: CONGRESSO BRASILEIRO DE MELHORAMENTO DE PLANTAS, 5., 2009, Vitória. O melhoramento e os novos cenários da agricultura: anais. Vitória: Incaper, 2009. 1 CD-ROM. Recursos Genéticos. |
Descrição Física: |
Artigo em anais. pdf 1823. |
Idioma: |
Português |
Conteúdo: |
O objetivo deste trabalho foi avaliar a adaptabilidade e a estabilidade de 16 variedades de feijoeiro comum quando submetidas a diferentes condições de ambientes dos estados da Bahia e Sergipe, no ano agrícola de 2008. Utilizou-se o delineamento experimental em blocos ao acaso, com três repetições. Os parâmetros de adaptabilidade e estabilidade foram estimados segundo CRUZ et al., (1989). As variedades de melhor adaptação (b0>média) e com estimativas de b1=1, expressaram adaptabilidade ampla, consubstanciando-se em excelentes alternativas para a agricultura regional, a exemplo das BRS Valente, BRS Uirapuru, Majestoso, Esplendor, bem como, as linhagens CNFC 10431, CNFC 10408, CNFC 10432 e CNFC 10429. |
Palavras-Chave: |
Feijoeiro. |
Thesagro: |
Feijão; Melhoramento Genético Vegetal. |
Categoria do assunto: |
-- |
URL: |
https://ainfo.cnptia.embrapa.br/digital/bitstream/item/245975/1/Adaptabilidade-e-estabilidade-de-variedades-de-feijoeiro.2009.pdf1823.pdf
|
Marc: |
LEADER 01571nam a2200241 a 4500 001 1575356 005 2023-01-27 008 2009 bl uuuu u00u1 u #d 100 1 $aCARVALHO, H. W. L. de 245 $aAdaptabilidade e estabilidade de variedades de feijoeiro no nordeste brasileiro 260 $aIn: CONGRESSO BRASILEIRO DE MELHORAMENTO DE PLANTAS, 5., 2009, Vitória. O melhoramento e os novos cenários da agricultura: anais. Vitória: Incaper, 2009. 1 CD-ROM. Recursos Genéticos.$c2009 300 $cArtigo em anais. pdf 1823. 520 $aO objetivo deste trabalho foi avaliar a adaptabilidade e a estabilidade de 16 variedades de feijoeiro comum quando submetidas a diferentes condições de ambientes dos estados da Bahia e Sergipe, no ano agrícola de 2008. Utilizou-se o delineamento experimental em blocos ao acaso, com três repetições. Os parâmetros de adaptabilidade e estabilidade foram estimados segundo CRUZ et al., (1989). As variedades de melhor adaptação (b0>média) e com estimativas de b1=1, expressaram adaptabilidade ampla, consubstanciando-se em excelentes alternativas para a agricultura regional, a exemplo das BRS Valente, BRS Uirapuru, Majestoso, Esplendor, bem como, as linhagens CNFC 10431, CNFC 10408, CNFC 10432 e CNFC 10429. 650 $aFeijão 650 $aMelhoramento Genético Vegetal 653 $aFeijoeiro 700 1 $aFARIA, L. C. de 700 1 $aOLIVEIRA, I. R. de 700 1 $aPELOSO, M. J. D. 700 1 $aFERREIRA, F. M. de B. 700 1 $aPEREIRA, H. S. 700 1 $aMELO, L. C. 700 1 $aFEITOSA, L. F.
Download
Esconder MarcMostrar Marc Completo |
Registro original: |
Embrapa Tabuleiros Costeiros (CPATC) |
|
Biblioteca |
ID |
Origem |
Tipo/Formato |
Classificação |
Cutter |
Registro |
Volume |
Status |
Fechar
|
Nenhum registro encontrado para a expressão de busca informada. |
|
|