Uploaded by Kaique Santos

Introdução, objetivos e justificativa Kaique 31 10 2020

advertisement
1. INTRODUÇÃO
McCulloch e Pich (1943) foram pioneiros ao buscar entender uma forma de
correlacionar e simular a interação entre células neuronais por um modelo computacional.
Seu trabalho inspirou o repentino interesse no tema durante toda segunda metade do
século passado, onde, Resenblatt (1958) com seu método inovador percepton, que causou
impacto por mais de uma década após sua publicação, sendo o livro “Perceptron: an
introduction to computational geometry” de Minsky e Pappert (1969) sua principal
consequência. No referido livro, os autores apontam, de forma extremamente pessimista,
os pontos negativos do trabalho de Resenblatt, o que gerou, quase de forma sintomática,
a diminuição da literatura pertinente nos anos 70. A academia voltou a produzir conteúdo
sobre o tema apenas no começo dos anos 80 por conta dos avanços tecnológicos e
aperfeiçoamentos metodológicos.
Haykin, em 2001, no seu livro intitulado “Redes neurais: princípios e prática”
esquematizou um modelo matemático sobre o funcionamento de um neurônio (Figura 1).
Figura 1. Simplificação do modelo apresentado por Haykin (2001) sobre o funcionamento
de um neurônio.
•
O modelo é composto por n sinais de entrada (x1, x2 e x3) dos quais possuem
seus respectivos pesos (P1, P2 e P3);
•
Uma função (Σ) fica responsável pela junção e soma desses sinais;
•
Então, uma função de ativação (φ) limita o sinal de saída a um valor fixo (y).
A partir do momento em que fica claro o funcionamento dos sinais sináptico é
possível entender, mais detalhadamente, o funcionamento do cérebro humano e, com isso,
a possibilidade de manufatura de mecanismos que operem de maneira similar ou mais
eficiente que o mesmo, algo que seja capaz de processar informações e que seja
principalmente capaz de se adaptar a ponto de tomar decisões em incalculáveis situações
(Haykin, 2001). As redes neurais artificiais (RNA) surgiram com esse propósito.
A figura 2 representa uma rede neural artificial, ela foi simplificada a ponto de ser
vista como um grafo.
Figura 2. Representação simplificada de uma rede neural.
Uma das principais particularidades das RNA é a sua capacidade de aprender,
deduzir e concluir por meio de análises de exemplos, além disso, ela é competente
suficiente para se auto aperfeiçoar, tornando seu desempenho gradativamente melhor por
meio de algoritmos de aprendizagem, dos quais são responsáveis pela mudança dos pesos
nas conexões neurais (Braga et al., 2000).
Os anos 90 foram os primeiros a testemunhar o sucesso da internet. No final do século
já haviam cerca de 800 milhões de páginas na Web (Lawrence, 1999), hoje em dia o
número de websites online já passa de 1,8 bilhões, com mais de 4,5 bilhões de usuário
(Internet Live Stats, 2020).
Então, com o passar dos anos, foram surgindo e se
aperfeiçoando diversas maneiras de organizar os recursos que a World Wide Web
(WWW) coloca à disposição dos usuários. Pra esse fim, surgiram diretórios, motores de
pesquisa e metapesquisa, dando ênfase a ferramentas de busca como o Google que
analisa, aproximadamente, 3.5 bilhões de pesquisas por dia (Internet Live Stats, 2020),
organizando a informação e tornando-a universalmente acessível (Google, c2020).
Atualmente os mecanismos de pesquisa costumam utilizar-se de combinações de
palavras-chave para obtenção de resultados. Isso é um grande problema pois esse tipo de
busca não costuma considerar a semântica como um ponto importante, muitas vezes,
trazendo respostas de baixa relevância. Normalmente, isso ocorre devido ao tamanho do
banco de dados a ser analisado e também do estudo do perfil do pesquisador (Klimov et
al., 2020). Logo, partindo desse ponto e do fato de que cada usuário possui um objetivo
específico ao buscar palavras-chave em uma busca na WWW (Ahu Sieg et al., 2007),
pesquisas sobre o desenvolvimento dessas tecnologias se mostram essenciais. Com isso,
ferramentas como a Inteligência Artificial (I.A) de RNA por meio do seu auto
aprendizado, tornou-se, recentemente, pontos centrais para reunir o acervo pertinente à
uma pesquisa semântica.
O surgimento dos grafos data de 1736, usado pelo matemático suíço Leonhard Euler
para explicar a ligação de ilhas através de pontes em Königsberg, no norte da Alemanha
(Biggs et al., 1986) (Figura 3). A Teoria dos Grafos se explica, então, como um conjunto
de objetos (vértices) que possuem seus respectivos pesos, dos quais, são ligados por uma
linha (arestas). No cenário de Euler podemos considerar as ilhas como os vértices e as
pontes como as arestas do grafo.
Figura 3. Diagrama de Euler. No esquema os vértices são as ilhas em Königsberg
enquanto as arestas são as pontes que as interligam (Biggs et al., 1986).
Desse modo, é natural que projetos de aprendizado de máquina por meio de grafos
estejam ganhando mais atenção, além do fato de que já somos capazes de representarmos
dados através dos mesmos em diversas áreas, como a proteômica (Baldi & Pollastri,
2003), análise de imagem (Francesconi, 1997), descrição de cena (Krahmer et al., 2003 e
Mason & Blake, 2001) , processamento de linguagem natural (BUA et al., 2002) e
engenharia de software (Baresi & Heckel, 2002 e Collberg et al., 2003), além da sua
aplicação em outros campos do conhecimento, como nas ciências sociais (Hamilton et
al., 2017 e Kipf & Welling, 2016), ciências naturais (Sanchez-Gonzalez et al., 2018;
Battaglia et al., 2016 e Fout et al., 2017) e entre outros distintos exemplos (Khalil et al.,
2017). Já se sabe também que os aplicativos de aprendizado de máquina utilizados em
I.A muitas vezes lidam com dados estruturados em grafos (Haykin, 2004), porém, os
estudos sobre a arquitetura de grafos criados por RNA capazes de serem usados
diretamente no aprimoramento de mecanismos de pesquisa são escassos na literatura.
2. OBJETIVOS
2.1 Objetivo Geral
De modo geral, o presente trabalho tem como objetivo comprovar que a utilização
de Redes Neurais Artificiais na formação de grafos para desenvolvimento inato de
mecanismos de pesquisa é possível e é capaz de trazer resultados satisfatórios,
contornando os problemas relacionados as falhas semânticas corriqueiramente
exibidos nesse tipo de ferramenta.
2.2 Objetivos Específicos
Para tal, esse trabalho irá analisar métodos já existentes buscando maximizar a
coerência na semântica das pesquisas através de grafos de maneira na qual:
(Adicionar aqui o restante da parte prática a ser desenvolvida, exemplo:
ferramentas, quantidades e outros fatores metodológicos que irão ser utilizados para
desenvolver o trabalho).
2.3 JUSTIFICATIVA [OU MOTIVAÇÃO]
A animadora busca da melhoria da relação “homem-máquina” é a principal
motivação desse projeto. Levando em conta o drástico aumento da utilização de
mecanismos de pesquisas pelo mundo nas últimas décadas e o esclarecimento e
facilidade na utilização de relacionados a Redes Neurais Artificiais durante essa
mesma época seria delituoso o não estudo da associação desses dois fenômenos.
REFERÊNCIAS
Ahu Sieg, Bamshad Mobasher, Robin Burke, “Learning OntologyBased User Profiles:
A Semantic Approach to Personalized WebSearch,” IEEE Computational Intelligence
Bulletin, vol.8, pp.7–18, 2007.
BALDI, Pierre; POLLASTRI, Gianluca. The principled design of large-scale recursive
neural
network
architectures--dag-rnns
and
the
protein
structure
prediction
problem. Journal of Machine Learning Research, v. 4, n. Sep, p. 575-602, 2003.
BARESI, Luciano; HECKEL, Reiko. Tutorial introduction to graph transformation: A
software engineering perspective. In: International Conference on Graph Transformation.
Springer, Berlin, Heidelberg, p. 402-429, 2002.
BATTAGLIA, Peter et al. Interaction networks for learning about objects, relations and
physics. In: Advances in neural information processing systems, p. 4502-4510, 2016.
BIGGS, Norman; LLOYD, E. Keith; WILSON, Robin J. Graph Theory, 1736-1936.
Oxford University Press, 1986.
BRAGA, A. P.; CARVALHO, A. C. P. L. F.; LUDEMIR, T. B. Redes neurais artificiais:
teoria e aplicações. Rio de Janeiro: LTC, 2000.
BUA, Antonella; GORI, Marco; SANTINI, Fabrizio. Recursive neural networks applied
to discourse representation theory. In: International Conference on Artificial Neural
Networks. Springer, Berlin, Heidelberg, p. 290-295, 2002.
COLLBERG, Christian et al. A system for graph-based visualization of the evolution of
software. In: Proceedings of the 2003 ACM symposium on Software visualization. p. 77ff, 2003.
FOUT, Alex et al. Protein interface prediction using graph convolutional networks.
In: Advances in neural information processing systems, p. 6530-6539, 2017.
FRANCESCONI, Enrico et al. Logo recognition by recursive neural networks.
In: International Workshop on Graphics Recognition. Springer, Berlin, Heidelberg . p.
104-117, 1997.
GOOGLE
search
statistics.
Internet
live
stats.
2020.
Dispinível
em:
<https://www.internetlivestats.com/google-search-statistics/>. Acesso em: 29 de out de
2020.
GOOGLE. About Google, c2020. Homepage do site “about google”. Disponível em:
<https://about.google/>. Acesso em: 29 de out de 2020.
HAMILTON, Will; YING, Zhitao; LESKOVEC, Jure. Inductive representation learning
on large graphs. In: Advances in neural information processing systems, p. 1024-1034,
2017.
HAYKIN, S. Redes neurais: princípios e prática. Porto Alegre: Bookman, 2001.
HAYKIN, Simon; NETWORK, Neural. A comprehensive foundation. Neural networks,
v. 2, n. 2004, p. 41, 2004.
KHALIL, Elias et al. Learning combinatorial optimization algorithms over graphs.
In: Advances in Neural Information Processing Systems, p. 6348-6358, 2017.
KIPF, Thomas N.; WELLING, Max. Semi-supervised classification with graph
convolutional networks. arXiv preprint arXiv:1609.02907, 2016.
KLIMOV, Valentin; BALANDINA, Anita; CHERNYSHOV, Artem. Application of
Long-Short
Memory
Neural
Networks
in
Semantic
Search
Engines
Development. Procedia Computer Science, v. 169, p. 388-392, 2020.
KRAHMER, Emiel; ERK, Sebastiaan van; VERLEG, André. Graph-based generation of
referring expressions. Computational Linguistics, v. 29, n. 1, p. 53-72, 2003.
LAWRENCE, S., GILES, C. Accessibility of information on the web. Nature 400, 107
1999.
MASON, Ashton E.. W.. ; BLAKE, Edwin H.. . A graphical representation of the state
spaces of hierarchical level-of-detail scene descriptions. IEEE Transactions on
Visualization and Computer Graphics, v. 7, n. 1, p. 70-75, 2001.
MCCULLOCH, Warren S.; PITTS, Walter. A logical calculus of the ideas immanent in
nervous activity. The bulletin of mathematical biophysics, v. 5, n. 4, p. 115-133, 1943.
MINSKY, M. L.; PAPPERT, S. Perceptron: an introduction to computational geometry.
Cambridge: MIT Press, 1969.
ROSENBLATT, F. The perceptron: a probabilistic model for information storage and
retrieval in the brain. Psychological Review, v. 65, p. 386-408, 1958.
SANCHEZ-GONZALEZ, Alvaro et al. Graph networks as learnable physics engines for
inference and control. arXiv preprint arXiv:1806.01242, 2018.
TOTAL
number
of
websites.
Internet
live
stats,
2020.
Disponível
em:
<https://www.internetlivestats.com/total-number-of-websites/>. Acesso em: 28 de out.
de 2020.
Download