1. INTRODUÇÃO McCulloch e Pich (1943) foram pioneiros ao buscar entender uma forma de correlacionar e simular a interação entre células neuronais por um modelo computacional. Seu trabalho inspirou o repentino interesse no tema durante toda segunda metade do século passado, onde, Resenblatt (1958) com seu método inovador percepton, que causou impacto por mais de uma década após sua publicação, sendo o livro “Perceptron: an introduction to computational geometry” de Minsky e Pappert (1969) sua principal consequência. No referido livro, os autores apontam, de forma extremamente pessimista, os pontos negativos do trabalho de Resenblatt, o que gerou, quase de forma sintomática, a diminuição da literatura pertinente nos anos 70. A academia voltou a produzir conteúdo sobre o tema apenas no começo dos anos 80 por conta dos avanços tecnológicos e aperfeiçoamentos metodológicos. Haykin, em 2001, no seu livro intitulado “Redes neurais: princípios e prática” esquematizou um modelo matemático sobre o funcionamento de um neurônio (Figura 1). Figura 1. Simplificação do modelo apresentado por Haykin (2001) sobre o funcionamento de um neurônio. • O modelo é composto por n sinais de entrada (x1, x2 e x3) dos quais possuem seus respectivos pesos (P1, P2 e P3); • Uma função (Σ) fica responsável pela junção e soma desses sinais; • Então, uma função de ativação (φ) limita o sinal de saída a um valor fixo (y). A partir do momento em que fica claro o funcionamento dos sinais sináptico é possível entender, mais detalhadamente, o funcionamento do cérebro humano e, com isso, a possibilidade de manufatura de mecanismos que operem de maneira similar ou mais eficiente que o mesmo, algo que seja capaz de processar informações e que seja principalmente capaz de se adaptar a ponto de tomar decisões em incalculáveis situações (Haykin, 2001). As redes neurais artificiais (RNA) surgiram com esse propósito. A figura 2 representa uma rede neural artificial, ela foi simplificada a ponto de ser vista como um grafo. Figura 2. Representação simplificada de uma rede neural. Uma das principais particularidades das RNA é a sua capacidade de aprender, deduzir e concluir por meio de análises de exemplos, além disso, ela é competente suficiente para se auto aperfeiçoar, tornando seu desempenho gradativamente melhor por meio de algoritmos de aprendizagem, dos quais são responsáveis pela mudança dos pesos nas conexões neurais (Braga et al., 2000). Os anos 90 foram os primeiros a testemunhar o sucesso da internet. No final do século já haviam cerca de 800 milhões de páginas na Web (Lawrence, 1999), hoje em dia o número de websites online já passa de 1,8 bilhões, com mais de 4,5 bilhões de usuário (Internet Live Stats, 2020). Então, com o passar dos anos, foram surgindo e se aperfeiçoando diversas maneiras de organizar os recursos que a World Wide Web (WWW) coloca à disposição dos usuários. Pra esse fim, surgiram diretórios, motores de pesquisa e metapesquisa, dando ênfase a ferramentas de busca como o Google que analisa, aproximadamente, 3.5 bilhões de pesquisas por dia (Internet Live Stats, 2020), organizando a informação e tornando-a universalmente acessível (Google, c2020). Atualmente os mecanismos de pesquisa costumam utilizar-se de combinações de palavras-chave para obtenção de resultados. Isso é um grande problema pois esse tipo de busca não costuma considerar a semântica como um ponto importante, muitas vezes, trazendo respostas de baixa relevância. Normalmente, isso ocorre devido ao tamanho do banco de dados a ser analisado e também do estudo do perfil do pesquisador (Klimov et al., 2020). Logo, partindo desse ponto e do fato de que cada usuário possui um objetivo específico ao buscar palavras-chave em uma busca na WWW (Ahu Sieg et al., 2007), pesquisas sobre o desenvolvimento dessas tecnologias se mostram essenciais. Com isso, ferramentas como a Inteligência Artificial (I.A) de RNA por meio do seu auto aprendizado, tornou-se, recentemente, pontos centrais para reunir o acervo pertinente à uma pesquisa semântica. O surgimento dos grafos data de 1736, usado pelo matemático suíço Leonhard Euler para explicar a ligação de ilhas através de pontes em Königsberg, no norte da Alemanha (Biggs et al., 1986) (Figura 3). A Teoria dos Grafos se explica, então, como um conjunto de objetos (vértices) que possuem seus respectivos pesos, dos quais, são ligados por uma linha (arestas). No cenário de Euler podemos considerar as ilhas como os vértices e as pontes como as arestas do grafo. Figura 3. Diagrama de Euler. No esquema os vértices são as ilhas em Königsberg enquanto as arestas são as pontes que as interligam (Biggs et al., 1986). Desse modo, é natural que projetos de aprendizado de máquina por meio de grafos estejam ganhando mais atenção, além do fato de que já somos capazes de representarmos dados através dos mesmos em diversas áreas, como a proteômica (Baldi & Pollastri, 2003), análise de imagem (Francesconi, 1997), descrição de cena (Krahmer et al., 2003 e Mason & Blake, 2001) , processamento de linguagem natural (BUA et al., 2002) e engenharia de software (Baresi & Heckel, 2002 e Collberg et al., 2003), além da sua aplicação em outros campos do conhecimento, como nas ciências sociais (Hamilton et al., 2017 e Kipf & Welling, 2016), ciências naturais (Sanchez-Gonzalez et al., 2018; Battaglia et al., 2016 e Fout et al., 2017) e entre outros distintos exemplos (Khalil et al., 2017). Já se sabe também que os aplicativos de aprendizado de máquina utilizados em I.A muitas vezes lidam com dados estruturados em grafos (Haykin, 2004), porém, os estudos sobre a arquitetura de grafos criados por RNA capazes de serem usados diretamente no aprimoramento de mecanismos de pesquisa são escassos na literatura. 2. OBJETIVOS 2.1 Objetivo Geral De modo geral, o presente trabalho tem como objetivo comprovar que a utilização de Redes Neurais Artificiais na formação de grafos para desenvolvimento inato de mecanismos de pesquisa é possível e é capaz de trazer resultados satisfatórios, contornando os problemas relacionados as falhas semânticas corriqueiramente exibidos nesse tipo de ferramenta. 2.2 Objetivos Específicos Para tal, esse trabalho irá analisar métodos já existentes buscando maximizar a coerência na semântica das pesquisas através de grafos de maneira na qual: (Adicionar aqui o restante da parte prática a ser desenvolvida, exemplo: ferramentas, quantidades e outros fatores metodológicos que irão ser utilizados para desenvolver o trabalho). 2.3 JUSTIFICATIVA [OU MOTIVAÇÃO] A animadora busca da melhoria da relação “homem-máquina” é a principal motivação desse projeto. Levando em conta o drástico aumento da utilização de mecanismos de pesquisas pelo mundo nas últimas décadas e o esclarecimento e facilidade na utilização de relacionados a Redes Neurais Artificiais durante essa mesma época seria delituoso o não estudo da associação desses dois fenômenos. REFERÊNCIAS Ahu Sieg, Bamshad Mobasher, Robin Burke, “Learning OntologyBased User Profiles: A Semantic Approach to Personalized WebSearch,” IEEE Computational Intelligence Bulletin, vol.8, pp.7–18, 2007. BALDI, Pierre; POLLASTRI, Gianluca. The principled design of large-scale recursive neural network architectures--dag-rnns and the protein structure prediction problem. Journal of Machine Learning Research, v. 4, n. Sep, p. 575-602, 2003. BARESI, Luciano; HECKEL, Reiko. Tutorial introduction to graph transformation: A software engineering perspective. In: International Conference on Graph Transformation. Springer, Berlin, Heidelberg, p. 402-429, 2002. BATTAGLIA, Peter et al. Interaction networks for learning about objects, relations and physics. In: Advances in neural information processing systems, p. 4502-4510, 2016. BIGGS, Norman; LLOYD, E. Keith; WILSON, Robin J. Graph Theory, 1736-1936. Oxford University Press, 1986. BRAGA, A. P.; CARVALHO, A. C. P. L. F.; LUDEMIR, T. B. Redes neurais artificiais: teoria e aplicações. Rio de Janeiro: LTC, 2000. BUA, Antonella; GORI, Marco; SANTINI, Fabrizio. Recursive neural networks applied to discourse representation theory. In: International Conference on Artificial Neural Networks. Springer, Berlin, Heidelberg, p. 290-295, 2002. COLLBERG, Christian et al. A system for graph-based visualization of the evolution of software. In: Proceedings of the 2003 ACM symposium on Software visualization. p. 77ff, 2003. FOUT, Alex et al. Protein interface prediction using graph convolutional networks. In: Advances in neural information processing systems, p. 6530-6539, 2017. FRANCESCONI, Enrico et al. Logo recognition by recursive neural networks. In: International Workshop on Graphics Recognition. Springer, Berlin, Heidelberg . p. 104-117, 1997. GOOGLE search statistics. Internet live stats. 2020. Dispinível em: <https://www.internetlivestats.com/google-search-statistics/>. Acesso em: 29 de out de 2020. GOOGLE. About Google, c2020. Homepage do site “about google”. Disponível em: <https://about.google/>. Acesso em: 29 de out de 2020. HAMILTON, Will; YING, Zhitao; LESKOVEC, Jure. Inductive representation learning on large graphs. In: Advances in neural information processing systems, p. 1024-1034, 2017. HAYKIN, S. Redes neurais: princípios e prática. Porto Alegre: Bookman, 2001. HAYKIN, Simon; NETWORK, Neural. A comprehensive foundation. Neural networks, v. 2, n. 2004, p. 41, 2004. KHALIL, Elias et al. Learning combinatorial optimization algorithms over graphs. In: Advances in Neural Information Processing Systems, p. 6348-6358, 2017. KIPF, Thomas N.; WELLING, Max. Semi-supervised classification with graph convolutional networks. arXiv preprint arXiv:1609.02907, 2016. KLIMOV, Valentin; BALANDINA, Anita; CHERNYSHOV, Artem. Application of Long-Short Memory Neural Networks in Semantic Search Engines Development. Procedia Computer Science, v. 169, p. 388-392, 2020. KRAHMER, Emiel; ERK, Sebastiaan van; VERLEG, André. Graph-based generation of referring expressions. Computational Linguistics, v. 29, n. 1, p. 53-72, 2003. LAWRENCE, S., GILES, C. Accessibility of information on the web. Nature 400, 107 1999. MASON, Ashton E.. W.. ; BLAKE, Edwin H.. . A graphical representation of the state spaces of hierarchical level-of-detail scene descriptions. IEEE Transactions on Visualization and Computer Graphics, v. 7, n. 1, p. 70-75, 2001. MCCULLOCH, Warren S.; PITTS, Walter. A logical calculus of the ideas immanent in nervous activity. The bulletin of mathematical biophysics, v. 5, n. 4, p. 115-133, 1943. MINSKY, M. L.; PAPPERT, S. Perceptron: an introduction to computational geometry. Cambridge: MIT Press, 1969. ROSENBLATT, F. The perceptron: a probabilistic model for information storage and retrieval in the brain. Psychological Review, v. 65, p. 386-408, 1958. SANCHEZ-GONZALEZ, Alvaro et al. Graph networks as learnable physics engines for inference and control. arXiv preprint arXiv:1806.01242, 2018. TOTAL number of websites. Internet live stats, 2020. Disponível em: <https://www.internetlivestats.com/total-number-of-websites/>. Acesso em: 28 de out. de 2020.