164330415 Exercicios Computacao Evolutiva e Conexionista

May 25, 2018 | Author: Herman Giacomini | Category: Artificial Neural Network, Neuroscience, Earth & Life Sciences, Mathematics, Cognitive Science


Comments



Description

Exercicios Computação Evolutiva e ConexionistaAula 1) O neurônio artificial é o modelo de neurônio mais simples que engloba as características de uma rede neural biológica, isto é, paralelismo e alta conectividade. O neurônio artificial possui sete elementos básicos: a) Sinais de entrada {x1, x2, ..., xn} São usualmente normalizados, visando incrementar a eficiência computacional dos algoritmos de aprendizagem; b) Pesos sinápticos {w1, w2, ..., wn} Valores que servirão para ponderar cada uma das variáveis de entrada da rede, permitindo-se quantificar as suas relevâncias em relação à funcionalidade do respectivo neurônio; c) Combinador linear { S} Sua função é agregar todos os sinais de entrada que foram ponderados pelos respectivos pesos sinápticos a fim de produzir um valor de potencial de ativação; d) Limiar de ativação {q} Variável que especifica qual será o patamar apropriado para que o resultado produzido pelo combinador linear possa gerar um valor de disparo em direção à saída do neurônio; e) Potencial de ativação {u} Resultado produzido pela diferença do valor produzido entre o combinador linear e o limiar de ativação. Se tal valor é positivo, ou seja, se u ³ q, então o neurônio produz um potencial excitatório; caso contrário, o potencial será inibitório; f) Função de ativação {g} Seu objetivo é limitar a saída do neurônio dentro de um intervalo de valores razoáveis a serem assumidos pela sua própria imagem funcional; g) Sinal de saída {y} Valor final produzido pelo neurônio em relação a um determinado conjunto de sinais de entrada. 1) Explique o funcionamento do neurônio artificial. O funcionamento de um neurônio artificial segue os seguintes passos: _ Apresentação de um conjunto de valores que representam as variáveis de entrada do neurônio; _ Multiplicação de cada entrada do neurônio pelo seu respectivo peso sináptico; . possibilitando a aquisição do conhecimento por experimentação. Agrupamento de dados (clusterização): problemas que envolvem classificação automática de classes e garimpagem de dados. aeronaves. previsões de mercados financeiros. escrita. satélites. voz. Capacidade de generalização: Após o processo de treinamento da rede. 4) Quais os principais tipos de problemas em que as RNAs são aplicadas? Aproximador universal de funções: mapeamento de processos cuja modelagem por técnicas convencionais são de difícil obtenção. possibilitando estimar soluções que eram até então desconhecidas. transmissão de sinais. eletrodomésticos. essa é capaz de generalizar o conhecimento adquirido. Memórias associativas: processamento de imagens. elevadores. Controle de processos: controles empregados em robótica. explique em que consiste a adaptação por experiência e a capacidade de generalização. _ Aplicação de uma função de ativação apropriada. tendo-se como objetivo limitar a saída do neurônio. Sistemas de previsão: previsões climáticas. 2) Faça uma analogia entre os elementos constituintes do neurônio artificial e do neurônio biológico. a fim de produzir um potencial de Combinador linear ativação que indicará se o neurônio poderá Limiar de ativação disparar um impulso elétrico ao longo de seu Potencial de ativação axônio. subtraindo-se o limiar de ativação. Reconhecimento / classificação de padrões: reconhecimento de imagens. _ Compilação da saída a partir da aplicação da função de ativação neural em relação ao seu potencial de ativação. etc. Neuronio Biologico Neuronios artificiais captar. os estímulos Dentritos Variáveis de entrada vindos de diversos outros neurônios processa todas as informações advindas dos Corpo celular Pesos sinápticos dendritos. etc. identificação de caracteres manuscritos. Otimização de sistemas: otimização combinatorial. Adaptação por experiência : Os parâmetros internos da rede (pesos sinápticos) são ajustados a partir da apresentação sucessiva de exemplos relacionados ao comportamento do processo. de forma contínua. etc. etc._ Obtenção do potencial de ativação produzido pela soma ponderada dos sinais de entrada. conduzir os impulsos elétricos para outros Axônio Função de ativação neurônios conectores conexões que viabilizam a transferência de Sinapses Sinal de saída / impulsos elétricos (entre dentritos e axônio) entrada 3) Em relação às características das RNAs. 3) Quais são os fatores que influenciam na determinação do número de camadas escondidas de uma rede feedforward de camadas múltiplas? Os fatores que influenciam são o tipo e complexidade do problema e quantidade e qualidade dos dados 4) Quais as principais diferenças entre os métodos baseados em treinamento supervisionado e não supervisionado? No treinamento supervisionado se sabe o valor que se quer chegar. tem um valor ótimo final e os pesos sinápticos e o limiar de ativação são então continuamente ajustados.Aula 2) 1) Quais as diferenças estruturais observadas nas redes com arquitetura recorrente em relação àquelas com arquitetura feedforward? Redes recorrentes ou realimentadas tem as saídas dos neurônios são realimentadas como sinais de entrada para outros neurônios. mediante comparações executadas pelo algoritmo de aprendizagem utilizando o erro. que é a própria camada de saída. como sistemas variantes em relação ao tempo. otimização e controle. 2) Em que tipos de aplicação é essencial a utilização de redes neurais recorrentes? Como são realimentadas são indicadas para processamento dinâmico de informações. Tem-se apenas uma camada de entrada e uma única camada de neurônios. As redes com arquitetura recorrente recorrentes produzem saídas atuais considerando também valores das saídas anteriores. e por consequência a própria rede deve se auto-organizar identificando clusters que contenham similaridades. No não supervisionado não se tem a ideia da saída desejada. previsão. . Os pesos sinápticos e o limiar de ativação são ajustados refletindo esta representação interna da rede. e o treinamento é feito ajustando os pesos sinápticos e o limiar de ativação ate chegar na saída esperada. o treinamento é feito por tentativa e erro. 5) Quais as principais diferenças entre os métodos baseados em treinamento supervisionado e por reforço? Treinamento supervisionado: Há uma saída esperada. . Treinamento por reforço: Não se tem uma saída desejada (professor) apenas é dito se o resultado obtido foi bom (obtendo recompensa) ou ruim (dando punição). _ Valor especificado para a taxa de aprendizagem { h }. Não. 4) Considere um problema de classificação de padrões composto de duas entradas {x1 e x2}. Aula 3 – PERCEPTRON 1) Explique por que o Perceptron somente consegue classificar padrões cuja fronteira de separação entre as classes seja linear. cujo conjunto de treinamento é composto pelas seguintes amostras de treinamento: Mostre se é possível aplicar o Perceptron na resolução deste problema. pois a quantidade de épocas para convergência varia em função de: _ Valores iniciais que foram atribuídos ao vetor de pesos { w }. 2) Seja um problema de classificação de padrões que se desconhece a priori se as suas duas classes são ou não separáveis linearmente. O gráfico gerado tem a seguinte estrutura : B A B A . Elabore uma estratégia para verificar a possível aplicação do Perceptron em tal problema. Não é possível aplicar o perceptron nesse problema pois as classes não são linearmente separáveis. Pegar os dados do problema e plotar o gráfico tentar ver se é possível passar uma linha separando as duas classes ou não. Discorra se é correto afirmar que ambas as redes convergirão com o mesmo número de épocas. Pois ele pode ter apenas 2 saidas possíveis que so irá convergir se as classes forem linearmente separáveis. _ Disposição espacial das amostras de treinamento. 3) Dois projetistas de instituições diferentes estão aplicando uma rede Perceptron para mapear o mesmo problema de classificação de padrões. . explique que tipo de rede (Perceptron ou Adaline) seria a mais apropriada para tal condição. pois de peso. 3) Discorra se a afirmação seguinte é verdadeira ou falsa. sendo assim se obtem um w ótimo tal que o erro quadrático seja o mínimo. considerando cada amostra todas as amostras de treinamento disponiveis convergencia Independente dos valores Pode haver vários iniciais atribuídos ao vetor hiperplanos apropriados. Essa imunidade a ruídos é devido ao hiperplano único a que converge. A rede mais apropriada seria a Adaline pois ela tem maior tendência a imunidade de ruídos nos dados de entrada e como dados alimentados online podem sofrer alterações (ruídos) durante a transferência dos dados. Sim. a linha de ficam dentro de uma faixa de separação após a separabilidade convergência será sempre o mesmo 2) Considerando-se a aplicação de RNAs a um problema de classificação de padrões que necessite de treinamento online. pois a configuração de w* é atualizado a partir da minimização do erro quadrático. Adaline Perceptron Processo de treinamento Regra DELTA Regra de Hebb (ajuste) Objetivo Minimizar a diferença entra Considera a resposta a saída desejada (d) e a produzida após a resposta do combinador apresentacao individual de linear (u). Independentemente dos valores iniciais assumidos para o vetor de pesos do Adaline. uma mesma configuração final para w* será sempre obtida após a sua convergência. Aula 4 Adaline 1) Explique as principais diferenças existentes entre o Perceptron e o Adaline. há uma camada intermediaria entre a entrada e a saída.. 3) Como são ajustados os pesos sinápticos da camada neural de saída e das camadas intermediárias (sem as equações)? Primeiramente são ajustados os pesos sinápticos da camada de saída a partir da estimativa dos erros de saída produzido. independentemente do vetor de pesos iniciais do Adaline. mas durante o teste o erro tende a valores elevados.. Essa fase busca apenas obter respostas da rede levando em conta apenas os valores atuais de pesos sinápticos e limiares. Não.. se o número de épocas de treinamento será também igual. Aula 5 Perceptron Multi Camadas (PMC) 1) Quais as semelhanças e diferenças entre as Redes Perceptron Multicamadas (PMC) e as Redes Perceptron e Adaline? Semelhanças: A mesma estrutura de funcionamento. pois o algoritmo converge quando o erro quadrático médio entre duas épocas sucessivas for suficientemente pequeno. onde não se alteram durante cada execução dessa fase. Forward: A primeira é chamada de “propagação adiante” (forward). 2) Quais são as duas fases do algoritmo de treinamento backpropagation? Explique cada uma delas. de forma semelhante ao perceptron de camada única. onde se acaba decorando a resposta. na fase de aprendizado o erro tende a ser baixo. camada neurônios de saída.(debilidade neural) . possui entradas. O underfitting é a falta de neurônios para extração e armazenamento das características do processo. as alterações (ajustes) dos pesos sinápticos e limiares de todos os neurônios são feitos nessa fase. considerando a questão anterior. pesos sinápticos. Backward: ou propagação reversa. O overfitting é quando se tende a levar a saída do PMC para memorizações excessiva. O aumento indiscriminado de neurônios e camadas intermediarias não asseguram generalização entre as amostras e os subconjuntos do teste. na qual os sinais {x1. O processo de treinamento é supervisionado Diferenças: Presença de camadas escondidas. xn} de uma amostra do conjunto de treinamento são inseridos nas entradas da rede e são propagados camada a camada até a produção das respectivas saídas. ou seja dependendo dos pesos inciais atribuídos pode obter mais ou menos épocas para convergência.4) Explique. x2. Após isso é iniciado as correções dos pesos para as camadas intermediarias posteriores que dependem dos valores da camada anterior. Assim os ajustes são feitos baseando-se nos valores ponderados dos pesos sinápticos que foram ajustados anteriormente – (retropropagação_) Aula 6 – Perceptron Multipla Camada 2 (PCM) 1) Explique o que são situações de underfitting e overfitting.. Camada neural de saída pode ser composta por vários neurônios. Outra diferença é o treinamento de duas fases.regra delta generalizada) 3) Qual é o método de agrupamento usado na primeira fase de treinamento de uma rede RBF? Como ele funciona? Na primeira fase ´é utilizado o método k-means (k-medias) que tem proposito de posicionar os centros de k-gaussianas em regiões onde os padrões de entrada tenderão a se agrupar. Vai selecionando cada amostra e as mais próximas das referencias ate obter a media correta. Com apenas 2 neuronios na camada RBF foi possível separar 2 classes distintas já no PCM seria necessário 8 neuronios. com diferentes matrizes de pesos iniciais (geradas aleatoriamente). na segunda fase os pesos da camada de saída são ajustados utilizando o aprendizado supervisionado (similar ao pmc na ultima camada .2) Discorra sobre a necessidade do pré-processamento das amostras de treinamento e teste. 4) O que pode ser feito para cessar o treinamento quando a precisão especificada se torna inalcançável? Impor uma quantidade máxima de épocas como critério adicional de parada do algoritmo de treinamento do PMC. 2) O que acontece em cada estágio de treinamento das redes RBF? Qual é o tipo de aprendizado empregado em cada estágio? a primeira os ajustes da camada intermediaria é feito através de um método não supervisionado depende apenas dos dados de entrada. . explicitando-se ainda a sua influência na velocidade de treinamento da rede PMC. já RBF utiliza funções gaussianas que torna a fronteira da classe como sendo circulo. 4) Quais são as diferenças entre as fronteiras de separabilidade das redes PMC e RBF para problemas de classificação de padrões? As fronteiras das redes PMC sao formados por conexões de lineares formando formas geométricas em cada um dos problemas aplicados. e a função de ativação gaussiana. O pre-processamento é necessário para melhorar o desempenho de treinamento. assim os valores de entrada e saída são escalonados para um intervalo fechado entre -1 e 1. As redes RBF possui apenas uma camada intermediaria. Pois faz com que a velocidade de treinamento aumente. 3) O que pode ser feito para evitar a convergência da rede para pontos de mínimos locais inapropriados? Para evitar a convergência da rede para mínimos locais inapropriados. pode-se executar o treinamento de cada topologia candidata mais de uma vez. AULA 7 Rede de Função Base Radial (RBF) 1) Explique as principais diferenças existentes entre as redes PMC e RBF. . Informam as conexões laterais do neurônio. ou seja conexão com a vizinhança. Funcoes de ativação monótonas crescentes (ex: tangente hiperbólica). otimizacao não linear restrita. 5) Quais são as condições para que a rede de Hopfield seja estável? Matriz de pesos {w} deve ser simétrica Funcao de ativação {g()} deve ser monótona crescente. onde todos os neurônios são completamente interligados (entre eles mesmo e os neurônios também) 3) Qual é a função que caracteriza as redes neurais recorrentes? Explique esta função com relação aos seus pontos. que é a própria camada de saída. o vencedor ajusta seus pesos e aperfeiçoa o seu estado para o prox competição (padrão apresentado) 4) Quais são os três aspectos que devem ser considerados na configuração de uma SOM? Definição da organização espacial (grid) dos neurônios. 2) As redes recorrentes de Hopfield possuem quantas camadas? Como os neurônios são conectados? Possui uma única camada. 4) As aplicações de redes de Hopfield estão concentradas em que área do conhecimento? Areas de otimizacao de sistemas > Prog dinâmica. AULA 9 – Kohonen 1) Quais os tipos de arquitetura e de aprendizado usados pelos mapas auto- organizáveis de Kohonen? Arquitetura feedforward e Aprendizado não supervisionado 2) O que os mapas topológicos informam? Informam como estarão organizados espacialmente os neurônios da rede frente ao comportamento de seus vizinhos. São estáveis e pode possuir múltiplos pontos de equilíbrios. Aula 8 – Hopfield 1) Quais são as diferenças entre as arquiteturas feedforward e recorrente? Redes recorrentes ou realimentadas tem as saídas dos neurônios são realimentadas como sinais de entrada para outros neurônios. Feedforward: Tem-se apenas uma camada de entrada e uma única camada de neurônios. otimizacao combinatorial. Comportamento dinâmico. linear. Considerando isso qq conj iniciais a rede ira convergira para um ponto de equilíbrio estável. 3) Em que consiste um processo de aprendizado competitivo? Há concorrência entre os neurônios. Atualizacao – após a conclusão bem sucedida atualiza os pesos das matrizes 5) Como o parâmetro de vigilância r afeta o desempenho da rede ART-1? . por meio do mapa topológico. Comparacao – Verifica se a classe vencedora é mesmo a mais apropriada Busca – se houver rejeição do neurônio pseudo vencedor encontrar outra. o conjunto de vizinhança que informa sobre quais são os neurônios vizinhos ao vencedor. usando-se mais de uma camada intermediária ART-Map – Padrões com entradas binárias ou analógicas e treinamento supervisionado. com treinamento supervisionado. é possível identificar regiões do mapa de contexto que correspondem às classes do problema.parece com o método competitivo de Kohonem. II. resgata-se. _ Delimitação dos conjuntos de vizinhança de cada neurônio. utilizando duas redes ART Fuzzy-ART – Versão fuzzy da rede ART-Map. _ Especificação do critério de ajuste do vetor de pesos do neurônio vencedor e de seus vizinhos. Após a convergência. A partir da definição do neurônio vencedor. Cada neurônio da rede computa o nível de proximidade de seu vetor de pesos em relação a cada padrão de entrada. 3) Quais são os parâmetros livres da rede ART-1? Matrizes de pesos da camada de saída Wf e Wb 4) Quais são as etapas de aprendizado da rede ART-1? Inicializar os parâmetros (matrizes de pesos e padrão de vigilância) Reconhecimento – o neurônio de saída que tiver maior similaridade sera o vencedor da competição . IV. III. Os pesos do neurônio vencedor e de seus vizinhos são incrementados com o objetivo de aumentar o nível de proximidade com a respectiva entrada. V. Um mecanismo de competição entre os neurônios é aplicada com o objetivo de escolher o vencedor. 2) Qual é o tipo de aprendizado da rede ART-1? Aprendizado não supervisionado. AULA 10 – ART .1 1) Quais são os tipos de redes ART? ART-1 – Padrões com entradas binárias e treinamento não supervisionado ART-2 – Padrões com entradas binárias ou analógicas (contínuas) e treinamento não supervisionado ART-3 – Padrões com entradas binárias ou analógicas e treinamento não supervisionado. 5) Quais são os passos envolvidos no processo de treinamento da rede de Kohonen? I. .De acordo com o parâmetro de vigilância se determina a quantidade de classes que terá. Quanto mais próximo de 1 o parâmetro de vigilância maior numero de classes será possível.
Copyright © 2024 DOKUMEN.SITE Inc.