Redes Neurais Artificiais Teoria e Aplicacoes

download Redes Neurais Artificiais Teoria e Aplicacoes

If you can't read please download the document

Transcript of Redes Neurais Artificiais Teoria e Aplicacoes

  • inrcia do brao ou mesmo a massa do objeto a ser manipulado podem variar.

    Corno os controladores clssicos so pr-sintonizados, muitas vezes as respostasa estas variaes no so satisfatrias.

    Unia soluo bens-sucedida para o controle de manipuladores utilizando

    RNAs em conjunto com controladores clssicos foi apresentada por Teixeira[Tei98]. No modelo desenvolvido. o objetivo era controlar o posicionamento de

    um manipulador do tipo PUMA 560 [SS96'. com at 6 articulaes, a partir deunia posio inicial arbitrria no espao tridimensional com o objetivo de atin-

    gir uni ponto final tambm arbitrrio. E bvio que possvel estabelecer uma

    trajetria tima possvel para o manipulados, resumindo-se a tarefa de controlea simplesmente fazer com que o manipulador siga tal trajetria. No entanto,

    a complexidade do problema surge quando os parmetros do manipulador so

    modificados subitamente durante o percurso. Neste caso, o controlador devetomar aes para, apesar da mudana repentina nos parmetros, manter o ma-

    nipulador dentro da trajetria tima. No caso de utilizao de controladoresclssicos, se a mudana nas caractersticas do brao for muito grande, pode

    ocorrer de este precisar atuar fora da faixa para a qual foi previamente sin-tonizado, levando- a resultados no-satisfatrios. A soluo apresentada por

    Teixeira [Tei98] para minimizar os efeitos da mudana nos parmetros nasaes de controle descreve uma topologia de controle com uma RNA atuandoem conjunto com um controlador clssico do tipo PID [DB95] e um algoritmopara adaptao on-line da rede. Quando h mudana nos parmetros do ma-nipulador e o controlador PID no consegue corrigir a trajetria, o aumento

    do erro de sada faz com que a RNA se adapte durante a operao, corrigin-do assim a ao do controlador PID. Os resultados com esta topologia foram

    bastante superiores queles em que somente o controlador clssico foi utilizado[Tei98].

    O modelo hierrquico apresentado por Kawato [KUI87] tambm um bomexemplo da eficincia da utilizao de RNAs em paralelo com controladores

    clssicos (ver Figura 10.5). Nesta topologia, duas RNAs so adicionadas topologia de controle clssico com realimentao apresentada anteriormentena Figura 10.4. Neste esquema, a RNA 1 identifica a dinmica direta da plan-ta, enquanto a RNA II identifica a sua dinmica inversa. Aps o aprendizado,a RNA 1 adianta a resposta da planta gerando o sinal y*, o que permite geraro sinal de erro e* = d - y*. De maneira similar, a RNA II tambm adianta aresposta do controlador gerando o sinal u*. Desta forma, uma vez treinadasas RNAs I e II, estas tomam o controle do sistema, e o controlador conven-

    d + e11

    RNA II

    ControladorU

    Planta Y-

    Y*

    Figura 10.5: Esquema geral de um controlador hierrquico . A RNA I identificaa dinmica direta da planta , enquanto a RNA II identifica a sua inversa. Aao das RNAs adianta respostas da planta e do controlador, resultando emuni sistema de controle mais eficiente.

    cional poder atuar toda vez que as aes das RNAs no forem suficientes para

    diminuir o erro e = d - y. O desempenho geral do sistema de controle maiseficiente, j que os atrasos inerentes ao controlador convencional so evitados.

    10.2.3 Treinamento on-line em identificao e controle

    Procedimentos para treinamento on-line utilizando o algoritmo back-propaga-

    tion so conhecidos na literatura [Tei98, Fu96, CK95]. Para superar algumasdas deficincias deste algoritmo, como pouca robustez perante mudanas muito

    grandes no sistema, outros algoritmos apropriados para treinamento on-line

    so encontrados na literatura, como o CMAC (Cerebelar Model Articulation

    Controller) [A1b75] e algoritmos baseados no controle por modos deslizantes[Utk78, SJR96, JRRC97, PAIB98]. O algoritmo CNIAC muito adequado

    para controle on-line, j que toda a informao sobre as aes de controle armazenada em uma tabela. Esta, por sua vez, permite um treinamento seusinterferncia entre etapas de treinamento subseqentes, j que a adio de unsnovo dado requer apenas a alocao de uma nova entrada na tabela. Casohaja conflito no armazenamento da informao, este ser causado por carac-tersticas inerentes ao problema e no forma de treinamento adotada. Oscontroladores CMAC, por sua vez, trabalham com generalizao implcita, ou

    - 224 1 225

  • seja , esta depende da maneira como a informao distribuda na tabela aps

    o armazenamento . Tcnicas para melhorar a capacidade de generalizao dos

    controladores CMAC so conhecidas na literatura . [BH95c], porm, estas de-

    pendem tambm de uma explorao adequada do espao de estados.

    As RNAs com treinamento por modos deslizantes [Utk78, SJR96 , JRRC97,

    PMB98], por sua vez, possuem caractersticas de robustez similares aos con-

    troladores que utilizam tcnicas de sistemas de estruturas variveis [Utk78]. O

    trabalho apresentado por Parma , Menezes e Braga [PMB98] descreve um con-

    junto de equaes para treinamento on-line de redes Perceptron multicamadas

    aplicadas a problemas de controle . O algoritmo apresentado supe a existncia

    de uni sinal varivel no tempo , o qual a rede deve acompanhar . A adaptao

    on-line ocorre no sentido de diminuir o erro entre a sada da rede e este sinal

    varivel . Um exemplo da capacidade de adaptao da rede treinada com estealgoritmo mostrado na Figura 10.6, onde se pode ver que, aps algum tempo,

    a sada da rede tende a acompanhar o sinal de sada f (t). Inicialmente, o erro

    de sada da rede alto , mas com o tempo ela se adapta e acompanha a sada

    desejada.

    1.0

    M

    Sada desejada (j(0)

    0.8

    -0.2

    -0.4

    Resposta da rede

    0.1 0.2 0 .3 0.4 0 .5 0.6 0 .7 0.8 0.9 1.0

    Tempo (t)

    Figura 10.6: Exemplo de aprendizado on-line utilizando algoritmo de treina-

    mento baseado na teoria dos modos deslizantes descrito por Parma, Menezes

    e Braga.

    10.3 Predio

    Predio de sries temporais envolve a construo de modelos a partir de ob-

    servaes em um dado perodo. As tcnicas clssicas para predio, tais como

    ARMA e ARIMA [Bro63], so bem-estabelecidas. Porm, de maneira anlogaaos problemas de controle e identificao, a construo destes modelos pode

    depender de um entendimento mais profundo do problema, alm de poder ter

    alta complexidade, dependendo do nmero de variveis consideradas. Nova-mente, se torna atraente a alternativa de modelamento por RNAs, j que estas

    se caracterizam por um modelamento no-paramtrico. em qu^ no h grandenecessidade de se entender o processo propriamente dito. O modelamento podeser feito utilizando-se somente amostragens de valores de entrada e sada do

    sistema em intervalos de tempo regulares. Outro fator favorvel s RNAs estrelacionado com o fato de no haver para estas grande limitao no nmero devariveis de entrada. Para o caso especfico de predio, este um fator im-portante, pois est relacionado com o nmero de atrasos de tempo que podemser considerados na predio.

    Um exemplo de aplicao de RNAs a problemas de predio apresenta-do na Figura 10.7, onde se deseja prever para a semana seguinte o volumede vendas de um determinado produto, com base eni observaes das vendasnas semanas anteriores. Para modelar o sistema, foi utilizada uma RNA mul-ticamadas com topologia 5-7-1. ou seja, com 5 entradas. 7 nodos na camada

    escondida e uma nica sada. O treinamento foi feito utilizando atraso detempo [LH88], ou seja, os dados foram deslocados eni uma janela de tempodurante o treinamento. Para este exemplo, uma janela de 5 semanas foi uti-lizada, ou seja, as cinco entradas representam sempre as 5 semanas anteriores.sendo que a sada representa a prxima semana na seqncia. Como os dadosdisponveis referiam-se at a vigsima primeira semana. a rede foi treinada at

    a dcima quinta semana, e os dados da dcima sexta at a vigsima primeirasemanas foram utilizados para testar o modelo obtido. Como pode ser visto.

    os resultados de predio da rede utilizando os dados das 5 semanas anterioresso bastante prximos dos reais. Obviamente, quanto maior a seqncia na

    predio, maior dever ser o erro ao final da srie, j que o erro de predio vai

    se acumulando ao longo das semanas. Deve-se considerar, no entanto, que aRNA foi treinada para prever apenas a semana seguinte e que a predio para

    mais de uma semana uma extrapolao da informao fornecida a ela. Para

    o exemplo apresentado na Figura 10.7. os resultados desta extrapolao forambastante razoveis.

    226 227

  • Treinamento Predio

    Figura 10.7: Predio de volume de vendas durante cinco semanas utilizandoRNA com atraso de tempo.

    10.4 Otimizao

    Conforme mostrado anteriormente , a forma de armazenamento da informao

    e atualizao das sadas das redes de Hopfield [Hop82] permite se associar

    unia funo de energia decrescente no tempo aos estados da rede durante

    unia trajetria qualquer no espao de estados. Hopfield mostrou inicialmente

    [Hop82 ] que, para o problema de memria associativa , a funo de energia

    E -2 wijxixj I varia de forma monotonicamente decrescente e que\ i j J

    a rede se estabiliza em um mnimo de energia definido pelos vetores armazena-dos, chamados tambm de atratores2 . Pode-se visualizar , por este ponto devista , o problema de memria associativa como uni problema de otimizaoem que se deseja minimizar uma funo de custo associada semelhana entreo estado atual da rede e os atratores definidos pelo conjunto de treinamen-to. A soluo deste problema de otimizao est, ento, resolvida de maneiraimplcita pela prpria estrutura da rede treinada pela regra de Hebb [Heb49'.conforme mostrado anteriormente . A forma de treinamento define, portanto.o problema de otimizao a ser resolvido.

    2 Na verdade , a rede pode se estabilizar tambm em atratores esprios indesejveis, quepodem se formar prximo aos atratores definidos no treinamento.

    A soluo de outros problemas de otimizao utilizando-se redes de Hop-

    field requer que estes problemas sejam descritos de forma apropriada para que arede possa tratar deles. A soluo anais conhecida de problemas de otimizao

    com redes de Hopfield certamente a do Problema do caixeiro-viajante [HT85],descrita pelo prprio Hopfield em 1985 [HT85]. Dado um conjunto arbitrrio

    de cidades cujas distncias entre cada unia sejam conhecidas, a soluo desteproblema requer que se encontre a trajetria mais curta possvel passando por

    todas as cidades e visitando cada unia delas somente unia vez. Este problema

    normalmente utilizado como benchmarking para solues de problemas deotimizao. j que se trata de uni problema NP-completo bastante conhecido.Esta soluo requer uni conjunto de n2 nodos, e a ativao de cada uni deles

    representa o instante de tempo em que a cidade correspondente foi visitada.Para facilitar a formulao do problema, a estrutura da rede apresentada

    na forma de uma matriz n x n. onde a linha i da matriz representa todos os

    possveis instantes de tempo em que a cidade i pode ser visitada. Como cadacidade deve ser visitada apenas uma vez, a soluo final deve ter somente uni

    elemento ativo em cada linha. indicando o instante de tempo em que cadacidade foi visitada. A Figura 10.8 mostra uma possvel soluo para uni pro-blenia com 8 cidades. O estado final da rede representa a soluo encontrada.

    Tempo

    o U 0 \ 0

    O o O ^T

    O O O O

    Figura 10.8: Soluo possvel para uma trajetria de 8 cidades para o problemado caixeiro-viajante. A resposta fornecida pela rede foi a seqncia de cidades

    4-2-5-8-1-6-3-7.

    -228 1 229

  • Para se obter uma soluo atravs de uma rede de Hopfield, o primeiropasso definir uma funo de custo e escrev-la de forma apropriada para que

    a rede possa trat-la. A funo de custo descrita por Hopfield para a soluodo problema do caixeiro-viajante apresentada na Equao 10.2 [HT85]. Ob-serve que as sadas dos nodos so binrias unipolares, ou seja, podem assumir

    somente os valores 0 ou 1. Inicialmente, a rede comea com todos os nodosativos, e, medida que a rede vai evoluindo, ficam ativos somente aqueles

    nodos que fazem parte da soluo.

    J = 1 E F- r-dijSi,,(Si(v+1 ) + Si(v_1))+

    2

    i i#j

    [

    v

    ^` 1I2 I ^ (1 - L SL.)2 + Sdi,)2 1i v

    (10.2)

    onde dij representa a distncia entre as cidades i e j e Si,. representa o estado

    do nodo ir conforme representao da Figura 10.8.

    A situao Si,. = 1 ocorre somente quando a cidade i visitada no instante

    t. Conforme apresentado na Figura 10.8, solues possveis possuem somenteum elemento ativo em cada linha e coluna. Isto ocorre porque as condies

    do problema so de que, obviamente, somente uma cidade pode ser visitadade cada vez e cada cidade visitada uma nica vez. Estas restries so

    atendidas pelos dois ltimos termos da Equao 10.2. O primeiro termo, por

    sua vez. penaliza solues longas. Para, finalmente, obtermos a estrutura da

    rede correspondente, considera-se, segundo Hopfield e Tank [HT85]. conexesproporcionais a - entre nodos nas mesmas colunas e linhas e proporcionais a

    -dij entre nodos de colunas vizinhas (que no estejam na mesma linha). Paraentender a razo para a escolha destes valores para as conexes, basta lembrarque na Equao 10.2 penaliza solues no-permitidas, como uma cidade

    ser visitada mais de uma vez e duas cidades serem visitadas ao mesmo tempo.Portanto. quando houver nodos na mesma linha ou coluna de um nodo cujasada esteja sendo atualizada, estes contribuiro negativamente para que esterodo tenha a sua sada ativa. Da mesma forma atuam as conexes entre colunas

    proporcionais a -dij, j que estas penalizam visitas subseqentes entre cidades

    com distncias grandes. Uma rede de Hopfield com pesos proporcionais a -dij

    e -A conforme mostrado capaz de evoluir no espao de estados minimizando

    a funo de custo apresentada na Equao 10.2 com solues para o problema

    do caixeiro-viajante [HT85], como a da Figura 10.8.

    10.5 Processamento de imagens e sinais

    As potencialidades das RNAs na resoluo de problemas de classificao, pre-dio, modelamento, categorizao etc. foram bem exploradas nas sees an-teriores. Estes so problemas gerais que aparecem em vrias reas do conhe-

    cimento. Em processamento de sinais e imagens, as RNAs ganharam grandepopularidade nos ltimos anos como ferramenta alternativa e s vezes comple-

    mentar s tcnicas clssicas. Nestas reas, as aplicaes das RNAs envolvemreconhecimento de caracteres escritos a mo [LBD+89], compactao de dados

    [BH89], codificao [CS97], reconhecimento da fala [And91], anlise de compo-nentes independentes [OV97], entre outras.

    Uma das aplicaes mais conhecidas das RNAs em processamento da fala certamente o trabalho de Kohonen para o reconhecimento de fonemas emfinlands utilizando mapas auto-organizativos com treinamento competitivo[Koh88]. Este sistema classifica com sucesso 21 fonemas. Os mapas auto-organizativos de Kohonen [Koh82] so uma forma de quantizao de vetores

    [Koh86], que, por sua vez, uma das tcnicas clssicas para reconhecimentoda fala. O princpio bsico de quantizao de vetores buscar exemplos repre-sentativos de classes a partir de um conjunto de vetores. Conforme mostradonos captulos anteriores, isto exatamente o que os mapas de Kohonen fazem,

    porm de maneira adaptativa; este processo de adaptao tambm conhecidona literatura como learning vector quantization [Koh86]. O processo de reco-nhecimento ento dividido em duas etapas: a primeira delas envolve a catego-rizao dos fonemas, e a segunda, a classificao propriamente dita. Na etapade classificao, cada fonema ativa uma regio do mapa, e uma seqncia defonemas correspondente a um sinal de voz ativa regies distintas em seqncia.descrevendo ento uma trajetria no mapa. Esta trajetria responsvel peloprocesso de reconhecimento.

    Tambm em problemas de reconhecimento da fala, RNAs tm sido uti-lizadas em conjunto com a tcnica clssica de reconhecimento por modelos deMarkov (HMMs - Hidden Markov Models) [BF96]. Basicamente. duas abor-dagens so encontradas na literatura em que RNAs e HMAIs so utilizadas em

    conjunto. Uma delas encara RNAs como parte de um modelo HMM [Lev91].

    e a outra utiliza RNAs como um modelo de predio que substitui o modelode Markov [Mam93]. No trabalho apresentado por Levin [Lev91]. uma RNA

    multicamadas utilizada como modelo de predio para unia seqncia de ob-servaes de uma distribuio gaussiana de mltiplas variveis. Neste caso, a

    RNA utilizada em conjunto com o modelo de Markov. Outras abordagens so

    230 231

  • encontradas na literatura, e uma discusso mais ampla deste problema podeser encontrada na coletnea de artigos apresentada por 1\Iammone [l\Iam93].

    Os problemas de viso computacional e reconhecimento de imagens pos-suem caractersticas que os distinguem bastante dos problemas de reconheci-

    mento da fala. A principal delas certamente a quantidade de informaomanipulada. No caso de reconhecimento de imagens. os problemas requerem

    o tratamento de imagens de alta definio com uma grande quantidade de in-formao adicional como colorao e posicionamento no espao tridimensional.

    O tratamento destes problemas com RNAs freqentemente requer a utilizao

    de tcnicas convencionais de processamento de imagens para pr-processar osdados e ento apresent-los de uma maneira tratvel para a rede. A viso

    computacional que utiliza RNAs encontra aplicaes nas mais diversas reas:o reconhecimento de faces para sistemas de identificao criminal e o controle

    de qualidade em linhas de produoso dois exemplos.

    As dificuldades no reconhecimento de faces surgem devido grande varia-bilidade possvel em imagens faciais (e em imagens tridimensionais de uma

    maneira geral). como ngulo de viso, iluminao da imagem e a adio dedistores como culos. chapus e barba. Estas variaes colocam em risco arobustez das tcnicas para reconhecimento de imagens faciais. Estas dificul-

    dades surgiram j nos primeiros trabalhos na rea, que envolviam o reconhe-cimento atravs de deteco de caractersticas geomtricas das imagens. Esta

    abordagem visa extrao de caractersticas relevantes das imagens tais comoforma da boca, nariz e olhos. Porm, esta se mostrou sensvel a grandes dis-

    tores nas imagens. Abordagens em que a imagem completa analisada tmsido tambm bastante utilizadas com RNAs, porm retorna-se ao problema dedimensionalidade. Um trabalho conhecido na literatura, como o de Cottrel

    e Fleming [G\190], por exemplo, utiliza imagens de 64 por 64 pixels, o queresulta em RNAs com 4096 entradas. O nmero de entradas da RNA paraesta abordagem cresce de forma quadrtica com as dimenses das imagens de

    entrada. Isto se torna um problema crtico em resolues mais altas, o que res-tringe a utilizao de RNAs para situaes em que h um pr-processamentocom subseqente reduo de dimenso da informao de entrada. Este o

    caso, por exemplo, de abordagens como a de projeo em gray scale [Wi195] e

    a anlise dos componentes principais [BH89].

    10.6 Classificao

    Diversas das aplicaes de RNAs dizem respeito classificao de padres.Nestas aplicaes, a rede aprende a classificar um padro desconhecido entre

    vrias classes ou categorias. Assim, ao deparar com um padro desconhecido,

    a rede deve classific-lo em unia das classes existentes. Para que o desempenhodo classificador para novos padres (padres diferentes daqueles utilizados notreinamento) possa ser avaliado, o classificador passa por uma fase de teste

    ou uso. Durante esta fase, deve ser observado o nmero de acertos realizadospelo classificador para uni conjunto de padres cujas classes sejam conhecidas.

    Nenhum dos padres deste conjunto pode ter sido utilizado no treinamento doclassificador.

    Para avaliar o desempenho de uma RNA na classificao de padres. de-vem ser apresentadas as porcentagens de padres corretamente classificados,incorretamente classificados e rejeitados. A proporo de padres corretamente

    classificados do conjunto total de padres de teste dado o nome taxa de a-

    certo. A classificao correta ocorre quando o classificador associa uni padro"desconhecido" sua verdadeira classe.

    Quando o classificador atribui o padro "desconhecido " classe errada. aclassificao dita incorreta. A proporo de padres incorretamente classifi-

    cados d origem taxa de erro. Caso o padro seja semelhante aos padresde mais de uma classe ou no seja suficientemente semelhante aos padres de

    nenhuma das classes, o padro desconhecido rejeitado. Para isto devem serdefinidos:

    uma diferena mnima entre a classe mais semelhante e a segunda classemais semelhante ao padro apresentado: dif :

    um valor de similaridade mnimo entre o padro apresentado e os padres

    de uma classe para que o padro apresentado seja associado a esta: sim.

    Chama-se de taxa de rejeio a proporo de padres rejeitados. Os valoresde sim e dif so definidos de acordo com a aplicao. Para um conjunto de apli-caes, como, por exemplo, diagnstico mdico, controle de usinas nucleares enavegao de foguetes, o custo de uma classificao incorreta pode ser muitoelevado, sendo melhor rejeitar os padres que o classificador no esteja muito

    certo da categoria qual pertencem. Para estas aplicaes, o(s) valor(es) desim e/ou dif (so) elevado(s). Em outras aplicaes, como por exemplo reco-nhecimento de faces, anlise de crdito, classificao de solos e reconhecimento

    de assinaturas, interessante que no ocorra um nmero elevado de rejeies.Para estes problemas, o(s) valor(es) de sim e/ou dif (so) baixo(s).

    - 232 1 233

  • Quando so utilizadas RNAs em problemas de classificao, durante o seu

    treinamento devem ser apresentados conjuntos de padres representativos para

    cada uma das vrias . classes consideradas . Alm disso , o nmero de padres

    de treinamento para cada uma das classes deve ser idealmente o mesmo. Asprincipais aplicaes encontradas na literatura sobre a utilizao de RNAs em

    classificao se referem a:

    Reconhecimento de imagens:

    classificao de caracteres (manuscritos ou impressos);

    reconhecimento de assinaturas;

    reconhecimento de faces.

    Reconhecimento de sons:

    classificao de fonemas;

    reconhecimento de comandos.

    Classificao financeira:

    Anlise de crdito:

    previso de falncia de empresas.

    As aplicaes em reconhecimento de imagens e de sons so bastante cober-tas pela literatura de RNAs. Dentre as aplicaes na rea de classificao

    financeira . uma das mais bem-sucedidas a de anlise de crdito . A anlise de

    crdito pode envolver tanto pessoa fsica ( carto de crdito. cheque especial,

    emprstimo pessoal ) como pessoa jurdica . Crdito nada mais que a entre-ga de um valor a uma pessoa mediante a promessa de este valor ser resti-tudo. Dado o risco de a promessa de crdito no ser cumprida , necessrio

    uma anlise do risco de crdito. Redes Neurais tm sido muito bem -sucedidas

    quando aplicadas a problemas de anlise de crdito . Em [FdC97, LdC98], re-

    des neurais do tipo AILP e RBF so geneticamente otimizadas para lidar coma anlise de crdito para pessoa fsica. Em [HPR-98], o desempenho de re-des NILP em uma aplicao de anlise de crdito comparado ao obtido portcnicas simblicas de aprendizado de mquina.

    10.7 Concluso

    Este captulo apresentou algumas das principais aplicaes de RNAs a proble-mas prticos do dia-a-dia. Longe de poder ser considerado completo, j que a

    gama de aplicaes de RNAs bastante ampla, este captulo procurou cobriraplicaes que envolvessem temas mais populares e atuais como modelarnento

    e predio. Temas mais clssicos ria rea, como reconhecimento de caracteres,que por muitos anos serviram de benchmarking para testar modelos de RNAs,possuem literatura extensa na rea, tendo sido bastante estudados na dcadapassada. Foi dedicado neste captulo mais espao a temas em que h umnmero maior de problemas em aberto e que, conseqentemente , viessem amotivar mais o leitor.

    234 235

  • Bibliografia

    [A+96] R. Andrews et al. An evaluation and comparison of techniques

    for extracting and refining rules from artificial nerval networks.Technical report, Queensland University of Technology, 1996.

    [AAS89] R. AI-Alawi and T. J. Stonham. Functionality of multilayerBoolean neural networks. Electronics Letters, 25(10):657-658,1989.

    [AAS92] R. Al-Alawi and J. Stonham. A training strategy and function-ality analysis of multilayer boolean neural networks. Journal ofIntelligent Systems, 2:53-94, 1992.

    [ACB94] I. Aleksander, T. J. Clarke, and A. P. Braga. Binary neural sys-tems: combining weighted and weightless properties. IEE Intelli-gent Systems Engineering, 3:211-221, 1994.

    [AG79] W. W. Armstrong and J . Gecsei . Adaptation algorithms for bi-nary tree networks . IEEE. Transactions on Systems , Man, andCybernetics , 9:276-285, 1979.

    [AG94] R. Andrews and S. Geva. Rule extraction from a constrainederror backpropagation MLP. In Proceedings of the 5th AustralianConference on Neural Networks, pages 9-12, Brisbane, Austrlia,1994.

    [A1b75] J. S. Albus. A new approach to manipulator control: The cere-bellar model articulation controller (CMAC). Trans. ASME. Jn1.

    Dyn. Sys. Meas. and Control, 63(3):220-227, 1975.

    [A1e66] I. Aleksander . Self-adaptive universal logic circuits . Electronics

    Letters, 2 : 231, 1966.

    237

  • [Ale87] I. Aleksander . Adaptive pattern recognition systems and boltz-mann machines : A rapprochement . Pattern Recognition Letters,6:113-120, 1987.

    [A1e91] I. Aleksander . Connectionism or weightless neurocomputing. InProceedings of ICANN- 91, volume 2 , pages 991-1000 , Helsinki,

    1991.

    [A1m87] L.B. Almeida. A learning rule for asynchronous perceptrons with

    feedback in a combinatorial environment. In M. Caudill and

    C. Butler, editors, IEEE International Conference on Neural Net-

    works, volume 2, pages 609-618, San Diego 1987, 1987. IEEE, New

    York.

    [AM90] I. Aleksander and H . Morton . An overview of weightless neu-

    ral nets. In Proceedings of IJCNN- 90, volume 2 , pages 499-502,

    Washington, 1990.

    [AM91] I. Aleksander and H. Morton. General neural unit: retrieval per-

    formance. Electronics Letters, 27:1776-1778, 1991.

    [Ana91] T. J. Anastacio. Advances in Neural Information Processing Sys-

    tems 3, chapter A recurrent neural network model of velocity stor-

    age in the vestibulo-ocular reflex. Morgan Kaufmann, 91.

    [And68] J.A. Anderson. A memory model using spatial correlation func-

    tions. Kybernetik, 5:113-119, 1968.

    [And70] J.A. Anderson. Two models for memory organization . Mathemat-

    ical Biosciences , 8:137-160, 1970.

    [And91] T. R. Anderson. Speaker independent phoneme recognition withan auditory model and a neural network: a comparison with tra-

    ditional techniques. In Proc. ICASSP-91, Int. Conf on Acoustics,

    Speech and Signal Processing, volume I, pages 149-152, Piscat-

    away, NJ, 1991. IEEE Service Center.

    [AP94] A. Aamodt and E. Plaza. Case-based reasoning: Foundational is-

    sues, methodological variations and system approaches. AI Com-munications , 7:39-59, March 1994.

    (AS87] J. Austin and T. J. Stonham. An associative memory for use

    in image recognition and occlusion analysis. Image and Vision

    Computing, 5:251-261, 1987.

    [Ash91] K. Ashley. Modeling Legal Arguments: Reasoning with Cases andHypotheticals. MIT Press, Bradford Books, 1991.

    [Aus90] S. Austim. An introduction to genetic algorithms. AI Expert,5:48-53, 1990.

    [AVT88] B. Angeniol , G. Vaubois,. and J . Le Texier. Self-organizing fea-ture maps and the travelling salesman problem . Neural Networks,1:289-293, 1988.

    [BA94] A. P. Braga and I. Aleksander. Geometrical treatment and sta-tistical modelling of the the distribution of patterns in the n-dimensional boolean space. Pattern RecognitionLetters,16:507-515,1994.

    [BAP+97] A. P. Braga , M. B. Almeida , G. Pereira , M. Costa , and C. Barbosa.On the information storage of associative matrix memories. InD.L.Borges and W . Martins , editors , Proceedings of IVth BrazilianSymposium on Neural Networks (IEEE Computer Society Press),pages 51-56 . IEEE Computer Society Press, 1997.

    [Bar89] H. Barlow. Unsupervised learning. Neural Computation, 1:295-311, 1989.

    [Bar91] R. Barletta. An introduction to case-based reasoning. AI Expert,pages 43-49, 1991.

    [Bar94] G. Barfai. Hierarchical clustering with art neural network. Tech-nical report. Universitv of Wellington, 1994.

    [Bar95] G. Barfai. An art-based modular architecture for learning hier-archical clusterings. Technical report, University of Wellington,1995.

    [Bat91] R. Battiti. First and second-order methods for learning: betweensteepest descent and Newton's method. Technical report, Univer-sity of Trento, 1991.

    [BB59] W. Bledsoe and I. Browing. Pattern recognition and readingby machine. In Proceedings Eastern Joint Computer Conference,pages 225-232, Boston, 1959.

    238 239

  • [BBA192] F. Z. Brili. D . E. Brown , and W. N. Martin. Fast genetic selectionof features for neural network classifiers. IEEE Transactions onNeural Networks, 3(2):324-328. 'March 1992.

    [BC92] S. Billings and S. Chen. Neural networks and system identification.In \\'arwick K, Irwin G. W. and Hunt K. J.. editors. Neural Net-

    works for Control and Systems , pages 181-205, Stevenage. 1992.IEE Control Engineering Series 46 . Peter Peregrinus.

    [BD94] 1\1. Berthold and J. Diamond. Boosting the performance of rbfnetworks with dynainic decay adjustment. In Advances in Neu-

    ral Information Processing Systenzs 6, pages 521-528. MIT Press,1994.

    [Ber95] D. Bertsekas. Non Linear Programnzing. Athena Scientific. 1995.

    [BF96 ] Y. Bengio and P. Frasconi . Iiiput-output HMMs for sequence pro-cessing. IEEE Transactions on Neural Networks , 7( 5):1231 - 1249.1996.

    [BFF89] D. L. Bisset. E. Filho, and M. C. Fairhurst. A comparative studyof neural network structures for practical application in a pattern

    recognition envirornent. In Proceedings of the First IEE. Interna-tional Conference on Artificial Neural Networks, pages 378-382.London, UK, October 1989. IEE.

    [BG87] J. P. Banquet and S. Grossberg. Probing cognitive processes

    through the sctructure of event-related potentials during learn-ing: An experimental and theoretical analysis. Applied Optics.

    26(23):4931-4946, 1987.

    [BH69] A. E. Bryson and Y. Ho. Applied Optimal Contrl. Blaisdell, 1969.

    [BH89] P. Baldi and K. Hornik. Neural networks and principal components

    analysis: learning from examples without local minima. NeuralNetworks, 2:53-58, 1989.

    [BH95a] K. Balakrishnan and V. Honavar. Evolutionary design of neuralarchitectures: A preliminary taxonomy and guide to literature.Technical report, Computer Science Department, Iowa State Uni-versity, 1995.

    [BH95b] H . Bischof and K. Hornik. PCA-Pyramids for image compression.In G. Tesauro, D. S. Touretzky, and T. K. Leen, editors, Advancesin Neural Information Processing Systems 2, pages 941-948. Mor-gan Kaufmann, 1995.

    [BH95c] M. Brown and C. J. Harris. A perspective and critique of adaptiveneurofuzzy systems used in modelling and control applications.Int. J. Neural Systems , 1995 . submitted for publication.

    [Bis95] C . Bishop . Neural Networks for Pattern Recognition . Oxford Press,

    1995.

    [BL88] D. S. Broomhead and D . Lowe. Multivariable function interpola-tion and adaptive networks . Complex Systems , 2:321-355, 1988.

    [Bra91 ] B. Branting . Exploiting the complementarity of rules and prece-dents with reciprocity and fairness . In Case-Based ReasoningWorkshop , pages 39-50, 1991.

    [Bra94a] A. P. Braga . Attractor properties of recurrent networks with gen-eralising boolean nodes . In Proceedings of the International Con-ference on Artificial Neural Networks , pages 421-424 . Springer-Verlag, 1994.

    [Bra94b] A. P. Braga . Predicting contradictions in the storage process ofdiluted recurrent boolean neural networks. Electronics Letters,30:55-56, 1994.

    [Bra95 ] J. Branke . Evolutionary algorithms for network design and train-ing. Technical report , Institute AIFB , University of Karlsruhe,1995.

    [Bra97] C. M. P. Braga . Desenvolvimento , implementao , modelagem econtrole de um sistema piloto anaerbico de tratamento de esgotos.Technical report , UFMG , Belo Horizonte , Brasil, 1997.

    [BRG95] H. Burke , D. Rosen , and P . Goodman . Comparing the predictionaccuracy of artificial neural networks and other statistical mod-els for breast cancer survival . In G. Tesauro , D. S. Touretzky,and T . K. Leen, editors , Neural Information Processing Systems7. MIT Press, 1995.

    [Bro63] R. G. Brown . Smoothing , forecasting and prediction of discretetime series . Prentice Hall, USA, 1963.

    240 241

  • [BSA83] A.G. Barto, R.S. Sutton; and C.W. Anderson. Neuronlike adaptiveelements that can solve difficult learning problems. IEEE Trans-

    actions on Systems , Mn and Cy .bernetics , SMC-13: 834-846, 1983.

    [BSV96] B. Back, K. Sere, and H. Vanharanta. Data mining account num-

    bers using self-organizing maps. In Finnish Artificial Intelligence

    Conferente, pages 35-47, 1996.

    [BT90] ' D. Bailey and D. Thompson. Developing neural network applica-

    tions. AI Expert, 5:34-41, 1990.

    [Cau91] M. Caudill. Neura: network training tips and techniques. AI Ex-

    pert , 6:55-61, 1991.

    [CBB+97] A. L. Carvalho, A. P. Braga, C. M. P. Braga, T. L. V. Guimars ,and R. T. Pena. Modelagem de um reator piloto de manta de lodo

    utilizando redes neurais artificiais. In Dibio Leandro Borges and

    Weber Martins, editors. IV Simpsio Brasileiro de Redes Neurais,

    Goinia, GO, Dezembro 1997.

    [CFB92] A. C. P. L. F. Carvalho, M. C. Fairhurst, and D. L. Bisset. SOFT- a. Boolean self organising feature extractor. In Proceedings of the

    ICANN. 92 Conferente, pages 669-672, Brighton, UK, September

    1992. Elsevier.

    [CFB97] A. C. P. L. F. Carvalho. M. Fairhurst, and D. Bisset. Combiningboolean neural architectures for image recognition. Connection

    Science, 9(4):405-418, 1997.

    [CG87a] G. A. Carpenter and S. Grossberg. ART2: Self-organization of sta-ble category recognition codes for analog input patterns. Applied

    Optics, 26(23):4919-4930, 1987.

    [CG87b] G. A. Carpenter and S. Grossberg. A massively parallel architec-ture for a self-organizing neural pattern recognition machine. Com-

    puter Vision, Graphics. and Image Processing, 37:54-115, 1987.

    [CG88] G. A. Carpenter and S. Grossberg. The ART of adaptive pattern

    recognition by a self-organizing neural network. Computer, 21:77-

    88, 1988.

    [CG90] G. A. Carpenter and S. Grossberg. ART3: Hierarchical searchusing chemical transmitters in self-organizing pattern recognition

    architectures. Neural Networks. 3(2):129-152. 1990.

    [CG93] G. Carpenter and K. Govindarajan. Evaluation of speaker nor-

    malization methods for vowel recognition using fuzzy artmap andk-nn. Technical reporta CNS-Boston University, 1993.

    [CGGW96] G. Carpenter, M. Gjaja, S. Gopal, and C. Woodcock. Art neural

    networks for remote sensing: Vegetation classification from landsattm and terrain data. Technical report, CNS-Boston University,1996.

    [CG1\1+91] G. A. Carpenter, S. Grossberg. N. Nlarkuzon, J. H. Reynolds, andB. Rosen. Fuzzy ARTMAP : A neural network architecture forincremental supervised learning of analog multidimensional maps.Tehnical report, Boston University, 1991.

    [CGR91a] G. A. Carpenter. S. Grossberg. and J. H. Reynolds. ARTMAP:

    Supervised real time learning and classification of nonstationarydata by a self-organizing neural network. Neural Networks, 4:565-588, 1991.

    [CGR91b] G. A. Carpenter. S. Grossberg. and D. Rosen. Art2a: An adaptiveresonance algorithm for rapid category learning and recognition.Neural Networks. 4:493-504. 1991.

    [CGR91c] G. A. Carpenter. S. Grossberg. and D. B. Rosen. Fuzzy ART:

    Fast stable learnin_ and categorization of analog patterns 1),, anadaptive ressonar:ce sustem. Neural .Vetworks. 4:759-771, 1991.

    [Cha90] D. Chalmers. T.C, e-:o' ution of learning: an experiment in geneticconnectionism. Is Connectionist models: 1990 surnner school,pages 81-90. M,^r_a r Nauffmann. 1990.

    [CK95] F. C. Chen and H. K. Khalil. Adaptive control of a class of non-linear discrete-T'._.e systems using neural net,N-orks. IEEE Trans.on automatic 40:791-801. 1995.

    [CM96] G. Carpenter and N. \Iarkuzon. Artmap-ic and medical diagnosis:Instance counti- and inconsistent cases. Technical report, CNS-Boston U nivers--:. 1996.

    [CS94] M. Craven and J. ^avlik . Using sanipling and queries to extractrules from traire= neural netrivorks. In W. Colien Arnd H. Hirsh,editor. Proceed, of the 11th International Conferente on AIa-chine Learning . nazis 37-45. New Brunswick. EUA, 1994. MorganKaufmann.

    242 243

  • [CS96] M. Craven and J. Shavlik. Extracting tree-structured representa-tions of trained networks. In D. S. Touretzky, AI. C. Alozer, and

    Al. E. Hasselmo, editors, Advances in Neural Information Process-ing Systems, pages 37-45, Denver, EUA, 1996. 1\IIT Press.

    [Fah91 ]

    Fai88]

    S. E. Fahlman . The recurrente cascade-correlation architecture,1991. Technical Report CMU-CS-91-100. Carnegie-Mellon Uni-versity.

    M. Fairhurst. Computer Vision for Robotic Systems . Prentice/Hall[CS97] W. Chang and H. S. Soliman. Irnage coding by a neural net classi-

    fication process. Applied Artificial Intelligence, 11(1):33-57, 1997.[Fau94 ]

    International, 1988.

    L. Fausett . Fundamentais of Neural Networks. Architectures, Al-[Cyb88] G. Cybenko. Continuos valued neural networks with two hidden

    layers are sufficieiit. Technical report, Department of Computergorithms and Applications . Prentice Hall, 1994.

    Science, Tufts University, 1988. [FB90] E . Filho and D. L. Bisset . Applying the ART1 architecture to apattern recognition task . In Proceedings of the Parallel Process-

    [Cyb89] G. Cybenko. Approximation by superpositions of a sigmoid func-tion. Afathematics of Control, Signals and Systems, 2:303-314,

    ing in Neural Systems and Computers conferente, pages 343-349,Dusseldorf,FRG, March 1990 . North-Holland.

    1989.[FBF90] E . Filho, D. L. Bisset , and M. C. Fairhurst. A. goal seeking neuron

    [D196]

    [Dar59]

    J. Denker et al. Neural network recognizer for handwritten zipcode digits. Neural Networks ll-orld., 6(3):241-249. 1996.

    C. Darwin. On the origin of species by means of natural selection.John Alurray, 1859. FBF92]

    for Boolean neural networks . In Proceedings of the Internation-al Neural Networks Conferente, volume 2 , pages 894-897 , Paris,France , July 1990.

    E . Filho, D. L. Bisset , and M . C. Fairhurst. Architectures forgoal-seeking neurons . International Journal of Intelligent Systems,

    [DB95] R. C. Dorf and R. H. Bishop. Alodern Control Systems. Addison-\Vesley, USA, 7th edition, 1995.

    2:95-119, 1992.

    [FC97] E . Mendes Filho and A. C. P. L. F. Carvalho. Evolutionary design-[DeS88] D. DeSieno. Adding a consciente to competitive learning. In

    IEEE Internationcal Conferente on Neural Networks, pages 117-124. IEEE Press, 1988.

    FdC97]

    neural network architectures . In IV Simpsio Brasileiro de RedesNeurais , pages 58-65. IEEE Press, 1997.

    E. Mendes Filho and A. de Carvalho. Evolutionary design of mlp[d-'xI73] C. Von der Malsburg. An automaton with brain-like properties. neural network architectures. In Dibio Leandro Borges and Weber

    [DAIR93]

    Kybernetes, 14:85-100, 1973.

    S.P. Day and Davenport 1\1. R. Continuos-time temporal back-propagation with adaptive time delays. IEEE Transactions onNeural Networks, 4:348-354, 1993.

    Fel50]

    Martins , editors, IV Simpsio Brasileiro de Redes Neurais, pages58-65 , Goinia - GO , Dezembro 1997.

    W. Feller . An Introduction to Probability Theory and Its Applica-tions I. John Wiley, New York, second edition, 1950.

    [E1m90] J. L. Elman. Findirig structure in time. Cognitive Science, 14:179- [Fer77] A. B. H. Ferreira . Dicionrio Aurlio da Lngua Portuguesa. Edi-211, 1990. tora Nova Fronteira, 1977.

    [Fah88] S. E. Fahlman. An empirical study of learning speed in backprop-agation networks. Technical report, Carnegie Mellow University,

    [FFB91] E . Filho, M. C. Fairhurst , and D . L. Bisset . Adaptive patternrecognition using goal-seeking neurons . Pattern Recognition Let-

    1988. ters, 12:131-138, March 1991.

    244 245

  • [FL88) S. E. Fahlman and C. Lebiere. The cascade-correlation learning

    architecture. In R. P. Lippmann, J.. E. Moody, and D. S. Touret-zky, editors, Advances in Neural Information Processing Systems

    2. Morgan Kaufmann, 1988.

    [Gar87]

    [GBD92]

    E. Gardner. Maximum storage capacity in neural networks. Eu-rophysics Letters, 4:481-485, 1987.

    S. Geman, E. Bienenstock, and R. Doursat. Neural networks andthe bias-variance dilemma. Neural Computation, 4:1-58, 1992.

    (Fra87] M. Franzini. Speech recognition with back propagation. In 9thAnnual Conferente of IEEE Engineering in Medicine and Biology

    Society, 1987.

    [GEW95] S. Grossberg, Mingolla E, and J. Williamson. Synthetic apertureradar processing by a multiple scale neural system for boundaryand surface representation. Neural Networks, 8:1005-1028, 1995.

    [Fre90] M. Frean. The upstart algorithm: A method for constructing

    and training feed-forward neural networks. Neural Computation,

    [GK95] S. Goonatilake and S. Khebbal. Intelligent Hybrid Systems. JohnWiley & Sons, Inc, 1995.

    2:189-209, 1990. [GM90] G.W.Cottrel and M.K.Fleming. Faces recognition using unsuper-

    [Fri95] B. Fritzke. A growing neural gas network learns topologies. InAdvances in Neural Information Processing Systems 7, pages 521-

    528. AIIT Press, 1995. [GNIC+92]

    vised feature extraction. In Proceedings of the International NeuralNetwork Conference, Paris, 1990.

    C. Giles, C. Miller, D. Chen, G. Sun. H. Chen, and Y. Lee. Learn-ing and extracting finite state automata with second-order recur-

    [Fu96]

    Fuk75]

    Li-Chen Fu. Neural network approach to variable structure based

    adaptative tracking of siso systems. In Proc. IEEE Workshop on

    variable Strucuture Systems, 1996.

    K. Fukushima. Cognitron: a self-organising multilayered neural

    network. Biol. Cybern., 23:121-134, 1975.

    Gol89]

    [Gro76a]

    rent neural networks. Neural Computation. 4(3):393-405, 1992.

    D. E. Goldberg. Genetic Algorithms in Search, Optimization andMachine Learning. Addison Wesley. 1989.

    S. Grossberg. Adaptive pattern classification and universal re-coding: II. feedback, expectation, olfaction. illusions. Biological

    [Fuk80] K. Fukushima. Neocognitron:a self-organizing neural networkmodel for a mechanism of pattern recognition unaffected by shift

    iii position. Biological Cybernetics, 36:193-202, 1980.[Gro76b]

    Cybernetics, 23:187-202, 1976.

    S. Grossberg. Adaptive pattern recognition and universal recoding:parallel development and coding of neural feature detectors. Biol.

    [Fun89]

    [Gal86]

    K.I. Funuhashi. On the approximate realization of continuous

    mappings by neural networks. Neural Networks, 2:183-192, 1989.

    S. I. Gallant. Incremental learning of local linear mappings. In 8th

    Conferente on Pattern Recognition, pages 217-222, 1986.

    [Gro87]

    [GRS90]

    Cybern., 24:121-134, 1976.

    S.Grossberg. Competitive learning: From interactive activation toadaptive resonance. Cognitive Science. 11:23-63, 1987.

    D. Golonib, N. Rubin, and H. Sompolinsky. 'illshaw model: As-sociative memory with sparse coding and lo v firing rates. Phy.sical

    [Gal90a] S. I. Gallant. Perceptron based learning algorithms. IEEE Trans-actions on Neural Networks, 1:179-192, 1990.

    [Gur92]

    Review A, 41:1843-1854, 1990.

    K. N. Gurney. Training nets of hardware realizable sigma-pi units.

    [Gal90b] S. I. Gallant. Perceptron based learning algorithms. IEEE Trans-actions on Neural Networks, 1:179-192, 1990.

    Neural Networks, 5:289-303, 1992.

    [GW95] B. Graham and D. Willshaw. Capacity and information efficiency

    [Gal93] S. I. Gallant. Neural Network Learning and Expert Systems. MITPress, 1993.

    of a brain-like associative net. In Veural Information Processing

    Systems, pages 513-520, 1995.

    246 247

  • [Ha197] S. Halgamuge. Self e'volving neural networks for rule based data

    processing. IEEE Tran.sactions on Signal Processing. 45(11):2766-

    2773, November 1997.

    [Ham89] K. Hammond. Case-Based Planning Viewing Pla.nning as a Mem-

    ory Task. Academic Press, 1989.

    [Ham90] S. E. Hampson. Connectionistic Problem Solving: Cornputational

    Aspects of Biological Learning. Berlin: Birkhauser. 1990.

    [Has95] M. H. Hassoun. Fundamentais of artificial neural networks. MIT

    Press, Cambridge, AMA, 1995.

    [Hay91] Y. Hayashi. A neural expert system with autornated extraction offuzzy if-then rules and its application in medical diagnosis. In R. P.

    Lippmann, J. E. l\ioodv, and D. S. Touretzky. editors, .4dvances in

    Neural Information Processing Systems 2, pages 578-584. I\Iorgan

    Kaufmann. 1991.

    [Hay94] S. Haykin. Neural Networks - A Comprehensive Foundation.

    Prentice-11a11, 1994.

    [Heb49] D. O. Hebb. The Organization of Behavior. Wiley, 1949.

    [Hin88] T. Hinrichs. Towards and architecture for open world problem

    solving. In Case-Based Reasoning Workshop, DARPA. Morgan

    Kaufmann, 1988.

    [HKLK96] T. Honkela, S. Kaski , K. Lagus, and T. Kohonen . Exploration

    of full-text databases with self-organizing maps. In IEEE Inter-

    national Conferente on Neural Networks-ICNN'96, pages 56-61,

    1996.

    [HKP91] J. Hertz, A. Krogh, and R. G. Palmer. Introduction to the Theory

    of Neural Computation, volume Lecture Notes Volume I of San-

    ta Fe Institute Studies in The Science of Complexity. Addison-

    Wesley, 1991.

    [HL91] X. He and A. Lapedes. Nonlinear modelling and prediction bysucessive approximations using radial basis functions . Technicalreport, Los Alamos National Laboratory, 1991.

    [HL93] S. Haykin and L. Li. Applications of Neural Networks to Telecom-municatios , chapter 16 kb/s adaptive differential pulse code mod-ulation of speech. Lawrence Erlbaum, 1993.

    [HM94 ] M. Hagan and M. Menhaj . Training feedforward networks with theMarquardt algorithm . IEEE Transactions on Neural Networks,5(6):989-993, November 1994.

    [HN87] Geoffrey E. Hinton and Stephen J. Nowlan . How learning canguide evolution. Complex Systems , 1(1):495-502, June 1987.

    [Hop82] J. J. Hopfield . Neural networks and physical systems with emer-gent collective properties. Proc. Nat . Acad. Sci., 79 : 2554-8, 1982.

    [Hop84] J . J. Hopfield . Neurons with graded response have collective com-putational properties like those of two-state neurons . Proceedingsof the National Academy of Sciences, USA, 81 : 3088-3092, May1984.

    [HPR+98 ] P. Horst , T. Padilha, C. Rocha , S. Rezende , and A. de Carva -lho. Knowledge acquisition using symbolic and connectionist algo-rithms for credit evaluation . In Patrick Simpson , editor, IEEEWorld Congress on Computational Intelligence , WCCI'98, An-chorage , EUA, Mio 1998.

    [HSG89] S . Harp , T. Samad , and A . Guha . Towards the genetic synthesisof neural networks. In 3rd International Conferente on GeneticAlgorithms , pages 360-369. Morgan Kauffmann, 1989.

    [HSW89] K. Hornik , M. Stinchcombe , and H . White . Multilayer feedforwardnetworks are universal approximators . Neural Networks, 2:359-366, 1989.

    [HT85] J. J. Hopfield and D. W. Tank . Neural computation of decision inoptimation problems . Biological Cybernetics , 52:141-152, 1985.

    [IAP93] R. Evans I. Aleksander and W. Penney. Magnus : an iconic neuralstate machine . In Proceedings of the Weightless Neural NetworkWorkshop . University of York, 1993.

    [Jon80] K. Jong. Adaptive systems design . IEEE Transactions on Systems,Man, and Cybernetics , 10, 1980.

    248 249

  • [Jor86] M. I. Jordan. Attractor dynamics and parallelism in a connection- [Koh86] T. Kohonen. Learning vector quantization for pattern recognition.ist sequential machine. In Proceedings of the Eighth Annual Con- Reprt,TKK-F-A601, Helsinki University of Technology, Espoo'.ference of the Cognitive Science Society, pages 531-546, Amherst, Finland, 1986.

    [JRRC97]

    1986. Hillsdale: Erlbaum.

    K. Jezernik, M. Rodic, R. Safaric R., and B. Curk. Neural network[Koh88] T. Kohonen. The `neural' phonetic typewriter. Computer,

    21(3):11-22, 1988.

    [KA87]

    sliding mode robot control. ROBOTIC, 15:23-30, 1997.

    W. K. Kan and I. Aleksander. A. probabilistic logic neuron network for associative learning. In Proceedings of the IEEE. FirstInternational Cor ference on Neural Networks, volume II, pages

    [Koh89]

    Ko183a]

    T. Kohonen. Self-Organization and Associative Memory. Springer-Verlag, Berlin, 3 edition, 1989.

    J. Kolodner. Maintaining organization in a dynamic long-term

    [KA89]

    541-548, San Diego, California, June 1987. IEEE.

    W. K. Kan and I. Aleksander. Neural Computing Architectu7c5, K 18 b

    memory. Cognitive Science, (7):243-280, 1983.

    [ o ]3 J. Kolodner. Reconstructive memory a computer model. Cognitivechapter RAM-Neurons for adaptive image transformation tasks.

    ,Science, (7):281-328, 1983.

    Chapman and Hall, 89.[Ko192] J. Kolodner. An introduction to casa-based reasoning Artificial

    [Kan88]

    [Kar90]

    P. Kanerva. Sparse Distributed Memory. MIT. Press, 1988.

    E. D. Karnin. A simple procedure for pruning back-propagation

    trained neural networks. IEEE Transactions on Neural Networks,Ko193]

    .Intelligence Review, (6):3-34, 1992.

    J. Kolodner. Case-Based reasoning. Morgan Kauffmann, 1993.

    1(2):239-242, 1990. [Kot89] P. Koton. Using Experience in Learning and Problem Solving. PhD

    [Kit90] H. Kitano. Designing neural networks using genetic algorithms thesis, MIT, 1989.

    with graph generation system. Complex Systems, 4:461-476, 1990.[KR73] T. Kohonen and M. Ruohonen. Representation of associated data

    [KK96] S. Kaski and T. Kohonen. Structures of welfare and poverty in the by matrix operators. IEEE Transactions on Computers, C-22:701-

    world discovered by self-organizing maps. Technical report, Labo- 702, 1973.

    Koc96]

    ratory of Computer and Information Science - Helsinki University

    of Technology, 1996.

    G. Kock. The neural network description language CONNECT

    [KU1871 M. Kawato, Y. Uno, and M. Isobe. A hierarchical model for vol-untary movement and its application to robotics. In IJCNN 1987Vol. 4, pages 573-582, 1987.

    and its C++ implementation. Technical report, GMD FIRST

    Berlin, August 1996. [KW93] S. Krovvidy and W. C. Wee. Wastewater treatment systems froco

    [Koh72] T. Kohonen. Correlation matrix memories. IEEE Transactions on

    Computers, C-21:353-359, 1972. [Lay97]

    case-based reasoning. Machine Learning, 10:341-363, 1993.

    D. Lay. Linear Algebra and its Applications. Addison Wesley,1997.

    [Koh74]

    [Koh82]

    T. Kohonen. An adaptive associative memory principle. IEEE

    Transactions on Computers, C-23:444-445, 1974.

    T. Kohonen. Self-organized formation of topologically correct fea-

    [LBD+89] Y. LeCun, B. Boser, J. S. Denker, D. Henderson, R. E. Howard,W. Hubbard, and L. D. Jackel. Backpropagation applied to hand-written Zip Iode recognition. Neural Computation, 1:541-551,

    ture maps. Biological Cybernetics, 43, 1982. 1989.

    250 251

  • [LBD+90] Y. LeCun. B. Boser. J.S. Denker, D. Henderson, R.E. Howard.W. Hubbard. and L.D. Jackel. Handwritten digit recognition witha back-propagation network. In D.S. Touretzky, editor. NeuralInformation Processing Systems, volume 2, pages 396-404, Denver1989. 1990. Morgan Kaufmann. San Mateo.

    [Lin86c]

    Lin88]

    R. Linsker. From basic network principies to neural architecture:

    Emergente of spatial-opponent cells. Proceedings of the National

    Acadeny of Sciences, USA, 83:7508-7512, 1986.

    R. Linsker. Self-organization in perceptual network. Computer,21(3):105-117, 1988.

    [LdC98]

    LdO94]

    E. Lacerda and A. de Carvalho. Redes de futres base radial paraavaliao de risco de crdito. In Antnio de Pdua Braga. editor, VSimpsio Brasileiro de Redes Neurais. pages 259-264, Belo Hori-zonte - MG. Dezembro 1998.

    T. B. Ludermir and W. R. de Oliveira. WVeightless neural models.Computer Standards ' Interfaces, 16:253-263, 1994.

    [LK89]

    LLD93]

    M. Lemmon and B. V. K Y. Kumar. A model for self-organization

    in wta networks and its application to map prediction problems.

    In Maureen Caudill and Charles Butler, editors. Int. Joint Conf

    on Neural Networks, volume II, pages 509-516, Washington. D.C..

    June 1989. IEEE.

    D. Lin, P. A. Ligomenides, and J. E. Dayhoff. Learning spatiotem-poral topology using an adaptive time-delay neural network. In

    [LDS90] Y. LeCun. J.S. Denker. and S.A. Solla. Optimal brain damage. InD.S. Touretzkv, editor. Neural Information Processing Systems,volume 2. pares 598-605, Denver 1989. 1990. Morgan Kaufmann. [Luc91]

    Proc. World Congress on Neural Networks, 1993.

    J. Lucy. Perfect auto-associators using ram-type nodes. Electronics

    San Mateo. Letters, 27:799-800, 1991.

    [LeC85] Y. LeCun. A learning procedure for assymetric threshold network.In Proceeding.s of Cognitiva 85 pages 599-604 1985

    [MA88] C. Myers and I. Aleksander. Learning algorithm for probabilisticneural nets. In Proceedings of the First INNS. Annual Meeting,

    . . . pages 205-209, 1988.

    [Leo94] S. J. Leon. Linear algebra with applications. Prentice Hall, 1994. [MA93] W. Martins and N. M. Allinson. Two improvements for GSN neu-ral networks. In Weightless Neural Network- 1,I7orkshop'93, Com-

    [Lev91] E. Levin. Modeling time varying systems using hidden controlneural architecture. In Richard P. Lippmann, John E. Moody.and David S. Touretzky, editors, Advances in Neural InformationProcessing Systems. volume 3, pages 147-154. Morgan KaufmannPublishers. Inc.. 1991.

    Mac67]

    puting with Log ical Neurons, pages 58-63, University of York,

    York. UK, April 1993.

    J. MacQueen. Some methods for classification and analysis of

    multivariate observations. In 5th Berkeley Symposium on Mathe-

    matical Statistics and Probability, pages 281-297, 1967.[LH88]

    Lin86a]

    K. J. Lang and G. E. Hinton. The developrnent of the time-delayneural networks architecture for speech recognition, 1988. Techni-cal Report CMU-CS-88-152. Carnegie-Mellon University.

    R. Linsker. From basic network principies to neural architecture:Emergente of orientation-selective cells. Proceedings of the Na-tional Academy of Sciences, USA, 83:8390-8394, 1986.

    [Mal95]

    Mam93]

    M. Malek. A connectionist indexing approach for cbr systems. InA. Aamodt and M. Veloso, editors, Proceedings of First Inter-na-

    tional Conferente on Case-Based Reasoning Research and Dcrel-

    opment, pages 520-527, October 1995.

    R. J. Mammone, editor. Artificial Neural Networks for Speech and

    Vision. Chapman & Hall, London, 1993.

    [Lin86b] R. Linsker. From basic network principies to neural architecture:Emergente of orientation columns. Proceedings of the NationalAcademy of Sciences. USA, 83:8779-8783, 1986.

    [Man93] M. Mandischer. Representations and evolution of neural networks.In R. Albreight, C. Reeves, and N. Steele, editors, Artificial Neural

    Nets and genetic algorithms, pages 643-649. Springer verlag. 1993-

    252 253

  • [Mar98] L. F. Marzano . Modelamento de uma caldeira da usiminas atravs

    de redes neurais artificais . Master's thesis, PPGEE-UFMG, 1998.

    [MC98] C. Milar and A. C. P. L. F. Carvalho . Using a neural network

    in a case based reasoning system . In International Conferente

    on Computational Intelligence and Multmedia Applications, pages

    43-48. World Scientific, 1998.

    [MD89a]\ D. Montana and L . Davis. Training feedforward neural networks

    using- genetic algorithms. In 11 th International Joint Confer-

    ence on Artificial Intelligence. pages 762-767. Morgan Kauffmann,

    1989.

    [MD89b] J. Moody and C. Darken. Fast learning in networks of locally-

    tuned processing units. Neural Computation, (1):281-294, 1989.

    [MDC95] A. Mp, S. Deveughle. and \I. Clment. Usino self- organising fea-

    ture maps for water monitoring. In Proceedings of the ICANN 95

    Conferente, volume Forecasting & Marketing. pages 1-6, October

    1995.

    [Min61] M. L. Minsky. Steps towards artificial intelligence. In Proc. of the

    Institute of Radio Engineers 49, pages 8-32, 1961.

    [\1\170] J. M. Mendel and R. W. McLaren. Adaptirve, Learning, and

    Pattern Recognition Systeins: Theory and Applications, chapter

    Reinforcement-learning control and pattern recognition systems,

    pages 287-318. Ne- York: Academic Press, 70.

    [^IN89] M. Mezard and J. Nadal. Learning in feedforward neural networks:

    The tiling algorithm. J. Phys. A: Math and Gen., 22:2191-2203,

    19s9.

    [MP43] W.S. McCulloch and W. Pitts. A logical calulus of the ideas im-

    manent in nervous activity. Bulletin of Mathernatical Biophysics,

    5:115-133, 1943.

    [MP69] M. Minsky and S. Papert. Perceptrons: an introduction to com-

    putational geometry. MIT Press, l\Iassachusetts. 1969.

    [MPRV87] R.J. 1\IcEliece. E.C. Posner. E.R. Rodemich, and S.S. Venkatesh.The capacite of the hopfield associative memory. IEEE Transac-

    tions on Information Theory. 33:461-482. 1987.

    [MPW89] J. Murre, R. Phaf, and G. Wolters. Calco networks: A modular

    approach to supervised and unsupervised learning. In MaureenCaudill and Charles Butler, editors,. International Joint Confer-ente on Neural Networks, pages 649-665, Washington, D.C., June1989. IEEE.

    [MS89] M. C. Mozer and P. Smolensky. Skeletonization: A technique for

    trimming the fat from a network via relabance assessment. InD. S. Touretzky, editor, Advances in Neural Information Process-ing Systems 1, pages 107-115. \Iorgan Kaufmann, 1989.

    [MTH89] G. Miller, P. Todd, and S. Hedge. Designing neural networks usinggenetic algorithms. In Srd International Conferente on GeneticAlgorithms, pages 379-384. Morgan Kauffmann, 1989.

    [MTW94] J. D. McCauley, B. R. Thabe, and A. D. Whittaker. Fat estima-

    tion in beef ultrasound images using texture and adaptive logicnetworks. Transactions of ASAE. 37(3):997-102, June 1994.

    [Mur71] S. Muroga. Threshold Logic and its Applications. Wiley, NewYork, 1971.

    [Mur94] D. Murray. Tuning neural networks with genetic algorithms. AIExpert, 9:27-31. 1994.

    [MWG88] D. A. Mighell. T. S. Wikinson. and J. W. Goodman. Backprop-agation and its application to handwritten signature verification.In R. P. Lippmann, J. E. Moodv.. and D. S. Touretzky. editors,Advances in Neural Information Processing Systems 2. I\IorganKaufmann, 1988.

    [Mye89] C. E. I\Iyers. Output functions for probabilistic logic podes. In

    First IEE International Conferente on Artificial Neural Networks,pages 310-314. London, UK. October 1989. IEE.

    [Ni165] N. Nilsson. Learning MachinFs. Morgan Kaufmann , San Mateo,CA, 1965.

    [NP92] K. S. Narendra and K. Parthasaratlrv. Identification and control ofdynamic systems using neural networks. IEEE Trans. on NeuralNetworks, 1(1) :4-27, 1992.

    [Oja82] E. Oja. A simplified neuron model as a principal component ana-lyzer. Journal of Methematicol &iology, 15:267-273, 1982.

    254 255

  • [OV97] E. Oja and K. Valkealahti. Local independent component analysisby the self-organizing map. In Proc . ICANN'97. 7th InternationalConferente on Artificial Neural Networks, volume 1327 of Lecture

    Notes in Computer Science, pages 553-558. Springer, Berlin, 1997.

    [Par85] D. Parker. Learning logic: Casting the cortei of the human brain

    in silicon. Techiical report, Center for Computational Research in

    Economics and Management Science, MIT, 1985.

    [PB86] B. Porter and R. Bareiss. PROTOS: An experinient in knowledge

    acquisition for heuristic classification tasks. In First International

    Meeting on Advances in Learning (IMAL), pages 159-174. 1986.

    [PBH90] B. Porter, R. Bareiss, and R. Holte. Concept learning and heuris-tic classification in weak-theorv domains. Artificial Intelligence,

    45:229-263, 1990.

    [PC87] S. Patarnello and P. Carnevali. Learning net-,sorks of neurons \vith

    Boolean logic. Europhysics Letters, 4(4):503-508, 1987.

    [Pea92] B. Pearlmutter. Gradient descent: second order momentum andsaturation error. In J. E. Moody, S. Hanson, and R. Lippinann. ed-

    itors. Adz'ances in Neura.l Information Processing Systems 2, pages

    887--894. 1\Iorgan Kaufmann, 1992.

    [Per88] P. Peretto. On learning rules and memory storage abilities of asvm-

    metrical neural networks. Journal de Physique (Paris), 49:711-

    726, 1988.

    [PFF95] V. Porto. D. Fogel, and L. Fogel. Alternative neural network train-ing methods. IEEE Expert, 10:16-22, 1995.

    [PG92] L. Pau and T Gotzche. Explanation facility for neural networks.Journal of Intelligent and Robotic Systems, 5:193-206, 1992.

    [PGD85] L. Personnaz, I. Guyon, and G. Dreyfus. Information storage andretrieval in spin-glass-like neural networks. Journal de Physique

    Letters (Paris), 46:359-365, 1985.

    [PGS90] W. D. Penny, K. N. Gurney, and T. J. Stonham. Reward-penaltytraining for logical neural networks. In Conferente on Artificial In-

    telligence Applications and Neural Networks, page 4, Zurich, June

    1990.

    [Pin87] F. J. Pineda. Generalization of back-propagation to recurrent neu-ral networks. Physical Review Letters, 59:2229-2232, 1987.

    [PMB98] G. Parma, B. R. Menezes, and A. P. Braga. Sliding mode algorithmfor training multi-layer neural networks. IEE Electronics Letters,34(1):97-98, 1998.

    [PNH86] D. Plaut, S. Nowlan, and G. Hinton. Experiments on learning byback-propagation. Technical report, Departament of Computer

    Science, Carnegie-Mellon University, 1986.

    [PP93] V. Petridis and K. Paraschidis. Structural adaptation based on asimple learning algorithm. In International Joint Conferente onNeural Networks, pages 621-623, 1993.

    [PYH95] R. Parekh, J. Yang, and V. Honavar. Contructive neural net-work learning algorithms for multi-category pattern classification.Technical report, Computer Science Department, Iowa State Uni-versity, 1995.

    [Qui86] J. Quinlan. Induction decision trees. Machine Learning, 1(1):81-106, 1986.

    [Qui93] J. Quinlan. C4.5: Programs for Machine Learning. Morgan Kauf-mann, 1993.

    [RC94] E. Reategui and J. A. Campbell. A classification system for creditcard transactions. In M. Keane, J. Haton, and M. Manago, editors,

    Preceedings of The Second lEuropean Workshop on Case-BasedReasoning, pages 167-174, November 1994.

    [RCB95] E. Reategui, J. A. Campbell, and J. A. Borghetti. Using a neuralnetwork to learn general knowledge in a case-based system. InA. Aamodt and M. Veloso, editors, Proceedings of First Interna-tional Conferente on Case-Based Reasoning Research and Devel-

    opment, pages 528-537, October 1995.

    [Ree93] R. Reed. Pruning algorithms - A survey. IEEE Transactions onNeural Networks, 4(5):740-746, 1993.

    [RHW86] D. E. Rumelhart, G.E. Hinton, and R.J. Williams. Learning repre-sentations by back-propagating errors. Nature, 323:533-536, 1986.

    256 1 257

  • [Rie94] NI. Riedmiller. Rprop - . description and implementation. details.

    Technical report, University of Karlsruhe, 1994.

    [RM86] D. E. Rumelhart and J. L.; nlcClelland. Parallel Distributed Pro-

    cessing, volume 1: Foundations. The MIT Press, 1986.

    [Ros58] F. Rosenblatt. The perceptron: A probabilistic model for informa-

    tion storage and organization in the brain. Psychol. Rev.. 65:386-

    408, 1958.

    [Ros62 ] F. Rosenblatt . Principies of Neurodynamics: Perceptrons and the

    theory of brain mechanisms . Spartan Books , New York, 1962.

    [SA77] R. Schank and R . Adelson . Scripts , Plans, Goals and Understand-

    ing an Inquiry into Human Knowledge Structures . Lawrence Erl-

    baum Associates , Publishers, 1977.

    [San92] A. Sankar. Neural tree networks. In R. Alammone. editor. Compu-

    tational Methods for Signal Recovery and Recognition. pages 327-

    367. John Wiley & Sons, 1992.

    [SB95] R. Sun and L. A. Bookman, editors. Computational Architectures

    Integrating Neural and Symbolic Processes: A Perspective on the

    State of the Art. Kluwer Academic Publishers, 1995.

    [SBW91] R.S. Sutton, A.G. Barto, and R. J. Willians. Reinforcement learn-ing is direct adaptive optimal control. In Proc. of the American

    Control Conferente, pages 2143--2146, 1991.

    [SC96] C. Serrano-Cinca . Self-organizing neural networks for financial

    diagnosis . Decision Support Systems , 17(13): 227-238. 1996.

    [Sch82] R. Schank. Dynamic Memory: A Theory of Reminding and Learn-

    iny in Computers and People. Cambridge University Press. 1982.

    [SG87] L. C. Shiue and R. O Grondin. On designing fuzzy learning neuralautomata. In 1`laureen Caudill and Charles Butler, editors. IEEE

    First International Conferente on Neural Networks. volume II.

    pages 541-548, San Diego, California. June 1987. IEEE.

    [Sha89] J. L. Shapiro. Hard learning in Boolean neural networks . In Pro-

    ceedings of the Aleeting on Neural Computing, London. UK. 1989.

    [Sim85] R. Simpson. A computer model of case-based reasoning in prob-lem solving: An investigation in the domain of dispute mediation.Technical report, Georgia Institute of Technology, School of Infor-mation and Computer Science, 1985.

    [SJR96] A. Sabanovic, K. Jezernik, and M. Rodic. Neural network appli-cation in sliding mode control systems . In Proc . IEEE Workshopon Variable Structure Systems , USA, 1996.

    [SJW91] W. Schiffmann, M. Joost, and R. Werner. Performance evalua-tion of evolutionary created neural network tcpologies . In Parallelproblem solving from nature 2, pages 292-296, 1991.

    [S1a91] S . Slade. Reconstructive memory , a computer model. AI Magazine,(7):43-49, 1991.

    [SR89] R. Schank and C. Riesbeck. Inside Case-Based Reasoning.Lawrence Erlbaum Associates, 1989.

    [SR92] C. Skalak and E. Rissland. Arguments and cases: An inevitabletwining. Artificial Intelligence and Law, An International Journal,(7):3-48, 1992.

    [SS96 ] L. Sciavicco and B . Siciliano . Modeling and control of robot maniu-lators . McGraw-Hill, USA, 1996.

    [Sut88] R. S. Sutton. Learning to predict by the method of temporaldifferences . Machine Learning , 3:9-44, 1988.

    [Syc88] K. Sycara. Using case-based reasoning for plan adaptation andrepair. In Case-Based Reasoning Workshop, DARPA, pages 425-434. Morgan Kaufmann, 1988.

    [TA77] A. N. Tikhonov and V. Y. Arsenin. Solutions of Ill-Posed Prob-lems. V.H. Winston & Sons, John Wiley & Sons, WashingtonD.C., 1977. Translation editor Fritz John.

    [Tay72] J. G. Taylor . Spontaneous behaviuor in neural networks . Journalof Theoretical Biology , 36:513-528, 1972.

    [Tei98 ] R. Teixeira . Controle de um manipulador puma 560 atravs deredes neurais artificiais com adaptao on-line . Master's thesis,PPGEE-UFMG, 1998.

    258 259

  • [TG91] V. Tyba and K. Coser . Self-organizing feature maps for proc- [WD92]cess control in chemistry . In International Conferente on Artificial

    Neural Networks-ICANN '91, pages 847-852, 1991.[Wei90]

    C. J. C. H. Watkins and P. Dayan. Q-learning. Machine LearningJournal. 8(3/4), 1992. Special Issue on Reinforcement Learning.

    G \Veiss. Combining neural and evolutionary learning: aspects[Tho11] E. L. Thorndike . Animal Intelligence . Darien, 1911. and approaches. Technical report, Technical University of \Iunich.

    [TOD95] A. Tickle , M. Orlowski , and J . Diederich . DEDEC: decision de-

    tection by rule extraction froco neural networks . Technical report, [Wer74]Queensland University of Technology, 1995.

    1990.

    P. Werbos. Beyond Regression : New Tools for Prediction andAnalysis in the Behavioral Sciences. PhD thesis, Harvard Univer-sity. 1974.

    [TS92] G. Tambouratzis and T. J. Stonham . Implementing hard self-

    organising tasks using logical neura 1 networks. In Proceedings of [\Ver90]the ICANN. 92 Conferente , pages 643-646, Brighton , UK, Septem-

    ber 1992 . Elsevier.

    P. Werbos. Backpropagation trough time: \Vhat it does and to doit. In Proceedings of IEEE, volume 78, pages 1550-1560. 1990.

    [WH60] B. Widrow and M.E. Hoff. Adaptative switching circuits. Insti-(UBB95 ] L. Uebel, S. Botelho , and D . Barone . Contrle inteligente de tute of Radio Engineers, Western Electronic Show and Conren-

    robs mveis autnomos : RAM x Fuzzy. In Anais do II Simpsio

    Brasileiro de Redes Neurais , pages 43-48 , So Carlos , Brasil, outu-tion, 1960.

    [Utk78]

    bro 1995. [WHH+89]

    Sliding modes and their application in Variable Struc-V I Utkin

    A. Waibel, T. Hanazawa, J.G. Hinton, K. Shikano. and K. Lang.Phoneme recognition using time-delas neural networks. IEEE.4S-

    VKR93]

    Wai89 ]

    . . .

    ture Systems. MIR, Moscow, 1978.

    [Whi89]S. Venkatamaran , R. Krishnan , and K . Rao. A rule-case based

    system for image analysis . In First European Workshop on Case-

    Based Reasoning , pages 410-415, 1993.

    A. Waibel. Modular construction of time-delay neural networks

    SP Magazine, 37:328-339, 1989.

    D. Whitley. The GENITOR algorithm and selection pressure: whyrank-based allocation of reproductive trials is best. In 3rd Interna-tional Conferente on Genetic Algorithms, pages 116-121. MorganKauffmann, 1989.

    Wan90a]

    [Wi171]for speech recognition . Neural Computation , 1:39-46, 1989.

    E. A. Wan. Temporal backpropagation : An efficient algorithm

    D. J. Willshaw. Alodels of Distributed Associative lllemory. PhDthesis, University of Edinburgh, 1971.

    for finite impulse response neural networks . In Proc . of the 1990Connectionist Models Summer School, 1990.

    [Wi195] J. Wilder. Face recognition using transform coding of gray scaleprojections and the neural tree network. In Richard \Iammone,editor, Artificial neural networks for speech and vision , pages 520-

    [Wan90b] E . A. Wan. Temporal backpropagation for fir neural networks. InProc. IEEE Int. Joint Conf. Neural Networks, 1990.

    530. Chapman and Hall, 1995.

    [WP89] R.J. Williams and J. Peng. Reinforcement learning algorithms as[WBLH69] D.J. Willshaw , O.P. Buneman, and H . C. Longuet-Higgins. Non-

    holographic associative memory . Nature, 222, 1969.function optimizers . In International Joint Conference on NVeuralNetworks, volume 2, pages 89-95, Washington 1989 , 1989. IEEE,New York.

    [WC96] B. Whitehead and T . Choate . Cooperative-competitive geneticevolution of radial basis function centers and widths for time series [WS88] K Y. M. Wong and D. Sherrington . Storage properties of randomlyprediction . IEEE Transactions on Neural Networks , 7:869-880,

    1996.connected Boolean ne ural networks for associative memore. Eu-rophysics Letters, 7(3):197-202, 1988 .

    260 1 261

  • [WSE92] D. Whitley, J. Schaffer, and L. Eshelmau. Combinations of genetic

    algorithins and neural networks : a survey of Lhe state of the art. In

    I?fcr-nati.onal Confeicncc on. ('ontbi.n.n.ti,oii , n/' grvu.rti.r algori.th.in.ti

    and neural networks , pages 1--37. IEEE Press, 1992.

    [WZ89] R.J. Williams and D. Zipser. A learning algorithin for continual-

    ly running fully recurrent neural networks. Neural Computation,1:270-280, 1989.

    [XJH95] L. Xu, M. Jordan, and G. Hinton. An alternative model for mix-tures of experts. In G. Tesauro, D. S. Touretzky, and T. K. Leen,

    editors, Advances in Neural Information Processing Systems 2,

    pages 633-640. Morgan Kaufmann, 1995.

    [YKC89] A. L. Yuille, D. M. Kammen, and D. S. Cohen. Quadrature anddevelopmeiit of orientation selective cortical cells by hebb rules.

    Biological Cybernetics, 61:183-194, 1989.

    [Yod94] M. Yoda. Predicting the tokyo stock market. In G. Deboeck,

    editor, Trading on the Edge: Neural, Genetic and Fuzzy Systemsfor Chaotic Financial Markets, pages 66-79. John Wiley & Sons,

    1994.

    [Zad71] L. A. Zadeh. Toward a theory of fuzzy systems. In R. E. Kalmanand N. DeClaris, editors, Aspects of network and systern, theory,

    pages 469-490. Rinehart and Winston, 1971.

    [ZGLC95] E. Zalama, P. Gaudiano, and J. Lopez-Coronado. A real-time,unsupervised neural network for the low-level control of a mobilerobot in a nonstationary environment. Neural Networks, 8:103-

    123, 1995.

    262