Tesis Redes Neuron Ales Jmfa

  • Upload
    leonloa

  • View
    84

  • Download
    0

Embed Size (px)

Citation preview

CENTRODEINVESTIGACIONYDEESTUDIOSAVANZADOSDELINSTITUTOPOLITECNICONACIONALUnidadCiudaddeMexicoDepartamentodeControl AutomaticoCINVESTAV-IPNAprendizajeNeuronalpara el ControldeSistemas No LinealesTesisquepresenta:JoseMartnFloresAlbino1ParaobtenerelgradodeDoctorenCienciasEnlaespecialidaddeControl AutomaticoDirectoresdeTesis:Dr.IerohamSolomon BarouhDr.JuanCarlosMartnez GarcaMexico, D.F. 28deMayodel20041BecarioCONACYT, No. 72355.Enestedocumentoseutilizan:LATEX2ecompilador:MiKTeX2.1http://www.miktex.orgeditor:WinEdtver. 5http://www.winedt.comdibujos:CorelDrawver. 5.00.E2Simulacion yGracas:MatLabver. 5.2.0.3084Simulink.AgradecimientosHa sido muy largo el tiempo que he tomado para terminar este trabajo, el resultado de todo sera evaluado al momentodequeseadeutilidadparaotros, estehasidoelobjetivodesdesuinicio.El quesededicaalainvestigacion, enfrentael retodel necesarioaislamientoenquelasreexionesseconciben.Locom unesquenohallaalguiencercacuandoselograundespejeexitosodelavariablequetantosebuscaba; ni seescuchan aplausos al ver que una simulacion por computadora no se va al innito. Pero aquello que nos alimenta a seguireslacuriosidadQuepasas...?C omoocurre...?Etcetera.Perocuando sedesciendedeestanubedeaparente aislamiento, notamos quenuncaseestuvosolo, quehay muchaspersonasquehanapoyadodeformadirectayotrasquesindarsecuentanoshandandosualientoparacontinuar.Graciasatodos...Dr.IerohamSolomonBarouhSinsuapoyoyejemploestetrabajojamassehubieseconcluido.Dr.JuanCarlosMartnezGarcaPorconar enmiesfuerzo.DepartamentodeControl AutomaticoYCentrodeInvestigaci onyEstudiosAvanzadosPorserel lugardondeconocamisprofesoresycompa neros.ConsejoNacionaldeCienciayTecnol ogiaPorserlainstituci onquemebrind oelapoyoecon omicoparalograresteobjetivo.InstitutodeInvestigaci onyDesarrolloTecnol ogicoSecretaradeMarina,ArmadadeMexicoPorserel lugar quemeabriolaspuertasparadesarrollarmeymedarmelaoportunidaddeterminarestetrabajo.Ami mamayhermanasPorsuinnitapacienciaycomprensi on.LilianaVicente noLoyaPortodotucari no.Edited by Foxit ReaderCopyright(C) by Foxit Software Company,2005-2008For Evaluation Only..ResumenEnlassiguientespaginassepresentael trabajorealizadodurantemi estanciaenel CentrodeInvestigaci onydeEstudiosAvanzadosdel InstitutoPolitecnicoNacional conel prop ositodeobtenerel gradodeDoctorenCienciasdelDepartamentodeControlAutomatico.La investigacion se enfoco en el estudio de una arquitectura de Red Neuronal Recurrente y su algoritmo de aprendizajedel tiporetropropagaciondinamicoparasuaplicacionentareasdeidenticacionycontrol desistemasnolineales. Serealizaronimplementacionesensimulacionyenunprototipoentiemporeal parael control deunmotordecorrientedirecta.Losresultadosproducidoshansidoalentadoresyanimanaplantearsemetasdemayorcomplejidad.El deseonaldeesteescritoesel degenerarnuevaspreguntasyretosenlaaplicaciondelasredesneuronalesparael controldesistemascomplejos.JoseMartnFloresAlbino,8demayode2004.IndicegeneralIndicegeneral IIndicedeguras IVIndicedetablas VIIIHistoria XISimbologa XIII1. Introducci on:RedesNeuronales 11.1. RedesNeuronalesBiol ogicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.1.1. ModeloMatematico. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21.2. RedesNeuronalesArticiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.2.1. Topologas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61.2.2. RedesNeuronalesArticialesEstaticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61.2.3. RedesNeuronalesArticialesDinamicas(Recurrentes) . . . . . . . . . . . . . . . . . . . . . . . 91.2.4. ProcesodeAprendizaje . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131.3. Conclusi on. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202. RedNeuronalRecurrenteEntrenable 212.1. EstructuradeunaRNRE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212.2. PropiedadesdeObservabilidadyControlabilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222.2.1. Observabilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232.2.2. Controlabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242.3. RedNeuronalRecurrenteEntrenable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262.3.1. LeydeAprendizaje . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282.4. RedNeuronalRecurrentedeTresCapas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312.4.1. LeydeAprendizaje . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 322.5. RNREconPredicciondelaSalida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 332.5.1. LeydeAprendizaje . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 342.6. RNREconRetardoenlaRetroalimentacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 352.6.1. LeydeAprendizaje . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 352.7. RNREconEstadosAcotados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37IINDICEGENERALINDICEGENERAL2.7.1. LeydeAprendizaje . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 372.8. Condici ondeEstabilidadparalosPesos J . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 392.9. PesosdeCompensacionci0,bi0. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 392.10. EscalamientodelaFunci ondeActivacion,(x) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 402.11. Conclusi on. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 423. Identicaci ondeSistemas 433.1. AproximaciondeFunciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 433.1.1. RedesNeuronalesEstaticasenlaAproximaciondeFunciones . . . . . . . . . . . . . . . . . . . . 443.2. Identicacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 513.3. Metodos deIdenticacion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 523.3.1. AlgoritmodeProyeccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 523.3.2. AlgoritmodeProyeccionOrtogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 553.3.3. AlgoritmodeMnimosCuadrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 573.3.4. ExitacionPersistente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 603.3.5. AlgoritmosdeIdenticacionClasicosyRedesNeuronales . . . . . . . . . . . . . . . . . . . . . . 623.4. IdenticaciondeSistemaUsandoRedesNeuronalesEstaticas . . . . . . . . . . . . . . . . . . . . . . . . 633.4.1. SistemasLineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 633.4.2. SistemasNoLineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 653.5. IdenticaciondeSistemasUsandoRedesNeuronalesDinamicas . . . . . . . . . . . . . . . . . . . . . . . 673.6. IdenticaciondeSistemasUtilizandoRNRE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 703.6.1. Identicacion. del ModelodeVel.deunMotor decc.usandounaRNRE . . . . . . . . . . . . . 703.6.2. Identicacion noLinealUsandoRNRE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 723.6.3. Identicacion deunSistemanoLinealdedosEntradasdosSalidas. . . . . . . . . . . . . . . . . 743.6.4. Identicacion M ultimodelo conRNRE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 763.6.5. Identicacion enTiempoRealdeunMotordecc. . . . . . . . . . . . . . . . . . . . . . . . . . . 803.7. ComplejidadComputacional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 863.8. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 874. ControldeSistemas 894.1. RedesNeuronalesenelControldeSistemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 904.2. Modeladodecontrolador . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 914.3. Controlpormodeloinverso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 944.4. ControlAdaptable. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1024.4.1. ControlAdaptableIndirecto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1044.4.2. ControlAdaptableDirecto,[16] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1124.5. ControlporModelodeReferencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1174.5.1. Controlpormodelodereferencia:Enfoqueneuronal[28] . . . . . . . . . . . . . . . . . . . . . . 1174.5.2. Controlpormodelodereferencia:Sistemaslineales . . . . . . . . . . . . . . . . . . . . . . . . . 1214.6. ControlporModeloInterno,[58] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1264.6.1. ControlporModeloInternoRedesNeuronales . . . . . . . . . . . . . . . . . . . . . . . . . . . 1294.7. ControldeSistemaspormediodeRNRE. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131ii JMFAINDICEGENERALINDICEGENERAL4.7.1. SistemasdeControlAdaptableIndirectoUsandolosParametrosObtenidosporlaRNRE. . . . . 1314.7.2. SistemasdeControlAdaptableDirectoUsandoRNRE . . . . . . . . . . . . . . . . . . . . . . . 1364.7.3. ControlenTiempoRealdeunMotordeCorrienteContinua . . . . . . . . . . . . . . . . . . . . 1404.8. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144ConclusionesGeneralesyPerspectivas 145Bibliografa 147A. ArtculosPublicados 151A.1. CongresosNacionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151A.2. CongresosInternacionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151A.3. RevistasNacionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152A.4. AnexosenLibros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152B. ProgramasdeC omputo 153B.1. AproximaciondeunaFunci onNoLinealporMediodeunaRNMC . . . . . . . . . . . . . . . . . . . . . 153B.2. AproximaciondeunaFunci onNoLinealporMediodeunaRNFRB . . . . . . . . . . . . . . . . . . . . . 155B.3. AlgoritmodeProyeccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156B.4. AlgoritmodeProyeccionOrtogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158B.5. AlgoritmodeMnimosCuadrados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159B.6. Ident.Vel.Motor cc.conRNEstatica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160B.7. Ident.NolinealconRNEstatica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163B.8. Ident.Vel.Motor cc.conRNRE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166B.9. Ident.NoLinealconRNRE. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169B.10.Ident.NoLinealMIMOconRNRE. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171B.11.Ident.M ultimodelo NoLinealMIMOconRNRE. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174B.12.ModeladodeControlador . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180B.13.CinematicaInversadedosEslabones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183B.14.CinematicaDirectadedosEslabones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186B.15.Ctrl.Inverso:Ident.Mod.Directo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189B.16.Ctrl.Inverso:Metodoespecializado. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192B.17.Ctrl.AdaptableIndirecto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194B.18.Ctrl.AdaptableIndirecto2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198B.19.Ctrl.AdaptableDirecto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203B.20.Ctrl.porModelodeReferencia:MotordeCD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205C. MotordeCorrienteContinua 207C.1. ModeloMatematico. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207C.2. Motor deccdeImanPermanente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208C.3. ControldeVelocidadenRegimenEstacionario. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209C.4. ModeloDiscretodeunMotor decc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209JMFA iiiINDICEGENERALINDICEGENERALD. EcuacionesdeEntrenamientoparaRedesNeuronalesRecurrentes 213D.1. RedNeuronalRecurrente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213D.1.1. PesosdelaCapadeSalida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213D.1.2. PesosdelaCapaOculta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214D.1.3. PesosdelaCapadeEntrada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214D.2. RNRconTresCapas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215D.2.1. PesosdelaCapadeSalida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215D.2.2. PesosdelaCapaOculta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215D.2.3. PesosdeEntrada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215D.3. PredicciondelaSalida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216D.3.1. PesosdelaCapadeSalida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216D.3.2. PesosdelaCapaOculta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217D.3.3. PesosdelaCapadeEntrada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217D.4. EstadosAcotados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217D.4.1. PesosdelaCapadeSalida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217D.4.2. PesosdelaCapaOculta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218D.4.3. PesosdelaCapadeEntrada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218E. PrototipoExperimental 219E.1. DescripcionGeneral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219E.2. ControlProporcionalIntegralDerivativoDiscreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221E.3. Filtrado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221F. AlgoritmodeRetropropagaci on 227G. Representaci ondeSistemas 231G.1. ModelosDiscretosdeSistemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231G.1.1. ModeloDARMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231G.1.2. ModeloRegresor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232G.1.3. ModeloenVariablesdeEstado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232Indicealfabetico 235iv JMFAIndicedeguras1.1. Estructuradeunaneuronabiol ogica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21.2. Neuronaarticialelemental. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41.3. Funcionesdeactivacioncomunes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41.4. Derivadasdelasfuncionesdeactivaci on. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.5. Topologas deredesneuronalesarticiales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61.6. Tiposderedesneuronales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.7. Redneuronaldem ultiplescapas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81.8. Redneuronaldefuncionesradialesbasicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81.9. NeuronadeHopeld. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101.10. ReddeHopeldcontresneuronas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101.11. MaquinadeBoltzmann. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111.12. Estructurasderedesneuronalesrecurrentes(local-recurrent-global-feedforward). . . . . . . . . . . . . . . 121.13. Modelosparaunsistemadesconocido nolinealdiscretodeunaentradayunasalida. . . . . . . . . . . . 131.14. EstructuradelareddeJordanydeElman. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141.15. DivisiondelAprendizaje. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141.16. ParadigmasdeAprendizaje . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151.17. RedNeuronalcontrescapas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171.18. Modelodesensibilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191.19. Retropropagacion atravesdel tiempo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192.1. Estructurageneraldeunaredneuronalhibrda. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222.2. Ejemplodeunaredneuronalrecurrenteentrenable. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222.3. Diagramaabloquesdeunaredneuronalrecurrente. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232.4. Redneuronalrecurrenteentrenable. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262.5. Redneuronalrecurrentedetrescapas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312.6. Redneuronalrecurrenteconpredicciondelasalida. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 332.7. Redneuronalconretardoenlaretroalimentacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 352.8. Redneuronalrecurrenteconestadosacotados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 372.9. Funci ondeActivaciontanh(x).. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 413.1. Procesodeproximacionenlneadeunafunci on.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 463.2. Aproximaciondeunafunci onatravesdeunaredneuronalm ulticapa. . . . . . . . . . . . . . . . . . . . 473.3. Aproximaciondeunafunci onnolinealutilizandounaredneuronaldefuncionesradialesbasicas. . . . . . 49VINDICEDEFIGURASINDICEDEFIGURAS3.4. Problemadeidenticaciondesistemas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 513.5. Algoritmodeproyeccion- Interpretaciongeometrica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 533.6. Interpretaciondelalgoritmodeproyeccion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 533.7. Operaciondel algoritmo deproyeccion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 543.8. Operaciondel algoritmo deproyeccion ortogonal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 563.9. Operaciondel algoritmo demnimoscuadrados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 613.10. Redesneuronalesenlosalgoritmos deidenticacion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 623.11. Identicaciondeunsistemalineal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 633.12. Identicaciondeunsistemalineal(entrenamiento). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 643.13. Identicaciondeunsistemalineal(generalizacion). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 653.14. IdenticacionnolinealusandounaRNEstatica(Entrenamiento). . . . . . . . . . . . . . . . . . . . . . 663.15. IdenticacionnolinealusandounaRNEstatica-Generalizacion.. . . . . . . . . . . . . . . . . . . . . . . 673.16. Redneuronalestaticaenlazocerrado. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 683.17. Modelogeneraldeunaredneuronalrecurrente. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 683.18. Modeloderedneuronalrecurrentesimplifacada. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 693.19. Identicaciondelavel.Motordecc.usandounaRNRE . . . . . . . . . . . . . . . . . . . . . . . . . . 713.20. Identicaciondeunsist.nolinealusandoRNRE. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 733.21. Identicaciondeunsist.nolinealMIMOUsandoRNRE . . . . . . . . . . . . . . . . . . . . . . . . . . 753.22. IdenticacionM ultimodelo UsandoRNRE+. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 773.23. IdenticacionM ultimodelo UsandoRNRE. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 783.24. IdenticacionM ultimodelo UsandoRNRE. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 793.25. Lugardelasracessistemaretroalimentado. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 803.26. Identicacionentiemporeal deunmotor decc. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 823.27. Identicacionmultimodeloentiemporeal deunmotordecc. . . . . . . . . . . . . . . . . . . . . . . . . 843.28. Identicacionmultimodeloentiemporeal deunmotordecc. . . . . . . . . . . . . . . . . . . . . . . . . 854.1. Modeladodecontrolador. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 914.2. Ejemplodel esquemapormodeladodecontrolador. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 924.3. Resultadosdelesquemademodeladodecontrolador. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 934.4. Controlpormodeloinverso.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 964.5. Modeloinverso. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 974.6. Descripciondeunmecanismodedoseslabones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 984.7. Cinematicadirectadelmecanismo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 994.8. Cinematicainversadel mecanismo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 994.9. Posiciondeloseslabones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1004.10. Controlinversoespecializado. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1014.11. Controlpormodeloinverso(Metodoespecializado) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1034.12. ControlAdaptable. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1044.13. ControlAdaptableIndirectoIdenticacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1094.14. ControlAdaptableIndirectoControl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1104.15. ControlAdaptableIndirecto-Enlnea . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111vi JMFAINDICEDEFIGURASINDICEDEFIGURAS4.16. Componentesdel controldirecto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1134.17. ControlAdaptableDirecto-Epoca1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1154.18. ControlAdaptableDirecto-Epoca100 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1164.19. ControlpormodelodeReferencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1174.20. Gradorelativo:linealizacion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1184.21. Diagramaabloquesdel Ctl.ModelodeReferencia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1194.22. Diagramaabloquesdel Ctl.ModelodeReferencia-RedesNeuronales. . . . . . . . . . . . . . . . . . . . 1204.23. ControlpormodelodeReferencia2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1234.24. ControlporModelodeReferenciaMotor deCC. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1254.25. ControlporModeloInterno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1274.26. ControlporModeloInternoEq.Lazocerrado. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1294.27. ControlporModeloInternoRedesNeuronales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1304.28. ControlporModeloInternoEntrenamiento. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1304.29. ControlAdaptableIndirectoRNRE. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1314.30. ControlAdaptableIndirectoP,PI. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1344.31. ControlAdaptableIndirectoSeguimiento deTrayectoria.. . . . . . . . . . . . . . . . . . . . . . . . . . 1364.32. ControlAdaptableDirectoModeloInverso. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1374.33. ControlAdaptableDirectoModeloInverso. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1394.34. Plataformaexperimental . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1404.35. Esquemadecontrolentiemporeal deunMotor CC. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1414.36. ControlenTiempoRealdeunMotor deCCPosicion. . . . . . . . . . . . . . . . . . . . . . . . . . . . 1424.37. ControlenTiempoRealdeunMotor deCCVelocidad. . . . . . . . . . . . . . . . . . . . . . . . . . . 143C.1. Motor decorrientecontinua. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207C.2. Modelomatematicodeunmotor dec.c. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210C.3. TransformadadeLaplacedeunmotordecc. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210C.4. Respuestaal escalonMotordec.c. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212D.1. Redneuronalrecurrente 2, 3, 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213D.2. Redneuronalrecurrentecontrescapas 2, 3, 2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215D.3. Redneuronalrecurrenteconprediccionalasalida 2, 3, 2 . . . . . . . . . . . . . . . . . . . . . . . . . 216D.4. Estadosacotados 2, 3, 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218E.1. Prototipoexperimentaldelaboratorio. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219E.2. Respuestaal escalondelmotordecc. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220E.3. DiagramadeBodedeunderivador. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222E.4. DiagramadeBode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222E.5. DiagramadeBodedeunltroButterworthpasa-altos. . . . . . . . . . . . . . . . . . . . . . . . . . . . 223E.6. DiagramadeBodedeunltroButterworthpasa-bajos. . . . . . . . . . . . . . . . . . . . . . . . . . . 223E.7. DiagramadeBodedeunltropasa-banda(continuo). . . . . . . . . . . . . . . . . . . . . . . . . . . . 224E.8. DiagramadeBodedeunltropasa-banda(Discreto). . . . . . . . . . . . . . . . . . . . . . . . . . . . 224E.9. DiagramadeBodedeunltroButterworthpasa-bajosdetercerorden. . . . . . . . . . . . . . . . . . . 224JMFA viiINDICEDEFIGURASINDICEDEFIGURASE.10. DiagramadeBodedeunltropasa-banda. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224E.11. Filtrodigitalpasabanda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225F.1. Esquemadelmetododeaprendizajeporretropropagacion. . . . . . . . . . . . . . . . . . . . . . . . . . 230viii JMFAIndicedetablas1.1. Topologa deunaredneuronalm ultiples capas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73.1. Resumenderesultadosdegeneralizaci onparael ejemplo3.1. . . . . . . . . . . . . . . . . . . . . . . . . 483.2. Resumenderesultadosdegeneralizaci onparael ejemplo3.2. . . . . . . . . . . . . . . . . . . . . . . . . 503.3. Resumendelalgoritmodeidenticaciondeproyeccion. . . . . . . . . . . . . . . . . . . . . . . . . . . . 553.4. Resumendelalgoritmodeidenticaciondeproyeccionortogonal. . . . . . . . . . . . . . . . . . . . . . . 573.5. Resumendelalgoritmodeidenticaciondemnimoscuadrados. . . . . . . . . . . . . . . . . . . . . . . . 613.6. ParametrosdeunaRNRE-Identicaci on deunMotorentiemporeal.. . . . . . . . . . . . . . . . . . . . 813.7. ParametrosdeunaRNRE-Identicaci on deunMotorentiemporeal.. . . . . . . . . . . . . . . . . . . . 833.8. Desempe noentreunaRNestaticayunaRNRE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 874.1. Resultadosdelmodeloneuronalinverso. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100C.1. Parametrosdeunmotor decc. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212IXINDICEDETABLASINDICEDETABLASx JMFAHistoria1990Narendra&Partasaraty. . . . . . . . . . Presentan el algortimo Retropropacion Dinamico para entrenar redesm ulticapas paraidenticacion ycontroldesistemas.1988Anderson&Rosenfeld . . . . . . . . . . . Presentanlas Funciones Radiales Basicas (RBF) comoalternativaparalosperceptronesm ulticapa.1986Rumerlhart&MacClelland. . . . . . . Presentanel algoritmoRetropropagacionparael entrenamientodelperceptronm ulticapa.1985Ack,Hinton&Sejnowski . . . . . . . . Denenel aprendizajeestocasticoparalamaquinadeBoltzmann.1983Barto,Sutton&Anderson . . . . . . . Denenel aprendizajereforzado(ReinforcementLearning).1983Kirkpatrick,Galatt&Vecchi . . . . . Presentan el aprendizaje por templado simulado (simulated-annealing) pararesolverproblemasdeoptimizacion.1982Kohonen. . . . . . . . . . . . . . . . . . . . . . . . Presentansusmapasauto-organizados.1983Cihen&Grossberg . . . . . . . . . . . . . . Presentan las memorias direccionadas por contenido (content-addressablememories).1982Hopeld . . . . . . . . . . . . . . . . . . . . . . . . Presentaunaredneuronal dinamica, denesufunci ondeenergaconsiderandosimetraenlospesos.1980Grossberg . . . . . . . . . . . . . . . . . . . . . . . Trabajaconel aprendizajecompetitivo,estableceel nuevoprincipiodeauto-organizacion.1979Utley . . . . . . . . . . . . . . . . . . . . . . . . . . . Integra lateora delas comunicaciones de Shanon con elaprendizajesinapticoneuronal.1973Malsburg . . . . . . . . . . . . . . . . . . . . . . . Presenta los mapas auto-organizados entrenados por una ley deaprendizajecompetitiva.1972Anderson,Kohonen&Nakano . . . Presentanunaleydeaprendizajeenunamatrizdecorrelaci on.1969Minski&Papert . . . . . . . . . . . . . . . . Presentanel perceptrondeunacapaydem ultiples capas.1962Widrow. . . . . . . . . . . . . . . . . . . . . . . . . Presenta una estructura para adalines de m ultiples capas (Madaline).1960Widrow&Ho. . . . . . . . . . . . . . . . . . Presentanel algoritmodemnimoscuadrados, usadoparael entre-namientodeAdaline(adaptivelearningelement).1958Rosenblatt . . . . . . . . . . . . . . . . . . . . . . TeoremadeconvergenciadelPerceptron.1958Rosenblatt . . . . . . . . . . . . . . . . . . . . . . PresentasumodelodelPerceptron.1954Minsky. . . . . . . . . . . . . . . . . . . . . . . . . . Presenta su tesis Doctoral Theory of Neural-Analogue ReinforcementSystemanditsApplicationstotheBrain-ModelProblem.1956Holland,Habitt&Duda . . . . . . . . . PresentanunasimulacionporcomputadoradelaleydeaprendizajedeHebb.1949Hebb . . . . . . . . . . . . . . . . . . . . . . . . . . . Explica una regla de aprendizaje siologica para la modicaci on sinap-tica.1948Wiener . . . . . . . . . . . . . . . . . . . . . . . . . . Establecelas bases paralateoradel control, comunicacionesyelaprendizaje.1943MacCulloch&Pitts . . . . . . . . . . . . . Describenlaoperaciondeunaredneuronalysumodelo.XIINDICEDETABLASINDICEDETABLASxii JMFASimbologat R+. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Tiempocontinuo.k Z+. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . N umerodemuestra(tiempodiscreto).i, j, n, r Z+. . . . . . . . . . . . . . . . . . . . . . Enterospositivos(ndices).wij, Tij R. . . . . . . . . . . . . . . . . . . . . . . . . . Pesodelaconexionquevadesdelasalidadelaneuronaj hastalaentradadelaneuronai.() . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Funci ondeactivacion.x Rnm: [x]T. . . . . . . . . . . . . . . . . . . . . . . Transpuestadel matrizx.f(x),f(x),ddxf(x) . . . . . . . . . . . . . . . . . . . Derivadadelafunci onf(x).(A) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Si Aes una matriz, (A) es el espectrode A(conjuntode valorespropios).Ker(C) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . EspacionulodelatransformacionlinealdenidaporC.det(A) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . DeterminantedelamatrizA.A1 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Indica que el subespacio 1es invariante bajo la transformaci on lineal A.B = Im(B) . . . . . . . . . . . . . . . . . . . . . . . . . . EspacioimagendelatransformacionlinealB.o=< A, B>. . . . . . . . . . . . . . . . . . . . . . . Espaciodealcanzabledelpar(A, B).Oc= Oc(A, B) . . . . . . . . . . . . . . . . . . . . . . Es el espacio coordenado A-invariante mas grande incluido en el Ker(C).J(k), E(k) R. . . . . . . . . . . . . . . . . . . . . . . Funci ondecosto.E(k)wij. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . DerivadaparcialdeE(k)conrespectoawij.Siy(k), x(x) Rn:y(k)x(x). . . . . . . . . . . . . Jacobianodey(x)conrespectoalvectorx(k).Siy(k) Ryx(x) Rn:y(k)x(x). . . . . . . Gradientedey(x)conrespectoal vectorx(k).sli(k) =

nl1r=1wirxnl1r. . . . . . . . . . . . . . . Combinacionlinealdelasentradasalaneuronaidelnivell.li(k) =E(k)sli(k). . . . . . . . . . . . . . . . . . . . . . . . Gradientelocaldel nodo ienel nivell.q1x(k + 1) x(k) . . . . . . . . . . . . . . . . . . Operadorretardo.M1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MatrizinversadeM.dimo = n. . . . . . . . . . . . . . . . . . . . . . . . . Dimensiondelsupespacioo.XIIIINDICEDETABLASINDICEDETABLASxiv JMFACaptulo1Introduccion:RedesNeuronalesEnestecaptuloseexponenalgunosdelosfundamentosqueintroducealacompresiondelasredesneuronales,susprincipiosbiol ogicos ylosmodelosmatematicospropuestos.1.1. RedesNeuronalesBiologicasLas redes neuronales articiales sonunamuestramas del interes humanopor emular algunadelas capacidadesnaturales de los seres vivos. Las redes neuronales biol ogicas exhibencaractersticas importantes que las hacenmuyatractivas para imitar; entre estas caractersticas se pueden citar las siguientes: memorizacion, especializaci on, paralelismo,robustez,densidad,generalizacionyaprendizaje.Losestudiossobreel sistemanerviososeremontaal a node1889,porlasobservacionesrealizadasporel cientcoespa nol SantiagoRamonyCajal (1852-1934,premioNobel deMedicina1906).RamonyCajal report oqueel sistemanerviosoestacompuestodeunidadesindividualesquesonestructuralmenteindependientes, cuyocontenidointernonoentraen contacto directo. Estasunidades son lascelulas neuronales. A estahip otesis seleconoce como teora neuronal.Losseresvivos(agentes)poseenlahabilidaddeadaptarseasuambiente.Loscambiosexternossonlosestmulosylas reaccionesson su respuesta. En los seres mas simples la relacion causa-efecto es directa; esto signica que la presenciadeunestimulodisparaunareacciondeterminada. Enlosseresmascomplejoslarespuestaalosestmulosimplicalaintegracion y sincronizacion devarioseventos dedistintas partes delcuerpo,lo anterior esposible por la presenciade unmecanismo de control (controlador) entre los estmulos y las reacciones. En los organismos multicelulares este controladoremplea dos tipos de sistemas: la regulacion qumica y la regulacion nerviosa. En la regulacion qumica, sustancias llamadashormonasson fabricadas por ungrupo bien denido de celulas y transportadas por lasangre a otras partesde cuerpo endondeexistencelulasobjetivo, aqu lashormonasalteranel metabolismodeestascelulasoincitanlasntesisdeotrassustancias.Elsistemanerviososedene comoungrupoorganizado decelulas llamadasneuronas,dedicadas alaconducci on deimpulsos(cambiobrevedelacargaelectricaenlamembranadelacelula) desdeunreceptorsensorial queatraviesaunareddenervioshastaunefector. El sistemanerviosoestaespecializadoenlaconducci ondeimpulsoselectricos,loquepermiteunarapidareaccionalosestmulosdelambiente.En el ser humano se estima que existen 10, 000, 000, 000 de neuronas. En el cuerpo de una celula neuronal se identicantresestructuras: el soma, el axonylasdentritas. El somaesel cuerpoprincipal delaneurona, enel seconcentranlos organosresponsablesdesumetabolismoydel intercambioelectroqumicoproducidocomorespuestadelaneurona. Elaxoneslaextremidadmaslargadelaneurona,espordondesetransmitenlosimpulsosnerviososhaciaotrasneuronas,esdecir, representalaterminal desalidadelaneurona. Lasdentritassonvariasextremidadesdelongitudmascortaqueel axon,sufunci onesdeserlasterminalesreceptorasdelosimpulsosprovenientesdeotrasneuronas.Al puntodetransicionentreaxon-dentritaselellamasinapsis, enlagura1.1sepresentaundibujodeunacelulaneuronal, endondesepuedenidenticar lasestructurasquelaintegran.El mecanismodeconducci ondelosimpulsosnerviososenlasneuronasesdiferenteal usadoporlosmetales.Enlasneuronaslatransmisionelectricasedebeal intercambiodeiones(atomosquehanganadooperdidoelectrones);porel11.1.RedesNeuronalesBiol ogicas Captulo1. Introducci on:RedesNeuronalesAxnSomaDentritaSinapsisFigura1.1:Estructuradeunaneuronabiol ogica. Sedis-tinguentresestructurasenunacelulaneuronal:el soma,el ax on y las dentritas. La uni on dentrita-ax on se le llamasinapsis. Enel sistemanerviososetransmitenimpulsoselectricosentrelasneuronas. Losneurotransmisoressonsustancias qumicas quepasandeunacelula aotra,yde-nenelacomplamientoelectrico entreellas.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .contrario,enlosmetaleslaconducci onelectricaesdebidoalagrancantidaddeelectroneslibresenellos.Peroademaslasneuronasutilizanunmedioqumicoparael acoplamientoelectricoentreellas.Losneurotransmisoressonsustanciasqumicasquepasandeunacelulaaotra,estimulandounpotencialelectrico enlamembranadelacelulareceptora.1.1.1. ModeloMatematicoEn[1]sepresentaunmodelomatematicodel comportamientodeunaneuronabiol ogica.Comoentodomodeloseintentadescribirlosprocesosmasimportantesqueocurrenenelinteriordeunaneuronadescartandolosefectosmenosperceptibles.Seanujel potencial electricodelamembranadelaneuronaj yTijfj(uj) latransformacionqueestepotencialsufreal pasarporlasinapsisqueloconectaalaneuronai. El valordeTijpuedeserpositivoonegativodeformaquerepresentelosionespositivosdepotacioysodio,K+, Na+;onegativosdecloro,Clenelcuerpodelaneurona.Laconcentraciondepotencialdelaneuronaiporestauni oneslaintegralenel tiempo:_tTijfj(uj)d. (1.1)Elpotencial quellega porcadauni on delaneurona idependedeltiempo;entremastardeenllegar elpotencialalaneurona,menoscontribuyealpotencialacumuladoenlamembrana.Paraconsiderar esteefectosemodicalaecuaci on(1.1)incluyendounafunci onqueesmonot onicamente decreciente,h:_th(t +)Tijfj (uj) d, (1.2)endondeh() unafunci onquedecaeexponencialmenteconel tiempo. Lafunci onhsesueleseleccionar comounaexponencialdecrecienteeneltiempo:h(t) =1ieti, (1.3)endondeieslaconstantedetiempodelaneuronai;i> 0.Deestaformas ololospotencialesmasrecientes(entret = 0hastaaproximadamentet = 4i)contribuyenal potencialtotal.Enel modelodelaneuronaseconsiderael casodequeexistaunaentradaindependiente;esdecir,quenoprovienedeotraneurona. Paralaneuronai estaentradaesdenotadacomoIi. Por tanto, lacontribuci ondeestaentradaalpotencialdelaneuronaesigualalaexpresion:_th(t +)Ij()d. (1.4)2 JMFACaptulo1. Introducci on:RedesNeuronales 1.2.RedesNeuronalesArticialesAhora, comolaneuronai recibe potenciales devarias otras, todas estas debenser sumadas paradeterminar elpotencial total enlamembranadelaneuronai. Si nesel n umerodeestasconexiones, seestablecequeel potencialtotalui(t)esigualaltermino:ui(t) =n

j=1_th(t +)Tijfj (uj) +_th(t +)Ii()d. (1.5)Parafacilitar el tratamientosepreerelaformadiferencial delaecuacion(1.5). Entonces, sustituyendo(1.3) yordenandoloscomponentesde(1.5)selogralaecuacion:ddtui(t) =ddt_t1ieti__n

j=1Tijfj (uj ()) +Ii()__d. (1.6)Pasandoladerivadadentrodelaintegral en(1.6)yaplicandolaregladeladerivadaparael producto, regladeLeibnitz,laecuacion(1.6)setransformadelamanerasiguiente:ddtui(t) =_t___1ietidd__n

j=1Tijfj(ui() +Ii())__d 1i

1ieti__n

j=1Tijfj(ui() +Ii())__d___. (1.7)El valordelaprimeraintegral en(1.7)seobtieneal sustituirport,ysustituyendoenel segundoterminolapartequecorrespondeaui.Deestemodolaexpresionparael potencialdelaneuronaui(1.7)adquierelaestructuranal:iddtui(t) = ui() +__n

j=1Tijfj(ui() +Ii())__; i = 1, ..., n. i> 0. (1.8)Delaexpresion(1.8)sedeseadestacarquea unenestemodelosimplicadodeunacelulaneuronal seobservaquesucomportamientoestamatematicamentemodeladoporunsistemadinamico.LosvaloresquetomanlosparametrosTijdependedelainteracciondelaneuronaconsuambiente, espor estoqueseestimaquelainformacionenlaneuronaestajadoporlosvaloresdelosparametrosTij. Larespuestadecadaneuronadependedel efectoquetienenlasneuronasconlasqueestaconectada. Seformaunaestructuradeneuronasinterconectadas;latransferenciadeinformacionserealizaentrelassinapsisylarespuestadecadaneuronadependedelpotencialensucuerpo.En la seccion 1.2 se describen algunos de los modelos matematicos para las redes neuronales articiales, sus topologasylosparadigmasdeaprendizaje.1.2. RedesNeuronalesArticialesConladenominacion deRedesNeuronalesArticiales,desdeelpuntodevistacomputacional, seconoceatodoslosmodelosmatematicosydecalculoqueintentanimitarlascapacidadesycaractersticasdesussemejantesbiol ogicos.Laredes neuronales articialesestanformadas por elementos relativamentesimples decalculo, todos ellosinter-conectados conunaciertaorganizacion (topologa). Lasneuronas,llamadas perceptrones(Rossenblatt, 1958) oAdaline(WidrowyHo)queintegranlaredpuedenser tansimplescomos olopuntosdesuma, hastaelementosdinamicoscomplejos.Elmodelobasicodeunaneuronaestaconstituidoporlossiguienteselementos:Unconjuntodesinapsis, quesonlasentradasdelaneuronaponderadas, porunpeso. Seidenticaal pesoqueconectaalaentradaxjdelaneuronaiporsmbolowij.Seincluyeunpesoindependiente,wi0,queseadquierealsuponerunaentradaconstantealaneuronai11El pesowi0se le llama de compensaci on(bias) cuandola entrada asociadatiene valor de 1,y se le llama umbral (threshold)cuandolaentradaasociadatienevalorde 1.JMFA 31.2.RedesNeuronalesArticiales Captulo1. Introducci on:RedesNeuronalesUnsumador,quesimulaelcuerpodelaneuronayjaelniveldeexitacion.Unafunci ondeactivacion, quegeneralasalidadelaneuronayeslatransformaciondel nivel deexitaci ondelaneuronayrestringeel niveldesalida.Opcionalmenteen[2], seincluyeentreel sumadorylafunci ondeactivacionunadinamicalineal deprimerorden,ounretardoensuformacontinuaodiscreta, al haceresto, seimplicaunadinamicainternaal comportamientodelaneurona.Enotraseccionsetrataestetema(seccion1.2.3).Ensuformabasica,lasalidadeunaneuronaestajadaporlaexpresion:yi= _n

r=1wirxr wi0_, (1.9)endondenindicael n umerodeentradasalaneuronai.Notarqueel argumentodelafunci ondeactivacioneslacombinacionlineal delasentradasdelaneurona. Si seconsideraal conjuntodeentradasylospesosdelaneuronaicomounvectordedimension(n + 1),laexpresi on(1.9)puedeescribirsedelasiguienteforma:yi= _wTix_; x = [1,x1,. . . ,xn]T, wi= [wi0,wi1,. . . ,win]T, (1.10)endonde[]Tindicalatransposi ondelvector.Enlagura1.2sepresentael esquemadeunaneuronaoperceptr on.(*)wi0wi1winx1xn-1yiPesossinapticosEntradasSumadorcompensacin(bias)s(*)Funcinde ActivacinFigura1.2:Neuronaarticial elemental. Ca-daelemento b asico decalculo enuna redneu-ronal esta formado por un grupo de constantesqueponderanlaentradaaunsumador ylasalida es acotada por la funci onde activaci on.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .Enloquesereerealostiposdefuncionesdeactivacion,lasmasutilizadassonlafunci ona)escal on,b)sigmoide,c)tangentehiperb olicayd)saturacion,gura1.3.Tangente Hiperblico:Tanh(x)1-1Escaln: (x)1-1Sigmoide: Sigm(x)10.5Saturacin: Sat(x)1-1Figura 1.3:Funciones de activaci on co-munes.a)Escal on.b)Sigmoide.c)Tangentehiperbolica. d) Saturaci on. La funci on de acti-vaci on en una neurona acota el nivel de salida.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .4 JMFACaptulo1. Introducci on:RedesNeuronales 1.2.RedesNeuronalesArticialesEstasfuncionesdeactivacionestandenidasporlasexpresiones:(a (x) =_1six 00six < 0(b sigm(x) =11+ex,(c tanh(x) =1e2x1+e2x, (d sat(x) =___1six < 1x si [x[ 11 six > 1.(1.11)Unapropiedaddelasfuncionessigmodeytangentehiperb olicaesquesuderivadaexisteyesunafunci oncontinua.Elcalculodeladerivadadelafunci ondeactivacionsigmoideserealizadelasiguientemanera:ddx (sigm(x))=ddx_11 +ex_ =ex(1 +ex)2=ex1 +ex11 +ex,=1 1 +ex1 +ex11 +ex=_1 11 +ex_11 +ex=[1 sigm(x)] sigm(x). (1.12)Laderivadadelafunci ondeactivaciontangentehiperb olicaestadescritaporlaexpresion:ddx (tanh(x))=ddx_senh(x)cosh(x)_ =cosh(x)2sen(x)2cosh(x)2==1 tanh(x)2. (1.13)De esta manera, las derivadas de estas funciones de activacion quedan en funci on de ellas mismas, esto sera util parainterpretar el algoritmo de ajuste de los pesos de la red neuronal como un proceso transferencia de informaci on en sentidocontrario,verseccion1.2.4.Enlagura1.4,sepresentanlasgracasdelasderivadasdelasfuncionesdeactivaci on.1Derivada Tangente Hiperblicod/dx[Tanh(x)]0.25Derivada Sigmoided/dx[Sigm(x)]Derivada Saturacind/dx[Sat(x)]1-1Derivada EscalnDelta de Diracd/dx[ (x)]=(x) 1Figura 1.4:Derivadas delas funcionesdeactivaci on. Lasderivadasdelasfun-ciones de activaci on sigmoide y tangentehiperbolicasonfuncionescontinuas.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .Laecuacion(1.9)escom unadiferentesmodelosdeneuronas.Encadaunodelospesoswlasneuronasalmacenanlainformacionsobresuformaderesponderalaexitacionenlaentrada.Perotambien esimportantereexionar sobrelaorganizacion que las neuronas conservan dentro de una red, debido a que la respuesta colectiva potencializa la capacidaddelasneuronasindividuales.JMFA 51.2.RedesNeuronalesArticiales Captulo1. Introducci on:RedesNeuronales1.2.1. TopologasComosehamostradoenlasseccionesanteriores, lasredesneuronalesbiol ogicasyarticialesestanconstruidasenbaseaelementosdecalculorelativamentesimples, quesoncapacesdeaprenderdesuambienteymodicarsuformadereaccionaranteel. Al modoenquelasneuronasseorganizanenlaredseleconocecomoTopologa.Enlasredesneuronalesarticilesseclasicanentresorganizacioneselementales:unasolacapa,dem ultiplescapas,yenmalla,verlagura1.5.Red NeuronaldeMltiples capasRed Neuronalen mallaRed Neuronaldeuna capaFigura1.5:Topologasderedesneuronalesarticiales. Seclasicanentresestructuraslosarreglos deneuronas:enunacapa,m ultiplescapasyenmalla.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .En las redes neuronales, el modelo usado paralas neuronas es quien le provee de su capacidad de adaptaci on, debidoalconjunto depesos ajustables que tiene.Pero otras caractersticas importantes delas redes sebasan en la organizaci onqueconservacadaneuronaenlared; porejemplo: deladimensionesdelaredpuededependerqueestaseacapazdeasimilarlainformacionquelospatronesdeentrenamientocontienen.Lassiguientessonalgunascaractersticasquelasredesneuronalestieneporsuorganizacion interna.Caractersisticasdelasredesneuronalesdebidasasutopologa.___Paralelismo.Representaci onycalculodistribuido.Inherenteprocesamiento contextualdelainformacion.Toleranciaafallas.Otra clasicacion para las redes neuronales se basa en la manera en que la informacion se transmite en la red. Se dividenendosgrupos:redesconconexioneshaciaadelante(estaticas)yredesneuronalesrecurrentes(conretroalimentaciones)odinamicas,verlagura1.6.Enlapr oximaseccionsepresentanlasredesneuronalesestaticas,sedansusmodelosyprincipalescaractersticas.1.2.2. RedesNeuronalesArticialesEstaticasSilarespuestadeuna redneuronal depende unicamente desusentradas sedicequeesuna redneuronal estatica; esdecir,querealizaunmapeo desde elespacio deentrada alespacio desalida, y por tanto, larespuesta delaredneuronalparacadaentradanodependedeltiempoenelcualseaplica,nidese nales deinstantesanteriores.Existen dos tipos de redes neuronales estaticas que han sido extensamente estudiadas, estas son: Las redes neuronalesdem ultiplescapasoniveles(RNMC), ylasredesneuronalesdefuncionesradialesbasicas(RNFRB).RedesNeuronalesdeM ultiplesCapasEstas redes neuronales estan construidas por neuronas organizadas en capas. Cada nivel de la red tiene como entradaa todas o un conjunto de las salidas de la capa anterior. Un ejemplo de una red neuronal con m ultiples capas se presenta6 JMFACaptulo1. Introducci on:RedesNeuronales 1.2.RedesNeuronalesArticialesRedes NeuronalesEstticas DinmicasPerceptrn deMltiples CapasRedes de FuncionesRadiales BsicasRedes CompetitivasRedes de KOHONENRedes de HOPFIELAdaptive Resonance TheoryARTPerceptrn de una CapaFigura1.6:Tipos deredesneuronales. Lasredesneuronalespuedenclasicarseendosgrupos: redesneuronalesestaticasyredesneuronalesdin amicas(recurrentes).. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .enlagura1.7. Laprimeracapadelaredesladeentrada; sufunci onesladedistribuirlasentradasdelaredenlaprimeracapaoculta. La ultimacapageneralassalidasdelaredneuronal ylascapasqueselocalizanentrelaprimerayladesalidaselesdenominaocultas.Laconguraci onotopologaquesepresentaenlagura1.7seexpresacomo:2 , 3, 4, 3, esto signica que esta red neuronal tiene dos entradas; la primera capa oculta con tres neuronas; la segundacapaocultaconcuatroneuronasylacapadesalidacontresneuronas.No.decapasdelared LNo.deentradasdelared n0No.nodosdelacapai(i = 1, . . . , L 1) niNo.desalidasdelared nLTabla1.1:Topologadeunaredneuronal m ultiplescapas: n0, . . . , nL ; n0indicael n umerode neu-ronas enla capa de entrada, nies el n umero deneuronas en la capa i, nLes el n umero de salidas delaredneuronal.Enlagura1.7seobservana: li, sliyxliquerepresentanlafunci ondeactivacion, lacombinaci onlineal delasentradasylasalidadel nodoienlacapal, respectivamente.Lasentradasdecompensacion:x0yxl0sehacenigual a1.Notar queparalacapadesalida xLi= yi; i = 1, . . . , nL.Donde Wl= [wij]; i = 1, . . . , nl; j= 1, . . . , nl1eslamatrizdepesosdelacapalesima, endondecadalaicontienelosparametrosqueponderanalasentradasdelnodo(neurona)iquepertenecelacapal.El ujodeinformacionsetransmiteenuns olosentido. Demaneraqueunaredneuronal dem ultiplescapasesunmapeonolineal entreel espaciodeentrada, A, al espaciodesalida, }; esdecir: A }. El ujodelainformaci onsedescribeporlasecuaciones:x0=[1, x1, . . . , xno]T; (1.14)sl=Wlxl1; (1.15)l=[l1, . . . , lnl]T, (1.16)xl=l_sl_; 1 < l L; (1.17)xL=y = [y1, . . . , ynL]T, (1.18)JMFA 71.2.RedesNeuronalesArticiales Captulo1. Introducci on:RedesNeuronalesWxs11s12s13111213x13x12x11s23s24s22s2121222324x23x22x21x24s33s32s31313233x31=y1x32=y2x33=y3x121 xo=x1o=1x2o=11W2 W3Capa deEntrada1erCapaOculta2da CapaOculta3er CapaOculta (salida)Figura1.7:Red neuronal de m ulti-plescapas. Esta red neuronal tienedosentradas;unacapaocultacontres neuronas; una segunda capaocultaconcuatroneuronasyunacapadesalidacontresneuronas.Topologa 2, 3, 4, 3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .en donde sl, xlson vectores y sus componentes son la suma ponderada y salidas de los nodos en la capa l, respectivamente.RedesdeFuncionesRadialesBasicasUninconvenientedelasredesneuronalesdem ultiplescapasesquesuentrenamiento(ajustedepesos)eslento;laminimizaciondel ndicecuadraticodelerrordesalidarequieredecomparar envariasocasiones delconjuntodedatosdeentrenamientoconlarespuestadelaredneuronal.Las redes neuronalesdefuncionesradiales basicassonunaalternativaalas redes neuronalesdem ultiplescapas.Enpartes delacortezacelebral yvisual seencuentrancampos receptivos queseinterceptanyquesonlocalmentesintonizados. Lasfunciones radialesbasicassebasanenestossistemas biol ogicos. Enlagura1.8sepresentaestetipoderedneuronal.xx121x3WyRnR1Figura 1.8:Redneuronal de funciones radiales b asicas.Estetipoderedneuronaltieneunentrenamientor apido,debidoaqueel valordelospesos seactualizafueradelnea.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .Enlagura1.8xi, i=1, 2, . . . , n; lasalidaesy=Ffr(x); Risonfuncionesradiales; porejemplo: lafunci ondeGauss.Si sesuponequelaredneuronal tienenRnodos,entoncesdelagura1.8sededucequelasalidadeestetipoderedneuronalseexpresadelaforma:y= Ffr(x, ) =nr

i=1wiRi(x). (1.19)endondeestaintegradaporlosparametroswi.Hayvariasopcionesparalasfuncionesradialesbasicas,Ri(x),siendolomascom unutilizarlafunci ondeGauss:Ri(x) = e|xci|22i(1.20)endondecirepresentaloscentrosdelafunci on;iesunescalarydeneel radiodelafunci ondeactivaci on.8 JMFACaptulo1. Introducci on:RedesNeuronales 1.2.RedesNeuronalesArticialesRedesNeuronalesEstaticasAplicacionesLasprincipalestareasparalascualesseaplicanlasredesneuronalesestaticassonaquellasendondeesnecesarioconstruir unarelacionfuncional entre laentradaylasalida, comoejemplos deaplicaciones setienenlas listadas acontinuaci on:1. ClasicaciondePatrones.2. AproximaciondeFunciones.3. MemoriaAsociativa.1.-Clasicaci ondePatrones: Seapunamuestraqueperteneceaunconjunto T, ycesundesignadordeclase.Sedicequepesdeclasec,si existeunafunci onf,talque:f: p c. (1.21)Atodaslasmuestraspenquecumplen(1.21)formanlaclase (:(= p T[f: p c . (1.22)2.-Aproximaci ondeFunciones: Dadaunafunci onf: x y,endondex A n,y } m.Encontrarunaftalque:___f(x) f(x)___ < ; x A. (1.23)endondeesunenteropositivopeque no.Sedicequefesunaaproximacion en Adef.3.-MemoriaAsociativa: Enla actualidadlas computadoras tienenmemorias direccionadas, es decir memoriasquenecesitancomoinformaciondeentradaunadireccionpararecuperarundato, estolashacequetenganunaestructurargida; enconsecuenciatienenuntiempodeescrituraylecturagrande. Unamemoriaasociativa, porel contrario, norequieredeunadireccionespeccapararecuperarundatoguardadoenella, loquenecesitaesotrodato;esdecir, queenestetipodememoriasserecuperalainformacionporlaasociacionimpuestasobresucontenido.Estemododeoperarhaceaunamemoriaasociativamasrapidaenlarecuperaciondelainformaci on.Enlas anteriores tareas las redes neuronales estaticashantenidoexitoparasusoluci on. Perocomosehavisto,lasneuronasbiol ogicasdeformanatural sonmodeladascomosistemasdinamicos.Enlassiguientesseccionessedaranalgunosejemplosderedesneuronalesarticialesmodeladascomosistemasdinamicos.1.2.3. RedesNeuronalesArticialesDinamicas(Recurrentes)Enlasredesneuronalesestaticassurespuestaesindependientedel tiempo. Enconsecuencia, unavezquesehanajustado sus parametros, la respuesta a una entrada determinada sera la misma, no importando en que instante la entradasepresente.Lasredesneuronalesestaticassonmuy utilesenlosproblemasdeclasicaciondepatronesyaproximaci ondefunciones porque construyen aplicaciones no lineales entreel espacio deentradas alespacio de salidas de lasvariablesinvolucradas. Enteora, setienelacertezadequeunaredneuronal deconexioneshacaadelanteconunacapaocultanolineal yunacapadesalidalineal puedeaproximarcualquierfunci onconel gradodeprecisionquesedesee, verlasreferencias[3,4,5].Hay problemas que necesitan de un sistema que tenga una respuesta dependiente de su estadoanterior. Y por tanto,requierendeestructurasquetenganunadinamicainternapropia. Si larespuestadeunaredneuronal dependedesupasado se dice que es una red neuronal dinamica. Algunas de las tareas para este tipo de redes neuronales son: la predici ondeseries,laidenticacionyelcontroldesistemasdinamicos.Existendiversosmodelosderedesneuronalesdinamicas.Algunosdeellossebasanenlosmodelosestaticosquepormediode lneasde retardoretroalimentan alguna delasse nales generadas por la red,ver lasreferencias[8,9,10].Otrosmodelos tienen lneas de retroalimentacion en cada una de las neuronas y que act uan como memorias de corto plazo, [6].Lasredesneuronalesrecurrentessehanusadoparamejorarel desempe noenproblemasdeclasicaci onquehabiansidoresueltospormedioderedesneuronalesestaticas.Dosmodelosderedesneuronalesquesehanocupadoconesteobjetivoson:JMFA 91.2.RedesNeuronalesArticiales Captulo1. Introducci on:RedesNeuronalesReddeHopeld.MaquinadeBoltzmann.ReddeHopeldLa red de Hopel es una de las redes neuronales dinamicas que mas han sido estudiadas. Consiste en nodos ordenadosenunas olacapa,conlazosderetroalimentacioninterioresyexteriores.ElmodelodelaneuronadeHopeldensuformadiscretaestadenidaporlaexpresion:xi(k + 1) = pixi(k) +n

j=1wijj(xj(k)) +ui(k), (1.24)endondepi< 1esel coecientederetroalimentacioninterna;xiesel estadointernodel nodoi;()eslafunci ondeactivacion;wijsonlospesossinapticosdelaneurona,vergura1.9z-1(*)+pix(k+1) x(k)i,1 wwi, n1nuiFigura1.9:NeuronadeHopeld.La salida de la red neu-ronalseretroalimentahacialaentradadecadaneurona.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .Algunas de lasaplicaciones deesta redestan enlos problemas declasicacion, analisis de imagenes y como memoriaasociativa(memoriaquealmacenayrecuperalainformacionpormediodeunanalisisdel contextodelainformaci on).Enlagura1.10sepresentaunareddeHopeldcontresneuronas.z-1(*)+p1x(k+1) x(k)u1z-1(*)+p2x(k+1) x(k)u2z-1(*)+p3x(k+1) x(k)u31y2y2y1 12 23 3Figura1.10:ReddeHopeldcontresneuronas.EnunareddeHopeldseretroalimentanlasse nales internasyexternas.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .MaquinadeBoltzmannLa maquina de Boltzmann es una extension de la red de Hopeld que incluye nodos ocultos y con una regla estocasticadeajustedelospesos.Lospesosenestaredsonsimetricosysuactualizacionestabasadoenel principiodetempladosimulado(annealing), endondeunmaterial es calentadoyenseguidaes enfriadodeformalenta, comoresultadoelmaterial presentaunaestructuracristalinaordenadasinimpurezasdemaneraqueel sistemaseencuentraenunestadodemuybajaenerga,gura1.11.10 JMFACaptulo1. Introducci on:RedesNeuronales 1.2.RedesNeuronalesArticiales1 2 31 2 3LKNeuronasOcultasNeuronasVisiblesFigura1.11:M aquina de Boltzmann. Esta es una red neu-ronalconunatecnicadeaprendizajedetipoestoc astico.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .LamaquinadeBoltzmannesunamaquinaestocasticaformadaporneuronasestocasticas.Unaneuronaestocasticaesta en uno de dos estados posibles de manera probabilstica. Las neuronas de la maquina de Boltzmann se dividen en dosgrupos:lasvisibles y lasocultas. Lasneuronas visibles sonuna interfaceentrelaredy elambiente enelcual esta opera.Durantela fasede entrenamiento las neuronas visibles son obligadas apermanecer en un estado que esdeterminado porel ambiente.Lasneuronasocultas,porel contrario,sonlibresdetomarcualquieradelosestados.RedesNeuronalesLocalmenteRecurrrentesEnel artculo[7] seanalizandiversasestructurasderedesneuronalesrecurrentes, enparticular, unaclasederedesquetienenretrolimentacioneslocalesointernas, perocuyaestructuraglobal esladeunareddeconexionesdirectas(local-recurrent-global-feedforward). Enlagura1.12sepresentancuatroestructurasqueen[7]secitan.Enlagura1.12.asepresentael modelodeLapedes-Farber.Enestemodelounaneuronaestadescritapormediodelaexpresion:y(t) = f [a(t)] ; a(t) =n

i=1wixi, (1.25)endondexi, i=1, 2, . . . , nsonlasentradasalaneuronaywi, i=1, 2, . . . , nsonpesosconstantes.Enestemodelolase nal deactivaciondelaneurona, a(t), eslasumaponderadadelasentradas. Apartir demodelosederivantresmetodosparaincorporaralg untipoderetroalimentacion:1.-Retroalimentaci onlocaldelaactivaci onneuronal: gura1.12.b.Enestetipolasentradassonunaver-sionretardadadelase nal deactivacionlocal; esdecir, xi=a(t i), i=1, 2 . . . , n, ounacombinaci ondeunaversionretardadadelase naldeactivacionlocalydelase naldeentrada.2.-Retroalimentaci onlocaldelasinapsis: gura1.12.c.Enestetipoderedneuronal cadasinapsisincorporaunaestructuraderetroalimentacion. Notar quelaretroalimentacionlocal delaactivacionneuronal, esuncasoespecial de esta estructura. En esta estructura cada sinapsis se considera como si fuera una retroalimentaci on local,ylaactivacionlocaldecadasinapsisesa nadida antesdeentraralafunci onnolinealf().3.-Retroalimentaci onlocaldelasalida: gura1.12.d. Enestetipolas entradas delaredsondelaforma:xi= y(t i), i = 1, 2, . . . , n;esdecir,queahoralasentradassonlasversionesretardadasdelase nal desalidaoquehayunaretroalimentacionalrededordelafunci onnolineal.En la seccion que sigue se presenta un grupo de modelos de red neuronal recurrente que son utiles para los problemas deidenticacion y control de sistemas dinamicos. Se basan en la representacion de los sistemas dinamicos como dependientesdesuscondicionesenel pasado,ver[9,8].ModeloNARMAdeunaRedNeuronalDinamicaSeaunsistemadinamiconolinealdiscretoconunaentrada,u()yunasalida, y().Sucomportamiento dinamico sedescribeporlaexpresion:y(k + 1) = F [y(k), . . . , y(k n); u(k), . . . , u(k m)] , (1.26)JMFA 111.2.RedesNeuronalesArticiales Captulo1. Introducci on:RedesNeuronalesf(.)a(t) y(t)w1w2wnx1x2xnf(.)Sistemadinmicolineala(t) y(t)x(t)f(.)a(t) y(t)G1G2Gnx1x2xnf(.)Sistemadinmicolineala(t) y(t)x(t)(a) (b)(d) (c)Figura1.12:Estructurasderedesneuronalesrecurrentes(local-recurrent-global-feedforward). a)Lase naldeacti-vaci on es una combinaci on lineal de las entradas. La funci on de activaci on, f() , es no lineal. b) Retroalimentaci onlocaldelase naldeactivaci on.c)Retroalimentaci onlocaldelasinapsis.d)Retroalimentaci onlocaldelasalida.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .endondeF(; ) es unafunci onnolineal suave; kes el ndicedeiteracion; nymsonenterospositivosyy(k i)representael i-esimovalorpasadodelavariabley.Laentradau(k)afectaalasaliday(k + 1);estoes,queel sistematienegradorelativoigualauno.Delaecuacion(1.26) sederivancuatromodelosdeidenticacion paraelsistemanolineal.Enelprimeromodelosehacelasuposiciondequelafunci onnolineal F(; )sedesconoceporcompleto.As quelatareaconsisteenproponerunaredneuronal,NN,queaproximeaF(; ),verlagura1.13.a.En el segundo modelo, la hip otesis que utiliza considera que la funci on no lineal F(; ) se divide en otras dos funcionesnolinealesdesconocidas:F1()yF2();endondelaprimerafunci ondependesolamentedelosretardosdelaentradayla segunda funci on depende de la se nal de entrada y sus retardos. Como se observa en la gura1.13.b, este modelo usadosredesneuronalesparasustituirlasfuncionesnolinealesF1yF2.Eneltercerycuartomodelossuponenquelaplantatieneunapartequeesunafunci onlinealdelaentrada,odelasalida, respectivamente, verlagura1.13.c, d. Entoncesseproponesustituirlapartenolineal porunaredneuronal.Deestaforma,el modelodelaplantaestaintegradopordosbloques,unoconlafunci onlineal conocida.yel otroconunaredneuronalqueaproximalanolinealidaddelaplanta.RedesdeJordanyHelmanLasredes deJordany Elman son basicamente redesde conexiones hacia adelante (FeedForward) enlas cuales existeretroalimentaciondelacapadesalidaenunareddeJordan,olacapaocultaenunareddeElman,verlagura1.14.Estas redes a nadenunelementoderecurrenciasinnecesidaddenuevosalgoritmosdeaprendizaje. Los pesos enloscaminosderecurrencianosonajustables, estospesosseponenigual aunocuandosedeseacomoentradaunacopiadelase nal deactivaciondelaneurona, oigual a0.5paraobtenerunenlacequedecreceexponencialmente.Lamayorventajadeestetipoderedneuronalrecurrenteessusimplicidad.LareddeJordanseahausadoenalgunastareasdecontrol desistemas. LareddeElmanseutilizaenproblemasdepredicciondesecuencias;porejemplo: enlaentradadeunareddeElmansepresentaunasecuenciadevectores, yobtenemoscomosalidaunapredicciondelsiguientesmbolo.Unavezquesehaseleccionadounatopologaderedneuronal sedebeestablecer laformaenqueseajustansuspesos, en otras palabras, se necesita denir el criterio y la ley para actualizar los pesos de la red neuronal. En la siguienteseccionseabordaestetema.12 JMFACaptulo1. Introducci on:RedesNeuronales 1.2.RedesNeuronalesArticialesy(k)=F u(k-1),...,u(k-p) F y(k-1),..., y(k-n)12 [ ]+ [ ]y(k)= F u(k-1),...,u(k-p) a y(k-i) 1[ ]+ni=1iz-1z-1z-1u(k)u(k-1)u(k-2)u(k-p) z-1z-1z-1y(k) y(k-1) y(k-2) y(k-n)F(.)2F(.)(NN)22b1b2bpy(k)^y(k)=b u(k-i) F y(k-1),..., y(k-n) + [ ] 2pi=1i^z-1z-1z-1u(k)u(k-1)u(k-2)u(k-p)F(.)(NN)11z-1z-1z-1y(k) y(k-1) y(k-2) y(k-n)a1 a2 any(k)^z-1z-1z-1u(k)u(k-1)u(k-2)u(k-p)z-1z-1z-1y(k) y(k-1) y(k-2) y(k-n)F(.)(NN)11F(.)(NN)22y(k)^y(k)=Fy(k-1),..., y(k-n) u(k-1),...,u(k-p) [ ; ]z-1z-1z-1y(k) y(k-1) y(k-2) y(k-n)F(.)(NN)z-1z-1z-1u(k)u(k-1)u(k-2)u(k-p)y(k)^(a) (b)(c) (d)^^^Figura1.13:CuatroModelosparaunsistemadesconocidonolineal discretodeunaentradayunasalida. a)Lapartenolinealseconcentra enunasolafunci onF().b)Lanolinealidadsedivideendosfuncionesenlaqueunadeellasdependedelosretardosdelaentrada,F1,ylaotrafunci ondelasalidaactualysusretardosF2.c)Estemodeloeslineal conrespectoalosretardosdelaentrada,ynolineal conrespectoasusalidaysusretardos,F2.d)Enestemodelo,lanolinealidadesfunci ondelosretardosdelaentrada,F1,ylinealconrespectoasusalidasysusretardos.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .1.2.4. ProcesodeAprendizajeEn esta seccion se daun resumen de los paradigmas y algoritmos de aprendizaje mas importantes en el campo delasredesneuronales,ver[15].Deniciondeaprendizaje: El aprendizajees el procesoatraves del cual los parametros deunaredneuronal semodican. Es un proceso continuo de estimulaci on y de reducci on de un criterio de error. El tipo de aprendizaje dependedelatareaytieneconsecuenciasenlamaneraenquelospesossonactualizados.El procesogeneral del aprendizajesepuedesintetizarentrespasos:1. Laredneuronalesestimuladaporelambiente.2. Enconsecuencia,laredrealizacambiosinternos(actualizaciondelosparametros).3. Ydebidoaloscambiosinternosensuestructuralaredneuronalrespondedeformadiferente.Con el n de analizar el proceso de aprendizaje se divide en dos categoras: los paradigmas, o modelos, y los algoritmosdeaprendizaje,verlagura1.15.JMFA 131.2.RedesNeuronalesArticiales Captulo1. Introducci on:RedesNeuronalesNodos de salidaNodosOcultosNodos de entrada Nodos de ContextoNodos de salidaNodosOcultosNodos de entrada Nodos de ContextoRed de tipo Jordan Red de tipo HelmanFigura1.14:EstructuradelareddeJordanydeElman.EnlareddeneuronaldeJordanlaretroalimentaci onesentrelasalidaylosnodosdelacapadecontexto(capaoculta).EnlaredneuronaldeElmanlaretroalimentaci onserealizaentrelacapaocultayladecontexto.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .Proceso de AprendizajeAlgoritmos de Aprendizaje Paradigmas de AprendizajeCorreccin por ErrorBoltzmannLey de los Efectos(Thorndike)Ley HebianaCompetitivoSupervisadoReforzadoNo Supervisado(Auto-Organizado)Figura 1.15:Divisi ondel Aprendizaje. El conceptodeaprendizajesedivideendos categoras: Los paradigmasdeaprendizaje quesonmodelosquedescribenloscomponentesylaformaenqueinteract uanenlosprocesosdeaprendizajeylosalgoritmosdeaprendizajequesonlasherramientasconqueserealiza.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .14 JMFACaptulo1. Introducci on:RedesNeuronales 1.2.RedesNeuronalesArticialesParadigmasdeAprendizajeEsunmodelodelagentedeaprendizajeydelambienteenelqueopera,describelaformaenqueinteractuanconlainformaciondisponible,verlagura1.16.Lostresprincipalesparadigmasdeaprendizajesonlossiguientes:1.-AprendizajeSupervisado: Estemodelodeaprendizajesuponelaexistenciadeunmaestro quetienecomofunci onorientarel aprendizajedelaredneuronal. El maestroproporcionaalaredneuronal ejemplosdeloquedesea queseaaprendido, la redasumequeestas muestrasestan libres deerror.Enelmodelo supervisado sedeseaque una vez que el agente ha asimilado las muestras proporcionadas por el maestro, la red neuronal debe ser capazdereproducirlarelacioncausa-efectoaprendidasinerror,yconalg ungradoaceptabledeerrorcuandoseutilicenmuestrasdistintasalasusadasdurantelafasedeaprendizaje,aesto ultimoseleconocecomogeneralizaci on.2.-AprendizajeReforzado: En el modelo de aprendizaje reforzado no existe un maestro que coordine el aprendizajedurantecadapaso,perolaredneuronaltienelaoportunidad desaber,despues deunconjunto deacciones causa-efecto, si sehalogradocumplir, ono, conlosobjetivos; esdecir, existeunelementodecrtica. Lainformaci onrecibidaporlaredneuronal esdemenorcalidadqueenel casosupervisadoporquehastael nal del procesoseeval ua sisecumple conel objetivo.Deeste modelode aprendizajesederivaelllamado problema de asignaci on decredito.El problema de asignacion decredito consiste encomo propagar la consecuencia ultima delproceso deaprendizajehaciatodoelconjuntodedecisionesquefueronnecesariasparallegaralresultadoactual.3.-AprendizajeNoSupervisado: Enel modelonosupervisadosecarecedeunelementoexternoqueindiqueloquedebeseraprendido,osucalidad.Aqu seconsideraquelaredneuronalescapazdeextraercaractersticasdelamismainformacion,ya nade estasasucomportamiento.RNMaestroAmbienteRespuestadeseadaErrorRespuestaReal-EstadoRNAmbienteCrticaAccionesSeal de RefuerzoEstadoRNAmbienteAprendizaje Supervisado Aprendizaje Reforzado Aprendizaje No SupervisadoEstadoFigura1.16:Paradigmas deAprendizaje. Losparadigmasdeaprendizajesedividenentrestipos: el aprendizajesupervisado,reforzado yelnosupervisado.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .En estos tresparadigmas omodelos del aprendizajese basan los algoritmos encargados de ejecutar la tareade ajustedelospesosderedneuronal.Acontinuaci onsedescribenalgunosdelosmasimportantes.AlgoritmosdeAprendizajeLos principales algoritmos de aprendizaje para redes neuronales son: correccion por error, la ley Hebbiana y el algoritmodetipocompetitivo,enseguidaunabreveexplicaciondeellos.1.-Correcci onporError: Estealgoritmodeaprendizajeestabasadoenel modelosupervisado, yaqueexisteunase naldeseadaparalassalidasdelared.Lafunci ondelerrorsedenecomo:ei(k) = ydi (k) yi(k); (1.27)JMFA 151.2.RedesNeuronalesArticiales Captulo1. Introducci on:RedesNeuronalesendonde ei(k)eslase nal deerror;ydi (k)eslase nal deseada;yi(k)eslase nal desalidadelaredneuronal,todosenelinstantek.Elalgoritmo sebasaenlaminimizacion delafunci ondecostoatravesdelmetodo delgradientedescendente. En aplicaciones que requieran que el ajuste de los pesos se realize en cada iteracion, se utiliza el valorinstantaneodelasumadeloscuadradosdeloserrorescomocriterio,ofunci ondecosto:E(k) =12

re2r(k). (1.28)La funci on de costo debe ser minimizada en terminos de los pesos sinapticos de la red neuronal. Para esto se utilizalasiguienteregla,llamadaregladelta:wij(k) = wij(k + 1) wij(k) = ei(k)xj(k) (1.29)endondeesel ndicedeaprendizaje.La regla de correccion por error se comporta como un sistema de lazo cerrado y el ndice de aprendizaje asegura laestabilidaddel algoritmo.Si laredneuronal consistedeunidadesdeprocesamiento(nodos)lineales,lasuperciedel erroresunafunci oncuadraticadelospesosconuns olomnimoglobal. Perosi laredneuronal consisteenunidades de procesamiento no lineales, la supercie del error tiene un mnimo global y posiblemente varios mnimoslocales.Debido aqueelalgoritmo deaprendizajeiniciaenunpuntoarbitrariodelasupercieyvapasoapaso enbuscade unmnimo, laregladelta puedecaer enunmnimo local yesto ocasionara que nuncaalcance elmnimoglobal. Esteesunodelosproblemasdeactualizarlospesosusandolaecuacion(1.29)pero, porotraparte, susencillezyfacilimplementacionlahacenmuypopular.Unodelosalgoritmosdeaprendizajeporcorrecciondel errorpararedesconconexioneshaciaadelanteesel deretropropagaciondelerrorqueacontinuaci on sedesarrolla.AlgoritmodeRetropropagaci ondel Error:Enestaseccionsepresentael algoritmoconocidocomodeRetropropagaciondel Error estealgoritmoseutiliza paraajustar lasredesneuronalesdeltipo deconexiones haciaadelante(FeedForward), queesunaredestatica.Estealgoritmo tienedospresentaciones:Porlote(Bach)yeliterativo(enlnea).Enelalgoritmo porloteelajustedelospesosdelaredsellevaalnaldecada epoca,esdecir,unavezquesehacomparadolarespuestaactual delaredparatodoel conjuntodedatosdeentrenamiento. Paraestecasoel ndicededesempe noestadescritoporlaexpresion:c=12N

n=1_P

i=1e2i(n)_, (1.30)en donde Nes un entero que dene el n umero de epocas. Una epoca es el conjunto completo de los patroneso datos de entrenamiento. Se utiliza a Ppara indicar el n umero de patrones de entrenamiento; eipara indicarelerrordelasalidaidelaredneuronal.Elajustedelospesosserealizaalnaldecada epoca.Para los problemas de control, se necesita de otro tipo de algoritmo debido a que la actualizaci on de los pesossedebehacerencadaiteraciondelproceso.Enel casoiterativoseconsideraqueparacadaelementodel conjuntodeentrenamientoserealizaunajustede los pesos de la red. Este tipo de algoritmo es el que nos interesa ya que permite que se use en aplicacionesquerequierendeunajustecontinuodelosparametroslaredneuronal.Paradesarrollarel algoritmoderetropropagaciondel errorseutilizauncasoparticulardeunaredneuronalcon unaconguraci on dedos entradas,dos nodos ocultos en laprimer capaoculta, tresnodos enla segundacapaoculta,ydosnodosdesalidao,deformaresumida,tieneunaconguraci on 2, 2, 3, 2,gura1.17.El algoritmo de retropropagacion del error se basa en la minimizacion del valor medio de la suma de los erroresdesalidaalcuadrado:E(k) =nL

i=1_ydi (k) yi(k)2=nL

i=1ei(k)2, (1.31)endondeydi (k)valor deseadoenlasalidaidelaredneuronal; E(k)esel ndicededesempe no, ambosenelinstantek.16 JMFACaptulo1. Introducci on:RedesNeuronales 1.2.RedesNeuronalesArticialesWxs11s1211112x12x11s23s22s21212223x23x22x21s32s313132x31=y1x32=y2x121 xo=x1o=1x2o=11W2 W3Capa deEntrada1erCapaOculta2da CapaOculta3er CapaOculta (salida)++d1d2ee12--Figura1.17:RedNeuronal contrescapas.Elentrenamientoporretropropagaci on delerrorconsisteentransladarelerrordesalidahacialascapasinternasdelaredneuronal.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .Laactualizaciondelospesosdelaredserealizapormediodelaexpresion:wlij(k) = E(k)wlij(k), (1.32)endondeesel ndice deaprendizaje; wlijeselpesodelacapalqueconectaalasalidadelaneuronajdelacapal 1conlaentradadelaneuronaienlacapalywlij(k) = wlij(k + 1) wlij(k).Ahorasedivideel procesoendoscasos, el primerocuandoel pesoaajustarpertenecealacapadesalidadelared; yel otrocasocuandoel pesoaactualizarperteneceaalgunadelascapasocultasdelared.Estaseparacionsedebeaquelospesosqueestanenlacapadesalidaladerivadadel ndicededesempe noesfunci on directa del error, ei(k). Por el contrario, no esta claro el efecto de los pesos de las capas ocultas sobreelerrordesalida.Paraambosprocesossehaceusodelaregladelacadenaparaladerivaciondefunciones.Pesosenlacapadesalida:Seaw3ij(k)unpesoquepertenecealacapa3(capadesalida).Usando(1.32)yderivandotiene:w3ij(k)= E(k)w3ij(k), (1.33)w3ij(k)= E(k)s3i(k)s3i(k)w3ij, (1.34)= E(k)s3i(k)x2j(k), (1.35)endondelos ndicesi = 1, . . . , 2yj= 0, . . . , 3.Deaqusedeneelgradientelocaldelacapadesalidacomo:3i(k)=E(k)s3i(k). (1.36)(1.37)As queparahallarel valordel gradientedelafunci ondecostoconrespectoal valordel pesoesnecesariodeterminarelvalordelgradientelocal:3i(k)=E(k)x3i(k)x3i(k)s3i(k), (1.38)JMFA 171.2.RedesNeuronalesArticiales Captulo1. Introducci on:RedesNeuronales=E(k)x3i(k)3i_s3i(k), (1.39)= ei(k)3i_s3i(k), (1.40)3i(k)= ei(k)3i_s3i(k), (1.41)parai = 1, 2.Entonceslospesosdelacapadeentradaseactualizanconlaregla:w3ij(k) = ei(k)3i_s3i(k)x2j(k), (1.42)endondelos ndicesi = 1, 2,yj= 0, . . . , 3.Pesosenlascapasocultas:Para la primera capa oculta. Sea w2ij(k) un peso que pertenece a esta capa. La expresion para la actualizaci ondeestospesosseobtieneatravesdel desarollo:w2ij(k)= E(k)w2ij(k), (1.43)= E(k)s2i(k)s2i(k)w2ij(k), (1.44)= E(k)s2i(k)x1j(k), (1.45)paralos ndices:i = 1, . . . , 3yj= 0, . . . , 2.Elgradientelocaldeestacapaocultaes:2i(k)=E(k)s2i(k), (1.46)=E(k)x2i(k)x2i(k)s2i(k), (1.47)=E(k)x2i(k)2i_s2i(k). (1.48)SedesarrollaE(k)x2jdelaformasiguiente:E(k)x2i(k)=2

r=1E(k)s3r(k)s3r(k)x2i(k), (1.49)=2

r=1E(k)s3r(k)w2ri(k), (1.50)=2

r=13r(k)w3ri(k). (1.51)Elgradientelocaldeestacapaestaexpresadocomosemuestraacontinuaci on:2i (k) = 2i_s2i(k)2

r=13r(k)w3ri(k), (1.52)parai = 1, 2, 3.Finalmentelospesosdelacapaoculta2seactualizanpormediodelaexpresion:w2ij(k)= 2i(k)x1j(k),= _2

r=13r(k)w3ri(k)_2i_s2i(k)x1j(k), (1.53)18 JMFACaptulo1. Introducci on:RedesNeuronales 1.2.RedesNeuronalesArticialesendondei = 1, 2, 3;j= 0, . . . , 2.Paralacapadeentrada,el procedimientoessimilar,demaneraquelaexpresionparael ajustedesuspesoseslasiguiente:w1ij(k)= 1i(k)x1j(k),= _3

r=12r(k)w2ri(k)_1i_s1i(k)x0j(k), (1.54)parai = 1, 2;j= 0, . . . , 2.La ecuaciones paraobtener los gradientes de lared neuronal denen unmodelo adjunto o modelo de sensibi-lidad de la red. Esta red de sensibilidad dene el paso hacia atras durante el cual se determinan los gradienteslocalesdelosnodosdelaredoriginal, gura1.2.4.3231w311w312w332w321w322w331-e1-e232313122212322212212111211w211322122231112w212w213w211w212w213Figura 1.18:Modelo de sensibili-dad. Elmodelodesensibilidadesuna estructura paralela a la redquegeneralosgradienteslocales.Retropropagaci onaTravesdel TiempoBackpropagationThroughTime: Basicamenteesunaredneuronal recurrentequesedesdoblaenunaredneuronal deconexioneshaciaadelante(FeedForward)yseaplicael algoritmodeentrenamientoderetropropagaciondinamicodel errorparaajustarlospesosdelaredrecurrente,gura1.19.1132w11w13w21w12w22w23o(t)3 21 3 21 3 21 3 2o(t+t) o(t)o( t) w11w21 w12w13w23w22w11w21 w1213ww22w23Figura 1.19:Retropropagaci on a traves deltiempo. Estealgoritmoincorporalainforma-ci on anterior considerando que en cada it-eracion se agrega una nueva capa a la red neu-ronal.Para cada instante de tiempo, la red neuronal recurrenteduplica una capa de una red neuronal de conexioneshaciaadelante. Cadanodoi decadacapadelaredfeedforwardrepresentalamismaneuronadelaredrecurrenteperoendistintotiempo. Cadapesowijenlaredoriginal seduplicacomoel pesoquevadelaneurona i en el tiempo t a la neurona jen la capa correspondiente al tiempo t+t; Todos los pesos wijestanrestringidosal mismovalor. Cuandolosvaloresdeseadossondadosenel tiempot1, el errorespropagadohaciatodaslasneuronasanterioreshastalacapaprimera(tiempoinicial,t0)delareddesdoblada utilizandoel algoritmoderetropropagaciondinamico.El gradientedeerrordelospesosesjustolasumadetodoslosgradientesparatodoslospesosdecadacapa.Estaredneuronal tieneel problemaqueparasecuenciasmuygrandesdetiempolosrequerimientosdememoriaaumentangrandemente.JMFA 191.3.Conclusi on Captulo1. Introducci on:RedesNeuronales2.-LeyHebbiana: La ley hebbiana corresponde al modelo de aprendizaje no supervisado. En esta ley, si dos neuronasconectadasencualquierladodeunasinapsisestanactivasdeformarepetida, entoncesel valordelasinapsisesselectivamente incrementado. Por el contrario, si las dos neuronas son asincronicamente activadas, entonces el pesosinapticoesdisminuido.Algunaspropiedadesdeestealgoritmosonlassiguientes:Esunmecanismodependientedeltiempo: Lamodicaciondel valordelospesosenlaleyHebbianade-pendedeltiempoenqueocurrelaactividadneuronal.Esunmecanismolocal: Elalgoritmoact uademaneraindependientesobrecadaneurona.Mecanismoiterativo: Elcambioencadasinapsisdependedelosnodoscolocadosenambosladosdeella.Mecanismodecorrelaci on: La ocurrencia de actividadenambos lados, de la sinapsis, es suciente paraproducirlamodicaciondelospesos. Lacorrelacionpositivaobligasurefuerzo, lacorrelaci onnegativasureducci on.3.-AlgoritmoCompetitivo: Aqu las salidas de la red neuronal compiten entre ellas para ser activadas. La diferenciaconlaleyHebbianaseencuentraenquepuedenhabervariasneuronasactivas,peroenel algoritmocompetitivos olo unaestaactiva.Lastareasparalas cualesestealgoritmo sueleutilizarse sonenlaclasicacion, agrupamientoylacategorizaciondelosdatosdeentrada.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .1.3. ConclusionPorlovistoenestecaptulosepuedencitaralgunasdelasdesventajasdelosmodelosderedesneuronalesqueseacabandepresentar.Dichasdesventajassonlassiguientes:Lagranvariedaddemodeloshacequesedicultelabusquedadeunmodelogeneral deredneuronal, al menosparaalgunastareas.Losmodelosderedesneuronalesqueutilizanlneasderetardosalaentradasondenaturalezasecuencial, estohacequesuentrenamientosealento.Algunosdeestosmodelos,loslazosderetroalimentacionnosonentrenables.Algunosmodelosderedesneuronales unicamenteconsideranelcasodesistemasdeunaentradayunasalida.Enalgunoscasoslaestabilidaddelarednoseconsidera,especialmenteparaelentrenamiento.En la mayora de los modelos los parametros no pueden ser directamente utilizados en los problemas de identicaci onycontroldesistemas.Estosmodelosnorealizanlaidenticacion deestadosnideparametros.Como conclusi on de este captulo se puede decir que el campo de las redes neuronales articiales ha estado madurandoyaqueencadaa noquepasasevaenriqueciendoconnuevastopologasyalgoritmosdeentrenamiento.Lastareasvandesdelaaproximaciondefunciones hastamodelos capaces deser entrenados parareproducir el comportamientodecomplejossistemasdinamicos. Enlossiguientescaptulossepresentaunaarquitecturaderedneuronal recurrentequepor sutopologayleydeentrenamientoestaorientadaparalas aplicaciones deidenticacionycontrol desistemasdinamicos.20 JMFACaptulo2RedNeuronalRecurrenteEntrenableEnestecaptulosepresentalaestructuradelaredneuronal recurrenteusadaenestetrabajoconalgunasdesusposiblesmodicaciones.Laestructuradeestaredneuronal sebasaenunmodeloenvariablesdeestadodeunsistemanolinealdiscreto.Todoslosparametrosdelaredsonentrenablesatravesdeunalgoritmo detiporetropropagaci on delerror.2.1. EstructuradelaRedNeuronal RecurrenteEntrenable(RNRE)Enlostrabajos[12,11]sepresentaunaRedNeuronalRecurrenteEntrenable(RNRE)conalgunos resultadosdesuaplicacionenlosproblemasdeidenticaciondesistemasnolineales.Estaredneuronal recurrenteestadescritaporlassiguientesecuaciones,verlagura2.1.Casocontinuo: x(t) = Jx(t) +Bu(t), (2.1)z(t) = [x(t)], (2.2)y(t) = [Cz(t)], (2.3)J.= blockdiag(Ji), (2.4)Re (J)< 0 (2.5)Casodiscreto:X(k + 1) = JX(k) +BU(k), (2.6)Z(k) = [X(k)], (2.7)Y (k) = [CZ(k)], (2.8)J.= blockdiag(Ji), (2.9)|(J)|< 1 (2.10)endondex()[X]eselvector deestados dela red;u()[U]eselvector deentrada;y()[Y ]esel vector desalida; z()[Z]es un vector auxiliar. Las dimensiones de estos vectores son n, m, p y n,respectivamente. () es un vector de funcionesdeactivacion(enladeducci ondelalgoritmodeentrenamientoespreferibleconsideraracomounamatrizdiagonal):(x) : RnRn:___x1...xn___ ___(x1)...(xn)___. (2.11)Entrelasposiblesopcionesparaestasfuncionessetienenlafunci on sigmoideylafunci ontanh. Ladimensi ondeestevectoreslaapropiadaseg unseaparalacapainternadelared, obien, paralacapadesalida; Jesunamatriz212.2.PropiedadesdeObservabilidadyControlabilidad Captulo2. RedNeuronalRecurrenteEntrenablediagonalporbloques.LosbloquescorrespondenalasformasdeJordandedimension(1 1)y(2 2);Jiesel bloquei-esimodeJ. Lapropiedad(2.5)eslacondici ondeestabilidaddelaRNREqueimplicaquetodoslosvalorespropiosdeJ(el espectrodeJ)debentenerpartereal negativa.Enel casodiscretolacondici ondeestabilidades(2.10)indicaqueloselementosdel espectrodeJdebenestarenel interiordel crculounitario. Estasdoscondicionesgarantizanlaestabilidad en la fase de operacion de la red neuronal. Las matrices By Cson los pesos de entrada y salida de la RNRE,respectivamente.NotarqueestemodelodeRNREesparametricodemaneraquees util paratareasdeidenticaci onycontroldesistemas.LosparametrosdelaredsonlasmatricesB,JyC. BJz-1X(k)U(k) CY(k) X(k+1) Z(k)Capa DinmicaCapa Esttica BJx(t)u(t) Cy(t) x(t) z(t)Capa DinmicaCapa Esttica.(a) (b)Figura2.1:Estructura general de una red neuronal hibrda. a) Caso continuo. b) Caso discreto. En una red neuronalrecurrenteseidenticandoscapas:unacapadin amicaylaotraesunacapaestatica.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .Enlagura2.2semuestraunejemplodeunaredneuronalrecurrenteentrenableconcuatroentradas,tresestadosinternosydossalidas.EnesteejemploseconsideraquelamatrizJesunamatrizdiagonal,estoayudaasimplicarlaobtenci ondelasecuacionesdeajustedelospesos. z-1j1(.) z-1j2(.) z-1j3(.)(.)(.)u2u1u3u4x1x2x3z1z2z3y1y2x1+x2+x3+b11b14b21b24b31b34c11c13c21c23Figura2.2:Ejemplodeunaredneuronal re-currenteentrenable. Topologa(2, 3, 2). Endonde: x+= x(k+1). Se selecciona a la matrizJcomounamatrizdiagonal parasimplicarlasecuacionesdeentrenamientodelared.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .Enlaseccion2.2secitanresultadossobrelaspropiedadesdecontrolabilidadyobservabilidaddeunmodeloderedneuronalrecurrentesimilaral deunaRNRE.2.2. PropiedadesdeObservabilidadyControlabilidadEn[13,14]sepresentanresultados sobrelaspropiedades deobservabilidady controlabilidad delsiguiente modelo deredneuronalrecurrente:x+=(Ax +Bu), (2.12)y=Cx, (2.13)endondexes el vector deestados; ues el vector deentrada; yes el vector desalidacondimensiones n, myp,respectivamente. x+simboliza a x(k+1). Las literales A, b y Crepresentan matrices de entradas reales y de dimensionesn n,n myp n,correspondientemente; ()eslafunci ondeactivacion queoperadelaforma: (x1, . . . , xn) =[((x1), . . . , (xn)]T.Verlagura2.3quepresentalaestructuraabloquesdeestaredneuronal.22 JMFACaptulo2. RedNeuronalRecurrenteEntrenable 2.2.Propiedades deObservabilidadyControlabilidad BAxu CY(k)x( ,+)Figura2.3:Diagramaabloquesdeunaredneuronal re-currente.puedesereloperadorz1,o_.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .2.2.1. ObservabilidadEl resultadoprincipal en[13] sobre la observabilidaddel modelode redneuronal (2.12-2.13) se resumenenelteorema2.1,peroantesunasdenicionesquesonpartedel teorema.Nota2.1(PropiedaddeIndependencia:) Sedicequesatisfacelapropiedaddeindependencia, si paraunenteropositivo dado l ; un grupo de n umeros reales diferentes de cero: b1, . . . , bly otro grupo de n umeros reales: 1, . . . , lqueestanrelacionadosdelaforma:(bi, i) ,= (bj, j) i ,= j.Lasfunciones:(biu +i), . . . , (blu +l),sonlinealmenteindependientessi secorrespondendelaforma:c0 +l

i=1ci(bi, i) = 0 u R c0= c1== cl= 0.

Lapropiedaddeindependenciaaseguraquelafunci ondeactivacionseconservalinealmenteindependientebajodistintastranslacionesydilataciones.Lasiguientenotadeneunaclasedematrices.Nota2.2SedicequelamatrizBpertenecealaclase Bsi:Bn,m=_B RnmBi ,= 0 i = 1, . . . , n,Bi ,= Bj i ,= j.endondeBjindicalalajdelamatrizB.

Observar el casodequem=1; esdecir, cuandobesunvector, entoncesbpertenecea Bsi ys olosi todosloselementosdebsondiferentesdeceroydedistintovalorabsoluto.Nota2.3Sedicequeunsistemadeltipo(2.12,2.13) esdeclase o,silamatrizBpertenecealaclase Bysatisfacelapropiedaddeindependencia.

Teorema2.1(Observabilidad:) Seaunsistema(2.12,2.13) o.Estesistemaesobservablesiys olosikerA kerC = Oc(A, C) = 0.Lacondici on Oc(A, C) = 0esequivalenteadecirquenoexisteunsubespaciocoordenadoA-invariantediferentedeceroqueesteincluidoenel KerC.

JMFA 232.2.PropiedadesdeObservabilidadyControlabilidad Captulo2. RedNeuronalRecurrenteEntrenableParael casodesistemaslineales, si el par (A, C) es observableentonces el subespacioA-invariantemas grandecontenido en el KerC, denotado como: O(A, C) es el espacio cero. Como Oc(A, C) y kerAkerC son subespaciosdeO(A, C),porloqueel corolario (2.1.1)segenera:Corolario2.1.1Si (2.12,2.13)