Revelan nuevos aspectos para considerar en los modelos de Redes Neuronales Artificiales.
La Inteligencia Artificial (IA) requiere realizar cambios profundos en sus modelos de Redes Neuronales para simular realmente c贸mo funciona el cerebro.
El nuevo estudio prueba que adem谩s de la plasticidad y la caracter铆stica Todo o Nada de las neuronas artificiales, se necesita considerar otros aspectos. El estudio encontr贸 que al ajustar las propiedades el茅ctricas, las redes aprendieron m谩s r谩pido que las simulaciones donde todas las c茅lulas son iguales. Tambi茅n encontraron que se requieren menos c茅lulas para obtener los mismos resultados.
Los autores sostienen que sus hallazgos podr铆an ense帽arnos por qu茅 nuestros cerebros son tan buenos para aprender, como as铆 tambi茅n ayudarnos a construir mejores sistemas de Inteligencia Artificial para reconocer voces, rostros, o incorporar tecnolog铆a de autom贸viles aut贸nomos.
Nicol谩s P茅rez (Primer autor del art铆culo), estudiante de doctorado en Imperial College de Londres, dijo: «El cerebro necesita ser energ茅ticamente eficiente y al mismo tiempo ser capaz de sobresalir en la resoluci贸n de tareas complejas. Nuestro trabajo sugiere que tener una diversidad de neuronas en tanto los cerebros como los sistemas de inteligencia artificial cumplen ambos requisitos y podr铆an impulsar el aprendizaje«.
El cerebro est谩 formado por miles de millones de neuronas conectadas por vastas ‘redes neuronales’. Las neuronas se ven iguales desde la distancia, pero en una inspecci贸n m谩s profunda no hay dos exactamente iguales. Por el contrario, cada c茅lula de una red neuronal artificial es id茅ntica, y solo var铆a por su conectividad. A pesar de la rapidez con la que avanza la tecnolog铆a de IA, sus redes neuronales no aprenden con tanta precisi贸n y rapidez como el cerebro humano. Los investigadores descubrieron que la variabilidad en las c茅lulas mejor贸 su aprendizaje y redujo el consumo de energ铆a.
El Dr. Dan Goodman, uno de los autores del art铆culo y perteneciente al Departamento de Ingenier铆a El茅ctrica y Electr贸nica de Imperial College de Londres, dijo: «La evoluci贸n nos ha proporcionado funciones cerebrales incre铆bles, la mayor铆a de las cuales apenas estamos comenzando a comprender. Nuestra investigaci贸n sugiere que podemos aprender lecciones vitales de las nuestras biolog铆a para hacer que la IA funcione mejor para nosotros«.
Otro aspecto que se consider贸 fue ajustar la «constante de tiempo», es decir, la rapidez con la que cada c茅lula decide lo que quiere hacer en funci贸n de lo que est谩n haciendo las c茅lulas conectadas a ella. Los resultados muestran que al permitir que la red combine informaci贸n lenta y r谩pida, pudo resolver mejor las tareas en entornos de mayor complejidad del mundo real. Cuando cambiaron la cantidad de variabilidad en las redes simuladas, encontraron que las que funcionaron mejor coincid铆an con la cantidad de variabilidad observada en el cerebro, lo que sugiere que el cerebro puede haber evolucionado para tener la cantidad justa de variabilidad para un aprendizaje 贸ptimo.
Nicolas agreg贸: «Demostramos que la IA puede acercarse a c贸mo funciona nuestro cerebro emulando ciertas propiedades cerebrales. Sin embargo, los sistemas de IA actuales est谩n lejos de alcanzar el nivel de eficiencia energ茅tica que encontramos en los sistemas biol贸gicos«. Esta investigaci贸n fue financiada por el Consejo de Investigaci贸n de Ingenier铆a y Ciencias F铆sicas y la Beca de Doctorado del Presidente del Imperial College.
Fuente:
Perez-Nieves N, Leung VCH, Dragotti PL, Goodman DFM. Neural heterogeneity promotes robust learning. Nat Commun. 2021 Oct 4;12(1):5791. doi: 10.1038/s41467-021-26022-3. PMID: 34608134; PMCID: PMC8490404.

Comentarios
Publicar un comentario