viernes. 19.04.2024

Las redes neuronales artificiales son un modelo computacional evolucionado a partir de numerosas aportaciones científicas a lo largo del tiempo. Consiste en un conjunto de unidades, llamadas neuronas artificiales, conectadas entre sí para transmitirse señales. La información de entrada atraviesa la red neuronal (donde se somete a diversas operaciones) produciendo unos valores de salida.

La palabra red en el término "red neuronal artificial" se refiere a las interconexiones entre las neuronas en las diferentes capas de cada sistema. Un sistema tipo tiene tres capas: La primera capa tiene neuronas de entrada que envían datos a través de las sinapsis a la segunda capa de neuronas, y luego a través de más sinapsis a la tercera capa de neuronas de salida. Los sistemas más complejos tendrán más capas, aumentando las de entrada y las de salida de neuronas. Las sinapsis almacenan parámetros llamados pesos, que manipulan los datos en los cálculos.

Cada neurona está conectada con otras a través de unos enlaces. En estos enlaces el valor de salida de la neurona anterior es multiplicado por un valor de peso. Estos pesos en los enlaces pueden incrementar o inhibir el estado de activación de las neuronas adyacentes. Del mismo modo, a la salida de la neurona, puede existir una función limitadora o umbral, que modifica el valor resultado o impone un límite que no se debe sobrepasar antes de propagarse a otra neurona. Esta función se conoce como función de activación.

El objetivo de la red neuronal es resolver los problemas de la misma manera que el cerebro humano

Estos sistemas aprenden y se forman a sí mismos, en lugar de ser programados de forma explícita, y sobresalen en áreas donde la detección de soluciones o características es difícil de expresar con la programación convencional. 

El objetivo de la red neuronal es resolver los problemas de la misma manera que el cerebro humano. Las redes neuronales actuales suelen contener desde unos miles a unos pocos millones de unidades neuronales.

Los métodos de reconstrucción de neuronas han evolucionado a lo largo de los últimos 100 años a partir de los dibujos a mano en 2D de Ramón y Cajal y sus contemporáneos al rastreo cuantitativo de morfologías de neuronas en 3D con la ayuda de computadoras.

Hasta el día de hoy, el rastreo manual sigue siendo el método predominante, incluso para la reconstrucción 3D. Sin embargo, los enfoques manuales son prohibitivamente costosos para analizar imágenes, datos que se acercan a la escala de terabytes y miles de pilas de imágenes, por no hablar de la extracción de patrones de orden superior en estos datos.

La necesidad del Big Data de automatizar el laborioso y subjetivo análisis manual de microscopios ópticos y otros tipos de imágenes microscópicas, ha motivado un gran número de esfuerzos informáticos de bioimágenes.

En 2010, un concurso mundial de reconstrucción de neuronas llamado DIADEM (abreviatura de reconstrucción digital de la morfología axonal y dendrítica) fue organizado por varias instituciones importantes como una forma de estimular el progreso y atraer nuevos investigadores computacionales para unirse a la comunidad de desarrollo tecnológico. El objetivo de DIADEM era desarrollar algoritmos capaces de realizar una conversión automática de pilas de imágenes, con visualización en forma de árbol de los axones neuronales y las dendritas en fieles reconstrucciones digitales en 3D. Ninguno de los algoritmos presentado en la etapa final de DIADEM alcanzó la meta originalmente proyectada de acelerar 20 veces el proceso de reconstrucción en comparación con la reconstrucción manual.

BigNeuron beneficiará a la comunidad de neurociencia al establecer un conjunto de herramientas estandarizadas para las morfologías de las neuronas

El proyecto BigNeuron se lanzó formalmente en marzo de 2015. Este proyecto tiene como objetivo reunir a una comunidad mundial para definir y avanzar en el estado del arte de la reconstrucción de una sola neurona mediante la prueba de banco de tantos métodos automatizados de reconstrucción de neuronas como sea posible con la mayor cantidad posible de conjuntos de datos de neuronas siguiendo protocolos de datos y métodos de evaluación estandarizados. BigNeuron beneficiará de manera duradera a la comunidad de neurociencia al establecer un recurso de Big Data y un conjunto de herramientas novedosas estandarizadas para las morfologías de las neuronas.

Para que BigNeuron sea un éxito, se deben desarrollar objetivos tangibles y enfoques factibles. Si bien la visión de BigNeuron es continuar durante mucho tiempo a través de múltiples fases, la primera fase ha durado aproximadamente un año y medio. El objetivo de esta primera fase es establecer la infraestructura básica y publicar datos, herramientas y análisis útiles. El hackathon de lanzamiento de algoritmos se llevó a cabo en Beijing, China, en marzo de 2015, con más de 20 asistentes de varios grupos de investigación de Asia, Australia y América. Se llevarán a cabo hackatones y talleres de seguimiento en varios otros lugares de Europa y EE. UU. El proyecto da la bienvenida y fomenta la participación de cualquier individuo y organización. Las fases posteriores agregan capas importantes de complejidad, como datos de lapso de tiempo, multicanal y multineuronal. A la larga, BigNeuron también puede habilitar un sólido servicio automatizado basado en la nube, donde los investigadores podrían cargar una pila de imágenes y recibir un seguimiento morfológico digital.

Para avanzar en el campo de la reconstrucción de neuronas, los proyectos comunitarios colaborativos como BigNeuron pueden complementar poderosamente el espíritu competitivo de iniciativas anteriores como DIADEM. La idoneidad de varios métodos de reconstrucción de neuronas para conjuntos de datos de imágenes de neuronas específicas aún se puede cuantificar (y clasificar) a partir de los próximos resultados de BigNeuron. Sin embargo, la sinergia de muchos grupos de investigación en todo el mundo puede brindar una perspectiva refrescante sobre cómo se pueden integrar varios métodos y resultados de reconstrucción. Sin duda, la prueba de banco de muchos métodos de reconstrucción contra muchos conjuntos de datos de imágenes de neuronas producirá bases de datos de reconstrucción a gran escala. Las reconstrucciones de consenso creadas a partir de todas las variantes generadas con cada algoritmo también se depositarán en NeuroMorpho.Org (lo que garantiza la disponibilidad tanto en el formato SWC y NeuroML estándar de facto), así como potencialmente en otras bases de datos. Tales Big Data no solo beneficiarán para el desarrollo de métodos de imágenes, sino que también proporcionarán nuevos y valiosos recursos de datos para los modeladores computacionales y los analistas de datos.

El Dr. Shuiwang Ji, profesor del Departamento de Ciencias de la Computación e Ingeniería de la Universidad de Texas A&M, que es parte de una comunidad de investigación colaborativa, recientemente ha publicado un artículo, en la edición de abril pasado de la revista Nature Methods. titulado, "BigNeuron: un recurso para comparar y predecir el rendimiento de algoritmos y para el rastreo automatizado de neuronas en un conjunto de datos de microscopía óptica". Su objetivo es desarrollar un marco estándar para ayudar a los investigadores a definir los mejores métodos y algoritmos para la reconstrucción automática de neuronas rápida y precisa. El futuro ya es presente como se evidencia en este artículo.

Por último, compartir esta reflexión, válida hoy, de J F Kennedy: “El hombre sigue siendo la mayor y mejor computadora”.

Inteligencia artificial y reconstrucción neuronal