Secciones
Servicios
Destacamos
Edición
Amanda Sierra
Miércoles, 19 de abril 2023, 18:27
La inteligencia artificial es, al decir de algunos, uno de los grandes logros de la humanidad, que está ya transformando nuestra historia evolutiva en el planeta Tierra. Su funcionamiento básico se aproxima al de un cerebro, aunque esté compuesta por algoritmos capaces de aprender por ... sí solos, en vez de por neuronas. Algunos popes incluso proponen que, en algunos campos, llegará a sustituir a la inteligencia humana allá por el 2030, a la vuelta de la esquina. Resulta fascinante que la tecnología haya conseguido crear esta inteligencia artificial cuando la ciencia sigue conociendo tan poco sobre la inteligencia natural, la de seres humanos y animales.
Uno de los pilares sobre los que descansa la inteligencia es, sin lugar a dudas, la memoria y la capacidad de aprendizaje. Los neurocientíficos aún no conseguimos ponernos de acuerdo en cómo aprende el cerebro, pero hemos descubierto algunos mecanismos que operan en las neuronas que explicarían cómo memorizamos.
Si empezamos mirando el cerebro a gran escala, lo primero que observaremos es que está organizado en regiones con funciones específicas. Una de ellas, que llamamos hipocampo porque se parece a un caballito de mar, es una de las áreas más estudiadas en relación con la memoria y el aprendizaje (aunque no la única). Una de sus funciones parece ser la consolidación de la memoria, ya que personas con lesiones en esta área pueden recordar eventos antiguos, pero no formar nuevas memorias.
Cómo consolida el hipocampo la memoria es un tema candente, pero lo que está claro es que parece ser necesario que se reactive el mismo circuito de neuronas conectadas entre sí que se reclutó cuando se experimentó la vivencia por primera vez. En la última década, estudios en animales de experimentación, fundamentalmente ratones, han sido esenciales para identificar estos circuitos de neuronas, que llamamos «engramas». Si reactivamos los engramas de manera artificial, conseguimos que los animales respondan comportándose como si hubieran experimentado el estímulo inicial, es decir, como si estuvieran recordando.
La siguiente pregunta es qué hace que estos circuitos de neuronas se mantengan conectados y para responder a esa pregunta tenemos que irnos a la babosa de mar, Aplysia. En este animal de apariencia insignificante se sentaron las bases para entender cómo se refuerza la conexión entre las neuronas que disparan juntas. Este mecanismo de nombre enrevesado (LTP, del inglés, long term potentiation o potenciación a largo plazo) nos explica que, cuando se activa el circuito, las conexiones entre las neuronas (las sinapsis) se refuerzan. Las sinapsis reforzadas facilitan que la información circule por ese circuito en el futuro, como un sendero de monte muy transitado.
En las últimas décadas hemos avanzado mucho en entender cómo se refuerzan las sinapsis, e incluso hemos conseguido ver en tiempo real cómo aumentan físicamente de tamaño durante la LTP. Hemos profundizado mucho en lo pequeño, pero las grandes preguntas siguen abiertas. Hay un gran debate entre los neurocientíficos que ponen el foco en las sinapsis y los que lo ponen en los engramas. Y seguimos sin saber hasta qué punto estos mecanismos son imprescindibles para que se produzca el aprendizaje, ni cómo se coordinan para gestionar todo lo que el cerebro hace a la vez y en todas partes.
Lo que sí está claro es que las neuronas y cómo se conectan entre sí son la base del aprendizaje. Por ejemplo, si aislamos neuronas y las ponemos en una placa con un medio de cultivo especial, ellas mismas tenderán a conectarse entre sí, y si las estimulamos veremos cómo se refuerzan sus sinapsis como si aprendieran. Recientemente hemos visto cómo estos cultivos neuronales pueden aprender a ejecutar algoritmos sencillos, como por ejemplo jugar al juego de Pong (una versión muy simple de tenis de mesa), comportándose como una inteligencia artificial. Hay quien postula que en el futuro próximo veamos ordenadores biológicos. ¿Tendrán las neuronas más poder de computación que los ordenadores convencionales? ¿Y que los ordenadores cuánticos? Permanezcan atentos, que se avecinan descubrimientos muy interesantes en los próximos años.
Muchos sistemas de inteligencia artificial se basan en redes neuronales artificiales, porque imitan con algoritmos las conexiones de las neuronas y sus sinapsis. Ahora, son las neuronas las que imitan el modo de aprender de los ordenadores. Para rizar el rizo.
¿Ya eres suscriptor/a? Inicia sesión
Publicidad
Publicidad
Te puede interesar
Fallece un hombre tras caer al río con su tractor en un pueblo de Segovia
El Norte de Castilla
Publicidad
Publicidad
Esta funcionalidad es exclusiva para suscriptores.
Reporta un error en esta noticia
Comentar es una ventaja exclusiva para suscriptores
¿Ya eres suscriptor?
Inicia sesiónNecesitas ser suscriptor para poder votar.