Matemáticos de RUDN University descubrieron cómo reducir una red neuronal 6 veces sin sobreajuste

Matemáticos de RUDN University descubrieron cómo reducir una red neuronal 6 veces sin sobreajuste

Unos matemáticos de RUDN University han creado un método para reducir seis veces el tamaño de una red neuronal entrenada sin gastar recursos en su sobreajuste. El método se basa en establecer la relación entre los «pesos» de las conexiones neuronales en el sistema inicial y en su versión simplificada.

El principio de los dispositivos de redes neuronales artificiales repite la organización de las neuronas en un organismo vivo: los nodos están conectados con «vecinos», algunos de ellos transmiten una señal, activando o inhibiendo el siguiente elemento de la cadena, y algunos la reciben. El procesamiento de cualquier señal, ya sea imagen o sonido, requiere una gran cantidad de elementos de red y conexiones que parten de ella. Además, en los ordenadores existe una limitación en relación con la potencia, así como con la cantidad de memoria del dispositivo. Cuando se trabaja con grandes cantidades de datos, los expertos recurren a trucos para reducir la capacidad requerida. Uno de ellos es la denominada cuantificación, la cual permite reducir los recursos consumidos, pero al mismo tiempo requiere un sobreajuste del sistema. Sin embargo, unos matemáticos de RUDN University descubrieron que el sobreajuste se puede evitar.

«Hace algunos años, estudiamos de qué manera cuantificar los pesos de manera eficiente y rentable en una red de Hopfield. Esta es una red de memoria asociativa, cuyas conexiones son simétricas y se forman según la regla de Hebb. La actividad de la red durante el proceso de trabajo concurre a un determinado estado de equilibrio, que al ser alcanzado, se considera que se ha encontrado la solución al problema. Nosotros hemos aplicado estos estudios en redes neuronales de distribución directa que son las más populares actualmente para el reconocimiento de imágenes. Por lo general, después de cuantificar tales redes es necesario un sobreajuste, pero descubrimos cómo evitarlo» dijo Iakov Karandashev, Doctor en Ciencias Físico-Matemáticas, profesor del Instituto Matemático S. M. Nikolskiy, RUDN University.

La idea principal detrás de la simplificación de las redes neuronales artificiales es reducir la cantidad de bits por peso, es decir, la cuantificación de pesos. La cuantificación implica promediar una señal, por ejemplo, en el caso de las imágenes, los píxeles de los tonos de un mismo color se volverían iguales. Matemáticamente, esto significa que las conexiones neuronales que son similares en algunos parámetros tendrán el mismo peso o importancia (expresada por un número).

Los matemáticos de RUDN University realizaron cálculos y establecieron fórmulas que de mejor manera relacionan los valores de los pesos de las conexiones en una red antes y después de la cuantificación. Basándose en esto, construyeron algoritmos mediante los cuales, la red neuronal entrenada pudo clasificar las imágenes. En el experimento, los matemáticos usaron 50000 fotografías correspondientes a 1000 grupos. Después del entrenamiento, la red neuronal fue cuantificada utilizando el nuevo método, es decir, no se realizó el sobreajuste. Los resultados fueron comparados con los algoritmos de cuantificación existentes.

«Después de cuantificar, la precisión de la clasificación disminuyó, pero solo 1%. Al mismo tiempo, la cantidad de memoria necesaria se redujo seis veces. Los experimentos también demostraron que nuestra red neuronal no necesita entrenamiento posterior, esto se logró gracias a la fuerte correlación entre los pesos originales y los cuantificados. Este método permitirá ahorrar recursos al resolver ejercicios que requieran una ejecución rápida o al ponerlos en marcha en dispositivos móviles», explicó Iakov Karandashev, Doctor en Ciencias Físico-Matemáticas, profesor del Instituto Matemático S. M. Nikolskiy, RUDN University.

Los resultados fueron publicados en Optical Memory and Neural Networks.

Ciencia
24 Feb
Nuevos tipos de urbanización y la búsqueda del equilibrio: en la RUDN se celebraron las primeras defensas de tesis doctorales en arquitectura

En la sesión del nuevo consejo de tesis de la RUDN para las especialidades 2.1.12 “Arquitectura de edificios y construcciones. Conceptos creativos de la actividad arquitectónica” y 2.1.11 “Teoría e historia de la arquitectura, restauración y reconstrucción del patrimonio histórico-arquitectónico”, se otorgaron por primera vez en la historia de la universidad los grados científicos de Candidatos a Doctor en Arquitectura a tres estudiantes de posgrado: Natalia Kalínina, Evgueni Oguienko y Yulia Logínova.

Ciencia
17 Feb
Los más destacados: en la RUDN se presentaron los resultados del ranking del personal científico-pedagógico correspondiente a 2025

En la RUDN se dieron a conocer los nombres de los científicos más destacados según los resultados de 2025. El tradicional ranking del personal científico-pedagógico, que se realiza desde 2023, determinó a los líderes en tres categorías clave: “El científico más citado”, “Líder en comercialización de RAI” y “Mejor director de proyectos subvencionados”.

Ciencia
16 Feb
Galardonados del Premio de la RUDN en el ámbito de la ciencia y la innovación de 2025: ¡felicitamos a los científicos destacados y jóvenes de la universidad!

En la RUDN tuvo lugar la ceremonia solemne de entrega del premio anual en el ámbito de la ciencia y la innovación. Sus poseedores fueron cuatro científicos de la universidad: Dmitri Kucher, Olga Lomákina, Konstantín Gomonov y Viacheslav Beguishev.