creacion de texto con redes neuronales recurrentes
This project is maintained by alexis96
Aqui mostraremos un poco de lo que es una red neuronal recurrente asi como unas aplicaciones con algunos documentos creados.
Las redes neuronales recurrentes completamente conectadas tienen caminos de retro alimentacion entre todos los elementos que la conforman. Una sola neurona esta entonces conectada a las neuronas posteriores en la siguiente capa, las neuronas pasadas de la capa anterior y a ella misma a traves de vectores de pesos variables que sufren alteraciones en cada epoch.
La mayoria de las aplicaciones de este tipo de red son la identificacion y clasificacion de patrones secuenciales con distintas posibilidades de ocurrir a traves del tiempo, por ejemplo para traducciones generacion de texto como en nuestro caso o en donde usemos datos en secuencia en donde el orden tenga importancia
Para la creacion de esta red recurrente simple usamos un codigo hecho todo en numpy obtenido de aqui. La cual modificamos para nuesto uso y hacer la generacion de municipios creada en un libreta la cual esta ubicada en el repositorio. Libreta
dado la construccion del archivo usado como los datos estan ordenados alfabeticamente la generacion suele tambien ser en ese orden.
Las redes LSTM(Long-Short-Term-Memory) es un tipo de red recurrente capaz de aprender dependencias a largo plazo, practicamente recuerda informacion por largos periodos de tiempo. con una construccion interna un poco diferente a la normal.
Para los siguientes resultados usamos una red LSTM (Long short term memory) para generar textos. Esta red esta hecha usando tensorflow y obtenida de Aqui la cual tambien modificamos para nuestro caso en la que usamos dos capaz lstm de 256 neuronas cada una y una capa de salida softmax completamente conectada del mismo tamaño que la de entrada.Codigo Aqui Usamos para el aprendizaje de la red algunos discursos politicos de mexico y alguno de otro pais hispanohablante.