-
Notifications
You must be signed in to change notification settings - Fork 1
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
Proyecto en su estadio final #124
Merged
Merged
Conversation
This file contains bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
Algoritmo de inicialización de pesos de redes neuronales Incluye: - Descripción del experimento - Descripción del test de hipótesis - Requisitos técnicos
Se añaden ficheros al tfg.tex
- Crea estructura para generar red neuronal a partir de matriz - Crea el algotitmo para actualizar los pesos
no matrices como acostumbraba #116
Modificaba los valores de entrada, se ha solucionado con un copy
antes había colisiones con los módulos
Ahora mismo pasa los test para el caso R->R Me he tirado demasiadas horas por culpa del tipo Matrix Resulta que el para conseguir el tipo matrix de un vector existen varias alternativas: hcat, reshape... Pues cuando es un vector de una dimensión o una matriz 1xalgo o algox1 todas esas funciones hacen cosas raras... Total que al final lo más sencillo y que además optimiza el código es utilizar el dispather jejjeje
el resutado es evidencia que hay algo regular jejej ya que la gráfica queda como translada
El fallo estaba en el dominio entonces, porque al hacer el rango equiespacioado ahora salen bien los gráficos
Para poder incluirlas en la memoria
Se elimina sección de experimento en capítulo 7 Se añade declaración de originalidad #49
Ahora según la cabecera se encuentra en una carpeta u otra
Versión multiple input multiple output
de teoría de la aproximación #117
Ha sido revisado y ha sido ligeramente reorganizado
son necesarias para backpropagation #114 He implementado concretamente la derivada débil de la función rampa y de la ReLu (hay algunas derivadas que creo que tienen poco sentido como la de la función umbral y la indicadora... Diría que backpropation no es válido para ellas.
y lo añade al resumen
Con su respectivo test
Añade otra observación sobre aportación del capítulo 6
del mismo, así como dibujar un gráfico caja bigote con los resultados que no sea outliers #115
Corrige erratillas menores y añade párrafo final a la conclusión
de biblioteca de redes neuronales
BlancaCC
added
matemáticas
informática
memoria
Contenido necesario de reflejar en la memoria
labels
Jun 20, 2022
Blanca te paso el .pdf con las correcciones de las partes que has mencionado. El trabajo está fenomenal, enhorabuena. Me ha gustado mucho el apartado de conclusiones. |
@BlancaCC Aquí lo comenté |
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
Add this suggestion to a batch that can be applied as a single commit.
This suggestion is invalid because no changes were made to the code.
Suggestions cannot be applied while the pull request is closed.
Suggestions cannot be applied while viewing a subset of changes.
Only one suggestion per line can be applied in a batch.
Add this suggestion to a batch that can be applied as a single commit.
Applying suggestions on deleted lines is not supported.
You must change the existing code in this line in order to create a valid suggestion.
Outdated suggestions cannot be applied.
This suggestion has been applied or marked resolved.
Suggestions cannot be applied from pending reviews.
Suggestions cannot be applied on multi-line comments.
Suggestions cannot be applied while the pull request is queued to merge.
Suggestion cannot be applied right now. Please check back later.
A falta de una revisión final por mi parte podría decirse que la memoria ya está acabada 😊 (habría que resolver un par de issues rebeldes de ejecución pero bueno).
El resultado final ha sido
tfg-20-06-2022.pdf
No sé cómo estaréis de tiempo hoy; soy consciente de lo precipitado que es y si no os da tiempo de ojearlo no pasa nada.
Pero las cosas que han cambiado respecto a la versión última y que agradecería un vistacillo (por orden de prioridad) son:
Este PR cierra:
los siguientes issues básicos e historias de usuario:
close #22
close #46
close #50
close #51
close #65
close #112
Como resultado de haber revisado y remado la memoria se ha arreglado:
close #93
close #113
close #114
close #119
close #123
En lo que respecta a experimentación:
close #90
close #107
close #109
close #115
close #117
close #121
Además por la rama que proviene incluiría los PR
close #110
close #116
close #118