Cuando los seres humanos nos enfrentamos a un nuevo concepto que queremos aprender, nuestro cerebro no lo hace de forma aislada, sino que utiliza todo el conocimiento previamente aprendido para ayudarse en este nuevo aprendizaje. Además, nuestro cerebro es capaz de aislar lo que no va a beneficiarnos y a utilizar lo que realmente nos va ser útil, esto lo hace muy bien y de forma inconsciente. Sin embargo, cuando una maquina de aprendizaje es entrenada para resolver una determinada tarea, por ejemplo, a diagnosticar una determinada enfermedad, normalmente esta máquina aprende en solitario sólo con los datos disponibles sobre esa enfermedad.
Hay una metodología llamada Aprendizaje Multitarea, MTL (¿Multi-Task Learning¿), que se fundamenta en la idea inicialmente expuesta. De esta forma, la tarea a resolver (tarea principal) se aprende conjuntamente con otras tareas relacionadas (tareas secundarias), se produce una transferencia de información entre ellas que puede ser ventajosa para el aprendizaje de la primera. Sin embargo, en problemas reales, es difícil encontrar tareas que estén relacionadas o incluso, encontrándolas, es sumamente complejo determinar el grado en que se va a realizar esa ayuda, ya que una tarea puede contener información que puede ayudar pero también perjudicar.
Esta Tesis incorpora una nueva metodología que permite obtener tareas secundarias relacionadas con la que se pretende aprender (tarea principal). La segunda contribución de este trabajo se enmarca también dentro del MTL, en este caso, diseñando de forma automática una máquina MTL que elimine todos aquellos factores que perjudiquen o no beneficien al aprendizaje de la tarea principal. Esta arquitectura es única y además se obtiene sin necesidad de metodologías de ensayo/error que aumentan la complejidad de cálculo.
© 2001-2024 Fundación Dialnet · Todos los derechos reservados