Aprenentatge automàtic: diferència entre les revisions

Contingut suprimit Contingut afegit
Cap resum de modificació
Etiquetes: Edita des de mòbil Edició web per a mòbils
m Robot treu enllaç igual al text enllaçat
Línia 26:
[[Fitxer:Schedule1.jpg|miniatura|Tipus d'aprenentatges]]
 
* [[Aprenentatge supervisat|'''[[Aprenentatge supervisat]]''']] — L'algorisme genera una funció que relaciona cada entrada amb la sortida desitjada. En el cas de problemes de [[classificació]] tenim que el sistema ha d'aprendre una funció (aproximar la conducta de la funció) a partir d'uns exemples que s'expressen en termes de l'aplicació d'un vector <math>[X_1, X_2, \ldots X_N]\,</math> a un conjunt de classes. És a dir, es proporciona un conjunt de dades al sistema que han estat etiquetats de forma manual amb els valors esperats. Les [[xarxa neuronal|xarxes neuronals]] (supervisades) i els [[arbre de decisió|arbres de decisió]] són exemples d'algorismes d'aprenentatge supervisat. La base de coneixement del sistema està format per exemples d'etiquetatges anteriors. Aquest tipus d'aprenentatge pot ser molt útil en problemes d'investigació biològica, biologia computacional i bioinformàtica.
 
* [[Aprenentatge no supervisat|'''[[Aprenentatge no supervisat]]''']] — L'algorisme disposa d'un conjunt d'exemples, però no de la classe que els hi correspon. Això és, que els exemples no estan etiquetats com passa en el cas anterior. En aquest cas, l'algorisme ha de ser capaç de trobar patrons similars per tal de poder etiquetar. Els algorismes de [[categorització]] (en anglès, ''clustering'') són un exemple d'aquests tipus d'aprenentatge.
 
* [[Aprenentatge semi-supervisat|'''Aprenentatge semisupervisat''']] — Aquest algorisme combina els dos tipus d'algorismes anteriors per tal de generar una funció o classificador adequats. S'utilitza una combinació de les dades marcades i de les no marcades com a conjunt d'entrenament.
 
* [[Aprenentatge per reforç|'''[[Aprenentatge per reforç]]''']] — Un cop realitzada l'acció que pren el sistema s'obté un retorn per part de l'entorn (una gratificació o una penalització segons si l'acció ha estat reeixida o no). És a dir, la informació d'entrada és el resultat que obté de l'exterior com a resposta a les seves accions. s'aprèn mitjançant prova-error i degut això, es requereix un elevat nombre de repeticions.