Kuidas enesetähelepanu toimib?
Kuidas enesetähelepanu toimib?

Video: Kuidas enesetähelepanu toimib?

Video: Kuidas enesetähelepanu toimib?
Video: LAHKUMINEK VÕI SUHTESSE JÄÄMINE? (06.09.2020) 2024, November
Anonim

Tavapäraselt öeldes ise - tähelepanu mehhanism võimaldab sisenditel üksteisega suhelda (“ ise ”) ja uurige, kellele nad peaksid rohkem maksma tähelepanu kuni ( tähelepanu ”). Väljundid on nende interaktsioonide agregaadid ja tähelepanu hinded.

Lisaks, mis on enesetähelepanu?

Ise - tähelepanu , mida mõnikord nimetatakse intra- tähelepanu on an tähelepanu mehhanism, mis seob ühe jada erinevaid asukohti, et arvutada jada esitus.

Samuti, mis on enesetähelepanu süvaõppes? Esiteks määratleme, mida ise - Tähelepanu " on. Cheng jt oma artiklis "Long Short-Term Memory-Networks for Masin Lugemine”, määratletud ise - Tähelepanu ühe jada või lause erinevate positsioonide seostamise mehhanismina, et saavutada erksam esitus.

Mis on sellega seoses tähelepanu mehhanism?

Tähelepanu mehhanism võimaldab dekoodril väljundi genereerimise igal etapil jälgida lähtelause erinevaid osi. Selle asemel, et kodeerida sisendjada ühte fikseeritud kontekstivektorisse, laseme mudelil õppida, kuidas luua konteksti vektorit iga väljundi ajaetapi jaoks.

Mis on tähelepanupõhine mudel?

Tähelepanu - põhinevad mudelid kuuluvad klassi mudelid mida tavaliselt nimetatakse järjestusest jadasse mudelid . Nende eesmärk mudelid , nagu nimigi ütleb, loob see väljundjada, mille sisendjada on üldiselt erineva pikkusega.

Soovitan: