Calculating cell stateoutput Gate
laatste hebben we de output Gate. De uitgangspoort bepaalt wat de volgende verborgen toestand moet zijn. Vergeet niet dat de verborgen toestand informatie bevat over eerdere invoer. De verborgen toestand wordt ook gebruikt voor voorspellingen. Eerst geven we de vorige verborgen toestand en de huidige invoer door aan een sigmoid functie. Dan geven we de nieuw gewijzigde celtoestand door aan de tanh-functie. We vermenigvuldigen de tanh-uitvoer met de sigmoid-uitvoer om te beslissen welke informatie de verborgen toestand moet bevatten. De uitvoer is de verborgen toestand. De nieuwe cel staat en de nieuwe verborgen wordt dan overgedragen aan de volgende keer stap.
om te beoordelen, bepaalt de forget gate wat relevant is om te bewaren van eerdere stappen. De invoerpoort bepaalt welke informatie relevant is om toe te voegen uit de huidige stap. De uitvoerpoort bepaalt wat de volgende verborgen toestand moet zijn.
Code Demo
voor degenen onder u die beter begrijpen door het zien van de code, hier is een voorbeeld met python pseudo code.
1. Eerst worden de vorige verborgen toestand en de huidige invoer samengevoegd. We noemen het combineren.
2. Combineer get ‘ s fed in de forget laag. Deze laag verwijdert niet-relevante gegevens.
4. Een kandidaatlaag wordt gemaakt met combine. De kandidaat heeft mogelijke waarden om toe te voegen aan de celstatus.
3. Combineer ook get ‘ s ingevoerd in de invoerlaag. Deze laag bepaalt welke gegevens van de kandidaat aan de nieuwe celstatus moeten worden toegevoegd.
5. Na het berekenen van de laag vergeten, kandidaatlaag en de invoerlaag, wordt de celstatus berekend met behulp van die vectoren en de vorige celstatus.
6. De output wordt dan berekend.
7. Puntsgewijs vermenigvuldigen van de output en de nieuwe cel staat geeft ons de nieuwe verborgen staat.
dat is het! De control flow van een LSTM netwerk zijn een paar tensor operaties en een for loop. Je kunt de verborgen toestanden gebruiken voor voorspellingen. Door al deze mechanismen te combineren, kan een LSTM kiezen welke informatie relevant is om te onthouden of te vergeten tijdens de sequentieverwerking.
GRU
dus nu weten we hoe een LSTM werkt, laten we kort kijken naar de GRU. De GRU is de nieuwere generatie van terugkerende neurale netwerken en is vrij vergelijkbaar met een LSTM. GRU heeft de celstatus verwijderd en de verborgen status gebruikt om informatie over te dragen. Het heeft ook slechts twee poorten, een reset gate en update gate.