Ivanhoe of Sweden Gelu Hat
Material: 100 % ull. Typ: Ribbstickad mössa. Detaljer: Uppvikt kant, litet märke i jacron. Funktion: Värmer skönt under kyliga utomhusaktiviteter. Färg: Graphit...
Läs mer
Från 395:- Se alla priser 
färg:
storlek
Material: 100 % ull. Typ: Ribbstickad mössa. Detaljer: Uppvikt kant, litet märke i jacron. Funktion: Värmer skönt under kyliga utomhusaktiviteter. Färg: Graphit...
Läs mer
Från 395:- Se alla priser
färg:
storlek
Priser
Priser
Filter
Outnorth
Produktpris exkl. moms
316:-
Frakt, från
exkluderat
Totalt exkl. moms
316:-
Estimert MVA
79:-
Ordertotal
395:-
Outnorth
Produktpris exkl. moms
316:-
Frakt, från
exkluderat
Totalt exkl. moms
316:-
Estimert MVA
79:-
Ordertotal
395:-
Outnorth
Outnorth Ivanhoe of Sweden Gelu Hat
395:-
2 – 7 dagar
Outnorth
395:-
2 – 7 dagar
Produktinfo

Ivanhoe Gelu Hat Grey Marl är en ribbstickad mössa framtagen för att ge både värme och stil under kyliga dagar. Mössan har en klassisk design med uppvikt kant samt ett diskret märke med logotypen, vilket ger en stilren och mångsidig accessoar för dina utomhusaktiviteter.

  • Tillverkad av extra fin, mjuk merinoull för optimal komfort och värme.
  • Ribbstickad konstruktion ger bra passform och hållbarhet.
  • Uppvikt kant för ökad värme kring öronen och extra stil.
  • Diskret jacron-märke med Ivanhoe-logga.
  • Material: 100 % ull.
Specifikation
Matematisk definition
GELU(x) = x · Φ(x), där Φ(x) är den kumulativa fördelningsfunktionen (CDF) för standardnormalfördelningen, definierad som Φ(x) = ½ [1 + erf(x/√2)]
Approximerad formel
GELU(x) ≈ 0,5 · x · [1 + tanh(√(2/π) · (x + 0,044715 · x³))]
Egenskaper
GELU är slät (derivbart), icke-monoton och har kontinuerliga derivator
Jämförelse med ReLU
Till skillnad från ReLU, som abrupt klipper bort negativa värden, ger GELU en mjuk övergång och undviker problemet med "döda neuroner"
Jämförelse med Leaky ReLU
Leaky ReLU ger en liten negativ lutning för negativa insignalvärden, men GELU ger en mer dynamisk och icke-linjär aktivering som ofta ger bättre prestanda
Jämförelse med SiLU
Både GELU och SiLU är släta och icke-monotona. Valet mellan dem beror ofta på empiriska tester, men vissa studier antyder att SiLU kan vara något mer effektiv i vissa datamodeller
Användningsområden
Standardaktiveringsfunktion i feed-forward-nätverk i Transformer-arkitekturer såsom BERT, GPT och Vision Transformer (ViT)
Tillgänglighet i ramverk
Implementerad som torch.nn.GELU i PyTorch och tf.keras.activations.gelu i TensorFlow
Prishistorik
Välj först alla egenskaper för produkten
Användarrecensioner
Logga In
Glömt lösenordet?

ELLER