Funkcje aktywacji neuronowej - Różnica między Logistic / Tanh / etc

Piszę kilka podstawowych metod sieci neuronowych - szczególnie funkcji aktywacji - i przekroczyłem granice mojej śmieciowej wiedzy z matematyki. Rozumiem odpowiednie zakresy (-1/1) (0/1) itd., Ale różne opisy i implementacje powodują, że jestem zdezorientowany.

konkretniesigmoida, logistyka, sigmoid dwubiegunowy, tanhitd.

Robisigmoida po prostu opisz kształt funkcji niezależnie od zasięgu? Jeśli tak, to czy jest to „funkcja sigmoidalna”?

W artykule widziałem „sigmoidę dwubiegunową” w porównaniu z „tanh”, jednak widziałem obie funkcje zaimplementowane (w różnych bibliotekach) z tym samym kodem:

((2 / (1 + Exp (-2 * n))) - 1). Czy to dokładnie to samo?

Podobnie widziałemlogistyka isigmoida aktywacje zaimplementowane przy użyciu tego samego kodu:

(1 / (1 + Exp (-1 * n))). Czy są one również równoważne?

Wreszcie, czy w praktyce ma to tak duże znaczenie? Widzę na wiki awykres bardzo podobnych funkcji sigmoidalnych - czy można użyć któregokolwiek z nich? Niektóre wyglądają na znacznie szybsze do obliczenia niż inne.

questionAnswers(4)

yourAnswerToTheQuestion