소프트맥스 함수 질문 드립니다. (구교재 190쪽)

17 views
Skip to first unread message

최용준

unread,
Jul 8, 2025, 8:50:56 AMJul 8
to 머신러닝/딥러닝 도서 Q&A
교재에 있는 공식대로
시그모이드 함수 값(ez1~ez7을 구하고,
이것을 이용해서 소프트맥스 함수(s1~s7)을 구해 보았습니다.

scipy 라이브러리 소프트맥스 함수 결과와 차이가 있는데 
왜 그런지 궁금합니다.

# 시그모이드 함수 적용 (ez1 ~ ez7)
# 첫 번째 케이스의 7개 클래스별 0~1 확률값
ez1 = 1 / (1 + np.exp(-(-6.51))) # 로짓함수(=시그모이드 함수)
print(ez1)
ez2 = 1 / (1 + np.exp(-(1.04)))
print(ez2)
ez3 = 1 / (1 + np.exp(-(5.17)))
print(ez3)
ez4 = 1 / (1 + np.exp(-(-2.76)))
print(ez4)
ez5 = 1 / (1 + np.exp(-(3.34)))
print(ez5)
ez6 = 1 / (1 + np.exp(-(0.35)))
print(ez6)
ez7 = 1 / (1 + np.exp(-(-0.63)))
print(ez7)
# Q) 3번과 5번이 가장 높음

0.0014862674441058345 0.7388500060842489 0.994347562848763 0.05952436597650152 0.965775842307604 0.5866175789173301 0.34751053780725555

e_sum = ez1+ez2+ez3+ez4+ez5+ez6+ez7
print(e_sum)

3.694112161385809  

# s 값 출력 (ez1 ~ ez7 값의 비율)
# 첫 번째 케이스의 7개 클래스별 확률값의 비율
s1 = ez1/e_sum
print(s1)
s2 = ez2/e_sum
print(s2)
s3 = ez3/e_sum
print(s3)
s4 = ez4/e_sum
print(s4)
s5 = ez5/e_sum
print(s5)
s6 = ez6/e_sum
print(s6)
s7 = ez7/e_sum
print(s7)
# Q) 3번과 5번이 가장 높음

0.0004023341412428247 0.20000746425822566 0.2691709183176895 0.01611330771130987 0.26143652388326594 0.15879798806576206 0.09407146362250422 

 # s1 ~ s7의 합계는 1
s1+s2+s3+s4+s5+s6+s7

np.float64(1.0000000000000002)
# scipy 라이브러리의 소프트맥스 함수 적용
from scipy.special import softmax
proba = softmax(decisions, axis=1)
print(np.round(proba, decimals=3))
[[0. 0.014 0.842 0. 0.135 0.007 0.003] # 3번이 매우 높은 확률 [0. 0.003 0.044 0. 0.007 0.946 0. ] [0. 0. 0.034 0.934 0.015 0.016 0. ] [0.011 0.034 0.305 0.006 0.567 0. 0.076] [0. 0. 0.904 0.002 0.089 0.002 0.001]]

Haesun Park

unread,
Jul 9, 2025, 3:58:10 AMJul 9
to 최용준, 머신러닝/딥러닝 도서 Q&A
안녕하세요. 박해선입니다.
e^z1은 시그모이드 함수로 구하는 것이 아니고 지수 함수를 사용합니다.
즉 ez1 = np.exp(-6.51) 입니다.
191페이지 상단의 공식을 참고하세요.
감사합니다.

2025년 7월 8일 (화) 오후 9:51, 최용준 <lotu...@gmail.com>님이 작성:
--
이 메일은 Google 그룹스 '머신러닝/딥러닝 도서 Q&A' 그룹에 가입한 분들에게 전송되는 메시지입니다.
이 그룹에서 탈퇴하고 더 이상 이메일을 받지 않으려면 ml-dl-book-qn...@googlegroups.com에 이메일을 보내세요.
이 토론을 보려면 https://groups.google.com/d/msgid/ml-dl-book-qna/4e455819-aeb6-4d59-b351-eed9f86396d9n%40googlegroups.com 페이지로 이동하세요.
Reply all
Reply to author
Forward
0 new messages